Analisis Produk Domestik Regional Bruto (Pdrb) Dan Jumlah Tenaga Kerja Terhadap Pendapatan Perkapita Kota Padangsidimpuan

(1)

BAB 2

LANDASAN TEORI

2.1 Konsep Dasar Analisis Regresi

Perubahan suatu variabel dapat disebabkan karena adanya perubahan pada variabel - variabel lain yang mempengaruhinya. Misalnya pada seorang karyawan terhadap perubahan tingkat produktivitas karena adanya perubahan upah yang diterimanya. Dalam artian bahwa karyawan tersebut semakin produktif sebagai akibat adanya tambahan upah yang diterimanya. Dalam hal ini berarti bahwa perubahan produktivitas disebabkan oleh adanya perubahan upah. Dalam fenomena alam banyak sekali kejadian yang saling berkaitan sehingga perubahan pada variabel lain berakibat pada perubahan variabel yang lainnya. Teknik yang digunakan untuk menganalisis hal - hal semacam ini disebut dengan analisis regresi.

Analisis regresi (regression analysis) merupakan suatu teknik untuk membangun persamaan dan menggunakan persamaan tersebut untuk membuat perkiraan (prediction). Dengan demikian, analisis regresi sering disebut sebagai analisis prediksi. Karena merupakan prediksi, maka nilai prediksi tidak selalu tepat dengan nilai riilnya, semakin kecil tingkat penyimpangan antara nilai prediksi dengan nilai riilnya, maka semakin tepat persamaan regresi yang di bentuk.


(2)

Sedemikian hingga dapat didefenisikan bahwa analisa regresi adalah metode statistika yang digunakan untuk menentukan kemungkinan bentuk hubungan antara variabel - variabel, dengan tujuan pokok dalam penggunaan metode ini adalah untuk meramal atau memperkirakan nilai dari suatu variabel lain yang diketahui.

2.2 Persamaan Regresi

Persamaan Regresi (regression equation) adalah suatu persamaan matematis yang mendefenisikan hubungan antara dua variabel. Persamaan regresi yang digunakan untuk membuat taksiran mengenai variabel dependen disebut persamaan regresi estimatis, yaitu suatu formula matematis yang menunjukkan hubungan ketertarikan antara satu atau beberapa variabel yang nilainya sudah diketahui dengan satu variabel lain yang nilainya belum diketahui.

Sifat hubungan antarvariabel dalam persamaan regresi merupakan hubungan sebab akibat (causal relasionship). Oleh karena itu, sebelum menggunakan persamaan regresi dalam menjelaskan hubungan antara dua atau lebih variabel, maka perlu diyakini terlebih dahulu bahwa secara teoritis atau perkiraan sebelumnya, dua atau lebih variabel tersebut memiliki hubungan sebab akibat. Variabel yang nilainya akan mempengaruhi nilai variabel lain disebut dengan variabel bebas (independent variable), sedangkan variabel yang nilainya dipengaruhi oleh nilai variabel lain disebut variabel tak bebas (dependent variable).


(3)

2.2.1 Regresi linier Sederhana

Regresi linier sederhana yaitu suatu prosedur untuk mendapatkan hubungan matematis dalam bentuk persamaan antara variabel bebas tunggal dengan variabel tak bebas tunggal. Regresi linier sederhana hanya memiliki satu variabel bebas X yang dihubungkan dengan satu variabel tak bebas Y.

Bentuk umum Regresi Linier Sederhana:

Y α+ bX (2.1)

Dengan:

Y = variabel terikat X = variabel bebas

α = intersep

b = koefisien regresi/slop

Persamaan regresi linier sederhana dengan satu variabel bebas ditaksir oleh:

Ŷ = α + bX (2.2)

Nilai α dan b dapat ditentukan dengan menggunakan persamaan normal berikut:

ΣY = αn + bΣX

ΣXY = αΣX + bΣX2

(2.3)

Dalam bentuk matriks dapat dituliskan:

= (2.4)

Atau dengan rumusan Metode Kuadrat Terkecil ditulis:

α =


(4)

2.2.2 Regresi Linier Berganda

Banyak persoalan penelitian atau pengamatan yang terjadi sebagai akibat lebih dari dua variabel, atau dengan kata lain memerlukan lebih dari satu variabel bebas dalam membentuk model regresi. Sebagai salah satu contoh, IPK (Indeks Prestasi Kumulatif) seorang mahasiswa (Y) bergantung pada jumlah jam belajar (X1), banyaknya buku yang dibaca (X2), jumlah uang (X3) dan banyak faktor lainnya. Untuk memberikan gambaran tentang suatu permasalahan atau persoalan, biasanya sangat sulit ditentukan sehingga diperlukan suatu model yang dapat memprediksi dan meramalkan respon yang penting terhadap persoalan tersebut, yaitu regresi liner berganda.

Analisis regresi linier berganda memberikan kemudahan bagi pengguna untuk memasukkan lebih dari satu variabel prediktor hingga k-prediktor dimana banyaknya k kurang dari jumlah observasi (n). sehingga model regresi dapat ditunjukkan sebagai berikut:

Y = 0 + 1X1 + 2X2 + … + kXk + (2.6)

Dengan:

Y = variabel tak bebas 0,…, k = koefisien regresi X1,…, Xk = variabel bebas

= error

Karena model diduga dari sampel, maka secara umum ditunjukkan sebagai berikut:


(5)

Ŷ = b0 + b1X + b2X2 + … + bkXk (2.7) Dengan:

Ŷ = nilai penduga bagi variabel Y

b0,b1,b2,…,bk = dugaan bagi parameter konstan 0, 1, 2,…, k X1,X2,…,Xk = variabel bebas X1,X2,…,Xk

Untuk mencari nilai b0, b1, b2, …, bk diperlukan n buah pasang data (X1, X2, X3, Y) yang dapat di sajikan dalam tabel 2.1. berikut.

Tabel 2.1. Data Hasil Pengamatan dari n Responden (X1,X2,…,Xk,Y)

Responden X1 X2 ... Xk Y 1 X11 X21 ... Xk1 Y1 2 X12 X22 ... Xk2 Y2

. . . . . . . . . . . . . . . . . . N X1n X2n . Xkn Yn

Dari tabel 2.1. dapat dilihat bahwa Y1 berpasangan dengan X11, X21, …, Xk1 data Y2 berpasangan dengan X12, X22, …, Xk2 dan umumnya data Yn berpasangan dengan X1n,X2n, …, Xkn.

Persamaan regresi berganda dengan dua variabel bebas X1, X2, ditaksir oleh:


(6)

Nilai b0,b1,b2 dapat ditentukan dengan menggunakan persamaan normal berikut:

ΣYi = b0n + b1ΣX1i + b2ΣX2i

ΣYiΣ1i = b0ΣX1i + b1ΣX1i2 + b2ΣX1iX2i

ΣYiΣX2i = b0ΣX2i + b1ΣX2iX1 + b2ΣX2i2 (2.9) Dalam bentuk matriks dapat dituliskan:

= (2.10)

Dengan rumusan Metode Kuadrat Terkecil ditulis:

b1 =

b2 =

b0 = (2.11)

Dengan:

= - = -

= - = -

= - = -

Dalam penelitian ini, penulis menggunakan regresi linier berganda dengan 3 variabel, yaitu satu variabel tak bebas (dependent variable) dan dua variabel bebas (independent variable).


(7)

Dalam persamaan model regresi linier yang diperoleh, maka antara Y

dengan Ŷ akan menimbulkan perbedaan hasil yang sering disebut sebagai

kekeliruan. Ukuran tersebut dapat dihitung oleh kekeliruan baku taksiran Sy,1,2,…,k yang dapat ditentukan oleh rumus:

Sy,1,2,…,k = (2.12)

Dengan:

Yi = nilai data sebenarnya

Ŷ = nilai taksiran n = banyaknya data k = banyak variabel bebas

2.3 Uji Regresi Linier Berganda

2.3.1 Uji F (Simultan)

Uji F ini adalah pengujian yang bertujuan untuk mengetahui seberapa besar pengaruh koefisien regresi secara bersama - sama terhadap variabel tak bebas. Nilai Fhitung dapat diperoleh dengan rumus:

F =

(2.13)

Dengan:

JKreg = jumlah kuadrat regresi JKres = jumlah kuadrat residu (sisa)


(8)

Dengan: x1j = X1 - x2i = X2 - xkj = Xi - JKreg = ∑(Y - )2

Untuk uji F ini digunakan hipotesa sebagai berikut: H0 : b1=b2=bn...=bn=0 (tidak ada pengaruh)

H1 : b1 b2 0…bi=1 (minimal terdapat satu pengaruh)

Kriteria pengambilan keputusan:

a. H0 diterima jika (Fhitung Ftabel) artinya variabel bebas secara bersama - sama tidak berpengaruh secara simultan dan signifikan terhadap variabel tak bebasnya.

b. H1 diterima jika (Fhitung Ftabel) artinya variabel bebas secara bersama - sama berpengaruh secara simultan dan signifikan terhadap variabel tak bebasnya.

2.3.2 Uji t (Uji Parsial)

Keberartian adanya variabel - variabel bebas dalam regresi linier berganda perlu diuji untuk menunjukkan seberapa besar pengaruh yang diberikan pada variabel tak bebas. Dan cara tepat untuk mengujinya adalah dengan menggunakan uji statistik t (t-student).


(9)

Adanya kriteria bahwa variabel - variabel tersebut memberikan pengaruh yang berarti atau tidak terhadap variabel tak bebas akan diuji hipotesis H0 melawan tandingan H1 dalam bentuk:

H0 = i = 0,i = 1,2,…,k. H1 = i 0,i = 1,2,…,k.

Untuk menguji hipotesis tersebut digunakan kekeliruan baku taksiran S2y,1,2,…,k jadi untuk melihat kekeliruan baku dari koefisien bi adalah:

Sbi = (2.14)

Dengan:

S2y,1,2,3 =

Σ xij = Σ( Xi - i)

Ri 2

=

Perhitungan t-statistik adalah:

ti = (2.15)

Dengan:

bi = nilai taksiran parameter b ke-i

= standar deviasi nilai taksiran parameter bke-i

Dan distribusi t-statistik serta dk = ( n-k-1 ), ttabel = t(α,n-k-1) dimana kriteria pengujian adalah : tolak H0 jika ti > ttabel dan diterima H0 jika ti < ttabel.


(10)

2.4 Koefisien Determinasi

Koefisien determinasi yang dinyatakan dengan R2 untuk pengujian regresi linier berganda yang mencakup lebih dari dua variabel. Koefisien determinasi adalah untuk mengetahui proporsi keragaman total dalam variabel tak bebas Y yang dapat dijelaskan atau diterangkan oleh variabel - variabel bebas X yang ada dalam model persamaan regresi linier berganda secara bersama - sama. Maka R2 akan ditentukan oleh rumus:

R2 = (2.16)

Dengan:

JKreg = jumlah kuadrat regresi

∑yi2 = ∑Yi2–

2.5 Koefisien Korelasi

Analisis korelasi adalah alat statistik yang dapat digunakan untuk mengetahui adanya derajat hubungan linier antara satu variabel dengan variabel yang lain. Hubungan antara satu variabel dengan variabel yang lainnya dapat merupakan hubungan yang kebetulan belaka, tetapi dapat juga merupakan hubungan sebab akibat.

Dua variabel dikatakan berkorelasi apabila perubahan pada suatu variabel akan diikuti oleh perubahan variabel lain. Baik dengan arah yang sama maupun


(11)

dengan dengan arah yang berlawanan. Hubungan antarvariabel dapat dikelompokkan menjadi 3 jenis hubungan sebagai berikut:

1. Korelasi positif

Terjadinya korelasi positif apabila perubahan pada variabel yang satu diikuti dengan perubahan variabel yang lain dengan arah yang sama (berbanding lurus). Artinya apabila variabel yang satu meningkat, maka akan diikuti dengan peningkatan variabel lain.

2. Korelasi Negatif

Korelasi negatif terjadi apabila perubahan pada variabel yang satu diikuti dengan perubahan yang lain dengan arah yang berlawanan (berbanding terbalik). Artinya apabila variabel yang satu meningkat, maka akan diikuti dengan penurunan pada variabel yang lain dan sebaliknya.

3. Korelasi Nihil

Korelasi nihil terjadi apabila perubahan pada variabel yang satu diikuti perubahan pada variabel yang lain dengan arah yang tidak teratur (acak), artinya apabila variabel yang satu meningkat, kadang diikuti dengan peningkatan pada variabel yang lain dan kadang diikuti dengan penurunan pada variabel yang lain.

Besarnya hubungan antara variabel yang satu dengan variabel yang lain

dinyatakan dengan koefisien korelasi yang disimbolkan dengan “r”. besarnya


(12)

Untuk mencari korelasi antara variabel Y terhadap Xi atau ry.1,2,…,k dapat diperoleh dengan rumus:

ry.1, 2, …, k = (2.17)

Sedangkan untuk mengalami korelasi antar variabel bebas dengan variabel bebasnya adalah:

Koefisien korelasi antara X1 dan X2

r 12 = (2.18)

Nilai koefisien korelasi -1 r 1. Jika dau variabel berkorelasi negatif maka nilai koefisien akan mendekati -1, jika dua variabel tidak berkorelasi maka koefisien korelasi akan mendekati 0, sedangkan jika dua variabel berkorelasi positif maka nilai koefisien korelasi akan mendekati +1.

Untuk lebih memudahkan mengetahui seberapa jauh derajat kerataan antarvariabel tersebut, berikut ini diberikan nilai – nilai dari Koefisien Korelasi (KK) sebagai patokan.

1. KK = 0, tidak ada korelasi.

2. 0 < KK 0,20, korelasi sangat rendah/lemah sekali. 3. 0,20 < KK 0,40, korelasi rendah/lemah tapi pasti. 4. 0,40 < KK 0,70, korelasi yang cukup berarti. 5. 0,70 < KK 0,90, korelasi yang tinggi, kuat.


(1)

Dalam persamaan model regresi linier yang diperoleh, maka antara Y

dengan Ŷ akan menimbulkan perbedaan hasil yang sering disebut sebagai

kekeliruan. Ukuran tersebut dapat dihitung oleh kekeliruan baku taksiran Sy,1,2,…,k yang dapat ditentukan oleh rumus:

Sy,1,2,…,k = (2.12)

Dengan:

Yi = nilai data sebenarnya Ŷ = nilai taksiran

n = banyaknya data k = banyak variabel bebas

2.3 Uji Regresi Linier Berganda

2.3.1 Uji F (Simultan)

Uji F ini adalah pengujian yang bertujuan untuk mengetahui seberapa besar pengaruh koefisien regresi secara bersama - sama terhadap variabel tak bebas. Nilai Fhitung dapat diperoleh dengan rumus:

F =

(2.13)

Dengan:

JKreg = jumlah kuadrat regresi


(2)

Dengan: x1j = X1 -

x2i = X2 -

xkj = Xi -

JKreg = ∑(Y - )2

Untuk uji F ini digunakan hipotesa sebagai berikut: H0 : b1=b2=bn...=bn=0 (tidak ada pengaruh)

H1 : b1 b2 0…bi=1 (minimal terdapat satu pengaruh)

Kriteria pengambilan keputusan:

a. H0 diterima jika (Fhitung Ftabel) artinya variabel bebas secara bersama - sama

tidak berpengaruh secara simultan dan signifikan terhadap variabel tak bebasnya.

b. H1 diterima jika (Fhitung Ftabel) artinya variabel bebas secara bersama - sama

berpengaruh secara simultan dan signifikan terhadap variabel tak bebasnya.

2.3.2 Uji t (Uji Parsial)

Keberartian adanya variabel - variabel bebas dalam regresi linier berganda perlu diuji untuk menunjukkan seberapa besar pengaruh yang diberikan pada variabel tak bebas. Dan cara tepat untuk mengujinya adalah dengan menggunakan uji statistik t (t-student).


(3)

Adanya kriteria bahwa variabel - variabel tersebut memberikan pengaruh yang berarti atau tidak terhadap variabel tak bebas akan diuji hipotesis H0

melawan tandingan H1 dalam bentuk:

H0 = i = 0,i = 1,2,…,k.

H1 = i 0,i = 1,2,…,k.

Untuk menguji hipotesis tersebut digunakan kekeliruan baku taksiran S2y,1,2,…,k jadi untuk melihat kekeliruan baku dari koefisien bi adalah:

Sbi = (2.14)

Dengan:

S2y,1,2,3 =

Σ xij = Σ( Xi - i) Ri

2

=

Perhitungan t-statistik adalah:

ti = (2.15)

Dengan:

bi = nilai taksiran parameter b ke-i

= standar deviasi nilai taksiran parameter bke-i

Dan distribusi t-statistik serta dk = ( n-k-1 ), ttabel = t(α,n-k-1) dimana kriteria


(4)

2.4 Koefisien Determinasi

Koefisien determinasi yang dinyatakan dengan R2 untuk pengujian regresi linier berganda yang mencakup lebih dari dua variabel. Koefisien determinasi adalah untuk mengetahui proporsi keragaman total dalam variabel tak bebas Y yang dapat dijelaskan atau diterangkan oleh variabel - variabel bebas X yang ada dalam model persamaan regresi linier berganda secara bersama - sama. Maka R2 akan ditentukan oleh rumus:

R2 = (2.16)

Dengan:

JKreg = jumlah kuadrat regresi ∑yi2

= ∑Yi2–

2.5 Koefisien Korelasi

Analisis korelasi adalah alat statistik yang dapat digunakan untuk mengetahui adanya derajat hubungan linier antara satu variabel dengan variabel yang lain. Hubungan antara satu variabel dengan variabel yang lainnya dapat merupakan hubungan yang kebetulan belaka, tetapi dapat juga merupakan hubungan sebab akibat.

Dua variabel dikatakan berkorelasi apabila perubahan pada suatu variabel akan diikuti oleh perubahan variabel lain. Baik dengan arah yang sama maupun


(5)

dengan dengan arah yang berlawanan. Hubungan antarvariabel dapat dikelompokkan menjadi 3 jenis hubungan sebagai berikut:

1. Korelasi positif

Terjadinya korelasi positif apabila perubahan pada variabel yang satu diikuti dengan perubahan variabel yang lain dengan arah yang sama (berbanding lurus). Artinya apabila variabel yang satu meningkat, maka akan diikuti dengan peningkatan variabel lain.

2. Korelasi Negatif

Korelasi negatif terjadi apabila perubahan pada variabel yang satu diikuti dengan perubahan yang lain dengan arah yang berlawanan (berbanding terbalik). Artinya apabila variabel yang satu meningkat, maka akan diikuti dengan penurunan pada variabel yang lain dan sebaliknya.

3. Korelasi Nihil

Korelasi nihil terjadi apabila perubahan pada variabel yang satu diikuti perubahan pada variabel yang lain dengan arah yang tidak teratur (acak), artinya apabila variabel yang satu meningkat, kadang diikuti dengan peningkatan pada variabel yang lain dan kadang diikuti dengan penurunan pada variabel yang lain.

Besarnya hubungan antara variabel yang satu dengan variabel yang lain

dinyatakan dengan koefisien korelasi yang disimbolkan dengan “r”. besarnya


(6)

Untuk mencari korelasi antara variabel Y terhadap Xi atau ry.1,2,…,k dapat diperoleh

dengan rumus:

ry.1, 2, …, k = (2.17)

Sedangkan untuk mengalami korelasi antar variabel bebas dengan variabel bebasnya adalah:

Koefisien korelasi antara X1 dan X2

r 12 = (2.18)

Nilai koefisien korelasi -1 r 1. Jika dau variabel berkorelasi negatif maka nilai koefisien akan mendekati -1, jika dua variabel tidak berkorelasi maka koefisien korelasi akan mendekati 0, sedangkan jika dua variabel berkorelasi positif maka nilai koefisien korelasi akan mendekati +1.

Untuk lebih memudahkan mengetahui seberapa jauh derajat kerataan antarvariabel tersebut, berikut ini diberikan nilai – nilai dari Koefisien Korelasi (KK) sebagai patokan.

1. KK = 0, tidak ada korelasi.

2. 0 < KK 0,20, korelasi sangat rendah/lemah sekali. 3. 0,20 < KK 0,40, korelasi rendah/lemah tapi pasti. 4. 0,40 < KK 0,70, korelasi yang cukup berarti. 5. 0,70 < KK 0,90, korelasi yang tinggi, kuat.

6. 0,90 < KK 1,00, korelasi sangat tinggi, kuat sekali, dapat diandalkan. 7. KK = 1, berarti korelasi sempurna.