19
1.7 Uji Autokorelasi
Autokorelasi berarti terdapatnya korelasi antar anggota sampel atau data pengamatan yang diurutkan berdasarkan waktu, sehingga munculnya suatu datum
dipengaruhi oleh datum sebelumnya. Autokorelasi muncul pada regresi yang menggunakan data berskala time series. Adanya autokorelasi dalam regresi
dapat diketahui dengan menggunakan uji Durbin-Watson Hasan, 2002.
Uji hipotesa: H
: Tidak terdapat autokorelasi H
1
: Terdapat autokorelasi
= ∑
−
− =�
=
∑
=� =
Keterangan: = nilai residu periode t
−
= nilai residu periode t-1
Dasar pengambilan keputusan: a
Jika 0 d dL, maka terjadi autokorelasi positif
b Jika dL ≤ d ≤ dU atau 4 – dU ≤ d ≤ 4 – dL, maka hasil tidak dapat
disimpulkan
c
Jika 4 – dL 0, maka terjadi autokorelasi negatif
d
Jika dU d 4 – dU, maka tidak terjadi autokorelasi
1.8 Analisis Regresi Linier
Analisis regresi berkenaan dengan studi ketergantungan dari suatu variabel yang disebut variabel tidak bebas dependent variable, pada satu atau lebih variabel
yaitu variabel yang menerangkan, dengan tujuan untuk memperkirakan dan atau meramalkan nilai rata-rata dari variabel tidak bebas apabila nilai variabel yang
Universitas Sumatera Utara
20 menerangkan sudah diketahui. Variabel yang menerangkan sering disebut variabel
bebas independent variable atau explanatory variable Supranto, 2005:36.
1.9 Analisis Regresi Linier Ganda
Regresi linear berganda adalah regresi di mana variabel terikatnya Y dihubungkandijelaskan lebih dari satu variabel, mungkin dua, tiga dan seterusnya
variabel bebas , , , … , namun masih menunjukkan diagram hubungan
yang linier Hasan, 2002.
Bentuk umum persamaan regresi linier berganda: =
+ +
+ + + �
keterangan: = Variabel tak bebas
= Variabel bebas ke-k dan pengamatan ke-i k = 1, 2, 3, ..., j
i = 1, 2, 3, ..., n � = konstanta yang merupakan intersep titik potong antara garis
dengan sumbu tegak Y �
k
= Parameter atau koefisien regresi yang akan ditaksir � = Suatu bagian kesalahan taksiran untuk pengamatan ke-i
Bentuk data yang akan diolah dari hasil pengamatan adalah sebagai berikut:
Tabel 2.3 Bentuk Pengolahan Data
No Observasi
Variabel Tak Bebas Y
Variabel Bebas …
1 …
2 …
3 …
… n
� �
� �
…
�
Universitas Sumatera Utara
21 Untuk memperkirakan parameter b
, b
1
, b
2
, ..., b
k
ditentukan dengan menggunakan metode kuadrat terkecil biasa, sehingga
∑ � = minimum terkecil. Hal ini diperoleh dengan jalan menurunkan secara parsial terhadap b
, b
1
, b
2
, ..., b
k
dan samakan dengan nol Supranto, 2005.
Dirumuskan sebagai berikut: ∑ � =
� =
∑ − ̂
� =
∑ �
� =
= ∑ −
− −
− −
� =
Mencari turunan parsial untuk b , b
1
, b
2
, ..., b
k
dan samakan dengan nol. � ∑
�
� =
� = ∑
− −
− − −
− =
� =
� ∑ �
� =
� = ∑
− −
− − −
− =
� =
� ∑ �
� =
� = ∑
− −
− − −
− =
� =
Sehingga diperoleh persamaan normal sebagai berikut: � + ∑
� =
+ ∑
� =
+ + ∑
� =
= ∑
� =
∑
� =
+ ∑
� =
+ ∑
� =
+ + ∑
� =
= ∑
� =
∑
� =
+ ∑
� =
+ ∑
� =
+ + ∑
� =
= ∑
� =
Universitas Sumatera Utara
22
1.10 Model Regresi Linier Dengan Pendekatan Matriks