Dikatakan persamaan karakteristik dari A.
2.3 Matriks korelasi
Matriks korelasi adalah matriks yang didalamnya terdapat korelasi-korelasi. Andaikan
X
adalah matriks data, ̅ adalah matriks rata-rata dan ∑ adalah matriks ragam
peragam. Dengan:
̅
̅ [ ̅
̅ ̅
]
[ ]
[ ] [
]
̅ 2.7
̅ dihitung dari matriks data yang dikalikan dengan vektor 1 dan konstanta
Selanjutnya, persamaan 2.7 dikalikan dengan vektor , sehingga dihasilkan
matriks ̅
̅ [
̅ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ]
2.8
Kurangkan matriks
X
dengan persamaan matriks 2.8 yang menghasilkan matriks baku
dinotasikan dengan
V
[ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
] 2.9
Matriks adalah perkalian silang antara matriks 2.9 dengan matriks
transposenya
Universitas Sumatera Utara
[ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
] [ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
]
karena
Sehingga didapat 2.10
Persamaan 2.10 menunjukan dengan jelas hubungan operasi perkalian matriks data
X
dengan dan transpose matriks data. Jika
S
telah diketahui dari persamaan 2.10, maka
S
dapat dihubungkan ke matriks korelasi dengan cara :
1. Menghitung Matriks ∑
∑ ̅
̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
∑ [ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ̅
̅ ]
∑ [ ]
Universitas Sumatera Utara
2. Menghitung matriks baku yang isinya adalah simpangan baku, dengan asumsi
dihasilkan sehingga dapat ditulis kedalam bentuk matriks sebagai berikut :
[ √
√ √
]
3. Menghitung invers dari matriks deviasi dengan cara
[
√ √
√
] Maka dapat dihasilkan matriks korelasi dengan rumus
∑
[
√ √
√
] [
]
[
√ √
√
]
[
√ √
√ √
√ √
√ √
√ √
√ √
] [
]
dengan : ∑
̅ √
̅ √
2.11 Untuk
menghasilkan ̅
√ ̅
√ ̅
̅ √
√
Universitas Sumatera Utara
̅ √
̅ √
̅ ̅
√ √
Dan untuk ̅
√ ̅
√ ̅
̅ √
√ ̅
√ ̅
√ ̅
̅ √
√ ̅
√ ̅
√ ̅
̅ √
√
2.4 Analisis Regresi Linier Berganda
Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk
menggambarkan hubungan antara suatu variabel bebas
X
dengan satu variabel tak bebas
Y
dalam bentuk persamaan linier sederhana. 2.12
Regresi linier berganda merupakan perluasan dari regresi linier sederhana. Perluasannya terlihat dari banyaknya variabel bebas pada model regresi tersebut.
Bentuk umum regresi linier berganda dapat dinyatakan secara statistik sebagai berikut: =
+ +
+ … + +
2.13
dengan : = variabel tak bebas
= variabel bebas , …,
= parameter regresi = variabel gangguan
2.4.1 Asumsi Regresi Linier Berganda
Universitas Sumatera Utara
Dalam model regresi linier berganda ada beberapa asumsi yang harus dipenuhi, asumsi tersebut adalah :
1. Nilai rata-rata kesalahan pengganggu nol, yaitu
untuk I = 1, 2, …, n 2.
Varian sama untuk semua kesalahan pengganggu asumsi
homokedastisitas 3.
Tidak ada otokorelasi antara kesalahan pengganggu, berarti kovarian
4. Variabel bebas
, konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu
. 5.
Tidak ada multikolinieritas diantara variabel bebas
X
. 6.
artinya kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian
2.4.2 Metode Kuadrat Terkecil MKT
Metode kuadrat terkecil merupakan suatu metode yang paling banyak digunakan untuk menduga parameter-parameter regresi. Pada model regresi linier berganda juga
digunakan metode kuadrat terkecil untuk menduga parameter. Biasanya penduga kuadrat terkecil ini diperoleh dengan meminimumkan jumlah kuadrat galat. Misalkan
model yang akan diestimasi adalah parameter dari persamaan dengan
n
pengamatan, maka diperoleh :
= +
+ + … +
+ =
+ +
+ … + +
= +
+ + … +
+
Persaman-persamaan diatas dapat ditulis dalam bentuk matriks : Y = X
+ 2.14
dengan :
Universitas Sumatera Utara
[ ]
[ ]
[ ]
[ ]
Untuk mendapatkan penaksir-penaksir MKT bagi , maka dengan asumsi
klasik ditentukan dua vektor ̂ ̂ sebagai :
̂ [
̂ ̂
̂ ]
̂ [ ]
Persamaan hasil estimasi dari persamaan 2.14 dapat ditulis sebagai : Y = X
̂ + atau
̂ 2.15
Karena tujuan MKT adalah meminimumkan jumlah kuadrat dari kesalahan, yaitu
∑ minimum
maka : ∑
[ ]
2.16
jadi, ∑
̂ ̂
̂ ̂ ̂ ̂
Oleh karena ̂
adalah skalar, maka matriks transposenya adalah : ̂
̂ jadi,
̂ ̂ ̂
2.17
Universitas Sumatera Utara
Untuk menaksir parameter ̂ maka harus diminimumkan terhadap ̂
maka : ∑
̂ ̂ ̂
̂
∑ ̂
̂ ̂
̂
atau : ̂
̂ dengan ketentuan
2.18
2.4.3 Sifat Penduga Kuadrat terkecil
Menurut Sembiring 2003 metode kuadrat terkecil memiliki beberapa sifat yang baik. Untuk menyelidiki sifatnya, pandang kembali model umum regresi linier pada
persamaan 2.14. disini dianggap bahwa bebas satu sama lain dan
Dengan demikian maka dan .
Jadi sifat penduga kuadrat terkecil adalah : 1.
Takbias Jika
̂ maka ̂ adalah penduga tak bias untuk Akan ditunjukkan bahwa
̂ adalah penduga linier tak bias dari . Dari persamaan 2.15 diketahui :
̂
2.19 dengan
̂
Universitas Sumatera Utara
2. Varian Minimum
Jika maka matriks kovarian untuk ̂ diberikan oleh
Jika dan
maka penduga kuadrat terkecil ̂ mempunyai varian minimum diantara semua penduga tak bias linier.
Bukti : ̂ [ ̂ ̂ ̂ ̂
]
= 2.20
2.5 Uji Regresi Linier
Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada hubungan linier antara variabel tidak bebas
Y
dan variabel bebas Uji yang digunakan adalah uji menggunakan statistik
F
berbentuk : 2.21
dengan : JKR
= Jumlah Kuadrat Regresi JKS
= Jumlah Kuadrat Sisa = derajat kebebasan JKR
= Derajat kebebasan JKS
Dalam uji hipotesis, digunakan daerah kritis : ditolak jika
dengan :
Universitas Sumatera Utara
Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah
koefisien tersebut layak dipakai dalam persamaan atau tidak.
Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut :
artinya koefisien regresi ke–
j
tidak signifikan atau variabel bebas ke-
j
tidak berpengaruh nyata terhadap
Y
. artinya koefisien regresi ke-
j
signifikan atau variabel bebas ke-
j
berpengaruh nyata terhadap Y.
Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah:
̂
̂ √ ̂
2.23
Jika |
̂ |
maka ditolak yang artinya variabel bebas ke-
j
berpengaruh nyata terhadap
Y
.
2.6 Koefisien Determinasi