Matriks korelasi Uji Regresi Linier

Dikatakan persamaan karakteristik dari A.

2.3 Matriks korelasi

Matriks korelasi adalah matriks yang didalamnya terdapat korelasi-korelasi. Andaikan X adalah matriks data, ̅ adalah matriks rata-rata dan ∑ adalah matriks ragam peragam. Dengan: ̅ ̅ [ ̅ ̅ ̅ ] [ ] [ ] [ ] ̅ 2.7 ̅ dihitung dari matriks data yang dikalikan dengan vektor 1 dan konstanta Selanjutnya, persamaan 2.7 dikalikan dengan vektor , sehingga dihasilkan matriks ̅ ̅ [ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ] 2.8 Kurangkan matriks X dengan persamaan matriks 2.8 yang menghasilkan matriks baku dinotasikan dengan V [ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ] 2.9 Matriks adalah perkalian silang antara matriks 2.9 dengan matriks transposenya Universitas Sumatera Utara [ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ] [ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ] karena Sehingga didapat 2.10 Persamaan 2.10 menunjukan dengan jelas hubungan operasi perkalian matriks data X dengan dan transpose matriks data. Jika S telah diketahui dari persamaan 2.10, maka S dapat dihubungkan ke matriks korelasi dengan cara : 1. Menghitung Matriks ∑ ∑ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ∑ [ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ̅ ] ∑ [ ] Universitas Sumatera Utara 2. Menghitung matriks baku yang isinya adalah simpangan baku, dengan asumsi dihasilkan sehingga dapat ditulis kedalam bentuk matriks sebagai berikut : [ √ √ √ ] 3. Menghitung invers dari matriks deviasi dengan cara [ √ √ √ ] Maka dapat dihasilkan matriks korelasi dengan rumus ∑ [ √ √ √ ] [ ] [ √ √ √ ] [ √ √ √ √ √ √ √ √ √ √ √ √ ] [ ] dengan : ∑ ̅ √ ̅ √ 2.11 Untuk menghasilkan ̅ √ ̅ √ ̅ ̅ √ √ Universitas Sumatera Utara ̅ √ ̅ √ ̅ ̅ √ √ Dan untuk ̅ √ ̅ √ ̅ ̅ √ √ ̅ √ ̅ √ ̅ ̅ √ √ ̅ √ ̅ √ ̅ ̅ √ √

2.4 Analisis Regresi Linier Berganda

Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk menggambarkan hubungan antara suatu variabel bebas X dengan satu variabel tak bebas Y dalam bentuk persamaan linier sederhana. 2.12 Regresi linier berganda merupakan perluasan dari regresi linier sederhana. Perluasannya terlihat dari banyaknya variabel bebas pada model regresi tersebut. Bentuk umum regresi linier berganda dapat dinyatakan secara statistik sebagai berikut: = + + + … + + 2.13 dengan : = variabel tak bebas = variabel bebas , …, = parameter regresi = variabel gangguan

2.4.1 Asumsi Regresi Linier Berganda

Universitas Sumatera Utara Dalam model regresi linier berganda ada beberapa asumsi yang harus dipenuhi, asumsi tersebut adalah : 1. Nilai rata-rata kesalahan pengganggu nol, yaitu untuk I = 1, 2, …, n 2. Varian sama untuk semua kesalahan pengganggu asumsi homokedastisitas 3. Tidak ada otokorelasi antara kesalahan pengganggu, berarti kovarian 4. Variabel bebas , konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu . 5. Tidak ada multikolinieritas diantara variabel bebas X . 6. artinya kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian

2.4.2 Metode Kuadrat Terkecil MKT

Metode kuadrat terkecil merupakan suatu metode yang paling banyak digunakan untuk menduga parameter-parameter regresi. Pada model regresi linier berganda juga digunakan metode kuadrat terkecil untuk menduga parameter. Biasanya penduga kuadrat terkecil ini diperoleh dengan meminimumkan jumlah kuadrat galat. Misalkan model yang akan diestimasi adalah parameter dari persamaan dengan n pengamatan, maka diperoleh : = + + + … + + = + + + … + + = + + + … + + Persaman-persamaan diatas dapat ditulis dalam bentuk matriks : Y = X + 2.14 dengan : Universitas Sumatera Utara [ ] [ ] [ ] [ ] Untuk mendapatkan penaksir-penaksir MKT bagi , maka dengan asumsi klasik ditentukan dua vektor ̂ ̂ sebagai : ̂ [ ̂ ̂ ̂ ] ̂ [ ] Persamaan hasil estimasi dari persamaan 2.14 dapat ditulis sebagai : Y = X ̂ + atau ̂ 2.15 Karena tujuan MKT adalah meminimumkan jumlah kuadrat dari kesalahan, yaitu ∑ minimum maka : ∑ [ ] 2.16 jadi, ∑ ̂ ̂ ̂ ̂ ̂ ̂ Oleh karena ̂ adalah skalar, maka matriks transposenya adalah : ̂ ̂ jadi, ̂ ̂ ̂ 2.17 Universitas Sumatera Utara Untuk menaksir parameter ̂ maka harus diminimumkan terhadap ̂ maka : ∑ ̂ ̂ ̂ ̂ ∑ ̂ ̂ ̂ ̂ atau : ̂ ̂ dengan ketentuan 2.18

2.4.3 Sifat Penduga Kuadrat terkecil

Menurut Sembiring 2003 metode kuadrat terkecil memiliki beberapa sifat yang baik. Untuk menyelidiki sifatnya, pandang kembali model umum regresi linier pada persamaan 2.14. disini dianggap bahwa bebas satu sama lain dan Dengan demikian maka dan . Jadi sifat penduga kuadrat terkecil adalah : 1. Takbias Jika ̂ maka ̂ adalah penduga tak bias untuk Akan ditunjukkan bahwa ̂ adalah penduga linier tak bias dari . Dari persamaan 2.15 diketahui : ̂ 2.19 dengan ̂ Universitas Sumatera Utara 2. Varian Minimum Jika maka matriks kovarian untuk ̂ diberikan oleh Jika dan maka penduga kuadrat terkecil ̂ mempunyai varian minimum diantara semua penduga tak bias linier. Bukti : ̂ [ ̂ ̂ ̂ ̂ ] = 2.20

2.5 Uji Regresi Linier

Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada hubungan linier antara variabel tidak bebas Y dan variabel bebas Uji yang digunakan adalah uji menggunakan statistik F berbentuk : 2.21 dengan : JKR = Jumlah Kuadrat Regresi JKS = Jumlah Kuadrat Sisa = derajat kebebasan JKR = Derajat kebebasan JKS Dalam uji hipotesis, digunakan daerah kritis : ditolak jika dengan : Universitas Sumatera Utara Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah koefisien tersebut layak dipakai dalam persamaan atau tidak. Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut : artinya koefisien regresi ke– j tidak signifikan atau variabel bebas ke- j tidak berpengaruh nyata terhadap Y . artinya koefisien regresi ke- j signifikan atau variabel bebas ke- j berpengaruh nyata terhadap Y. Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah: ̂ ̂ √ ̂ 2.23 Jika | ̂ | maka ditolak yang artinya variabel bebas ke- j berpengaruh nyata terhadap Y .

2.6 Koefisien Determinasi