3.8. Uji Penyimpangan Asumsi Klasik
Gujarati 2003 mengemukakan beberapa asumsi klasik yang harus dipenuhi untuk suatu hasil estimasi regresi linier agar hasil tersebut dikatakan baik dan efisien.
Adapun sumsi klasik yang harus dipenuhi antara lain Pratomo, 2007: 88: 1
Model regresi adalah linier, yaitu linier di dalam parameter. 2
Residual variabel pengganggu µ
i
mempunyai nilai rata-rata nol zero mean value of disturbance µ
i
. 3
Homoskedastisitas atau varian dari µ
i
adalah konstan. 4
Tidak ada autokorelasi antara variabel pengganggu µ
i
. 5
Kovarian antara µ
i
dan variabel bebas X
1
adalah nol. 6
Jumlah data observasi harus lebih banyak dibandingkan dengan jumlah parameter yang diestimasi.
7 Tidak ada multikolinearitas.
8 Variabel pengganggu harus berdistribusi normal atau stokastik
3.8.1. Uji Multikolinearitas
Pada mulanya multikolineritas berarti adanya hubungan hubungan linear yang “sempurna” atau pasti, di antar beberapa atau semua variabel yang menjelaskan
variabel bebas dari model regresi Gujarati, 1995: 157. Istilah kolinearitas ganda multicollinearity diciptakan oleh Ragner Frish di
dalam bukunya: Statistical confluence analysis by means of Complete Regression Systems. Aslinya istilah itu berarti adanya hubungan linear yang sempurna atau eksak
Leo Ibrahim Sihombing : Pengaruh Inflasi, Kurs, Investasi dan Suku Bunga Sertifikat Bank Indonesia Terhadap Harga Saham dan Volume Perdagangan Saham PT. Bank Rakyat Indonesia, Tbk di Bursa Efek Indonesia, 2010.
perfect of exact di antara variabel-variabel bebas dalam model regresi. Istilah kolinearitas collinearity sendiri berarti hubungan linear tunggal single linear
relationship, sedangkan kolinearitas ganda multicollinearity menunjukkan adanya lebih dari satu hubungan linear yang sempurna Supranoto, 2004: 13.
Bila variabel-variabel bebas berkorelasi secara sempurna, maka metode kuadrat terkecil tidak bisa digunakan Sumodiningrat, 2001: 281.
Jika terdapat korelasi yang sempurna di antara sesama variabel-variabel bebas sehingga nilai koefisien korealasi di antara sesama variabel bebas ini sama dengan
satu, maka konsekwensinya adalah Arief, 1992: 23: a
Koefisien-koefisien regresi menjadi tidak dapat ditaksir. b
Nilai standar eror setiap koefisien regresi menjadi takterhingga.
Cara mengetahui kolinearitas ganda Supranto, 2004: 26:
1. Kolinearitas sering kali dapat diduga kalua nilai R
2
cukup tinggi katakan antara 0,7 dan 1,0 dan kalau kofisien korelasi sederhana zero order
coefficient of correlation juga tinggi. 2.
Tingginya nilai-nilai koefisien korelasi sederhana zero order merupakan syarat yang sukup sufficient, tetapi bukan syarat yang perlu necessary
untuk terjadinya kolinearitas dalam model regresi linear ganda, sebab kolinearitas ganda bisa terjadi walau koefisien korelasi sederhana nilainya
relatif rendah, katakan kurang dari 0,50. Maka dari itu, untuk model regresi linear dengan variabel bebas lebih dari dua, nilai koefisien korelasi
sederhana antara varibel bebas tidak cukup untuk tipergunakan sebagai petunjuk ada tidaknya kolinearitas ganda.
3. Untuk mengetahui ada tidaknya kolinearitas ganda dalam suatu model
regresi linear berganda, kita tidak boleh hanya melihat nilai koefisien korelasi sederhana antara variabel bebas, tetapi dianjurkan untuk melihat
nilai koefisien regresi parsial. Jadi di dalam regresi linier berganda yang menghubungkan Y dengan X
2
, X
3
, X
4
kalau ternyata R
2 1.234
sangat tinggi nilainya mendekati 1, tetapi r
2 12.34
, r
2 13.24
, r
2 14.32
nilainya sangat rendah dibandingkan dengan nilai R
2 1.234
, hal ini menunjukkan bahwa kemungkinan besar variabel bebas X
2
, X
3
dan X
4
saling berkorelasi sehingga paling tidak akan kelebihan satu variabel superfluous, artinya
jumlah variabel bebas bisa dikeluarkan minimal ada satu. 4.
Oleh karena kolinearitas timbul disebabkan adanya satu atau lebih variabel bebas yang berkorelasi sempurna atau mendekati sempurna dengan
variabel bebas lainnya, salah satu cara untuk mengetahui variabel bebas X yang mana berkorelasi dengan variabel lainnya ialah dengan membuat
regresi setiap X
i
terhadap sisa variabel lainnya dan menghitung R
2
kita beri simbol R
2 i
. Apabila F yang dihitung berdasarkan data observasi dari sampel ternyata lebih besar dari nilai F dan tabel F dengan tingkat
signifikan nyata tertentu katakan 1, maka dapat disimpulkan bahwa X
i
tersebut memang berkorelasi dengan sisa variabel bebas lainnya. Sebaliknya, kalau lebih kecil tidak berkorelasi dan kita dapat
mempertahankan variabel bebas yang bersangkutan tetap didalam model regresi. Akan tetapi, kalau F signifikan secara statistik, berarti ada korealsi
Leo Ibrahim Sihombing : Pengaruh Inflasi, Kurs, Investasi dan Suku Bunga Sertifikat Bank Indonesia Terhadap Harga Saham dan Volume Perdagangan Saham PT. Bank Rakyat Indonesia, Tbk di Bursa Efek Indonesia, 2010.
antara X
i
dengan sisa variabel lainnya, kita tidak perlu langsung mengeluarkan variabel tersebut dari model.
Untuk melakukan uji multikolinearitas dengan bantuan SPSS dapat melihat nilai VIF yang ditampilakan pada tabel Coefficients. Dasar Keputusan:
• Apabila nilai koefisien VIF dari suatu variabel xi lebih besar dari 4 maka dapat
dikatakan variabel tersebut bergejala colinearity. •
Sebaliknya, jika nilai koefisien VIF dari suatu variabel xi lebih kecil dari 4 maka dapat dikatakan variabel tersebut tidak bergejala colinearity.
3.8.2. Uji Heteroskedastisitas