Uji Multikolinearitas Uji Penyimpangan Asumsi Klasik

3.8. Uji Penyimpangan Asumsi Klasik

Gujarati 2003 mengemukakan beberapa asumsi klasik yang harus dipenuhi untuk suatu hasil estimasi regresi linier agar hasil tersebut dikatakan baik dan efisien. Adapun sumsi klasik yang harus dipenuhi antara lain Pratomo, 2007: 88: 1 Model regresi adalah linier, yaitu linier di dalam parameter. 2 Residual variabel pengganggu µ i mempunyai nilai rata-rata nol zero mean value of disturbance µ i . 3 Homoskedastisitas atau varian dari µ i adalah konstan. 4 Tidak ada autokorelasi antara variabel pengganggu µ i . 5 Kovarian antara µ i dan variabel bebas X 1 adalah nol. 6 Jumlah data observasi harus lebih banyak dibandingkan dengan jumlah parameter yang diestimasi. 7 Tidak ada multikolinearitas. 8 Variabel pengganggu harus berdistribusi normal atau stokastik

3.8.1. Uji Multikolinearitas

Pada mulanya multikolineritas berarti adanya hubungan hubungan linear yang “sempurna” atau pasti, di antar beberapa atau semua variabel yang menjelaskan variabel bebas dari model regresi Gujarati, 1995: 157. Istilah kolinearitas ganda multicollinearity diciptakan oleh Ragner Frish di dalam bukunya: Statistical confluence analysis by means of Complete Regression Systems. Aslinya istilah itu berarti adanya hubungan linear yang sempurna atau eksak Leo Ibrahim Sihombing : Pengaruh Inflasi, Kurs, Investasi dan Suku Bunga Sertifikat Bank Indonesia Terhadap Harga Saham dan Volume Perdagangan Saham PT. Bank Rakyat Indonesia, Tbk di Bursa Efek Indonesia, 2010. perfect of exact di antara variabel-variabel bebas dalam model regresi. Istilah kolinearitas collinearity sendiri berarti hubungan linear tunggal single linear relationship, sedangkan kolinearitas ganda multicollinearity menunjukkan adanya lebih dari satu hubungan linear yang sempurna Supranoto, 2004: 13. Bila variabel-variabel bebas berkorelasi secara sempurna, maka metode kuadrat terkecil tidak bisa digunakan Sumodiningrat, 2001: 281. Jika terdapat korelasi yang sempurna di antara sesama variabel-variabel bebas sehingga nilai koefisien korealasi di antara sesama variabel bebas ini sama dengan satu, maka konsekwensinya adalah Arief, 1992: 23: a Koefisien-koefisien regresi menjadi tidak dapat ditaksir. b Nilai standar eror setiap koefisien regresi menjadi takterhingga. Cara mengetahui kolinearitas ganda Supranto, 2004: 26: 1. Kolinearitas sering kali dapat diduga kalua nilai R 2 cukup tinggi katakan antara 0,7 dan 1,0 dan kalau kofisien korelasi sederhana zero order coefficient of correlation juga tinggi. 2. Tingginya nilai-nilai koefisien korelasi sederhana zero order merupakan syarat yang sukup sufficient, tetapi bukan syarat yang perlu necessary untuk terjadinya kolinearitas dalam model regresi linear ganda, sebab kolinearitas ganda bisa terjadi walau koefisien korelasi sederhana nilainya relatif rendah, katakan kurang dari 0,50. Maka dari itu, untuk model regresi linear dengan variabel bebas lebih dari dua, nilai koefisien korelasi sederhana antara varibel bebas tidak cukup untuk tipergunakan sebagai petunjuk ada tidaknya kolinearitas ganda. 3. Untuk mengetahui ada tidaknya kolinearitas ganda dalam suatu model regresi linear berganda, kita tidak boleh hanya melihat nilai koefisien korelasi sederhana antara variabel bebas, tetapi dianjurkan untuk melihat nilai koefisien regresi parsial. Jadi di dalam regresi linier berganda yang menghubungkan Y dengan X 2 , X 3 , X 4 kalau ternyata R 2 1.234 sangat tinggi nilainya mendekati 1, tetapi r 2 12.34 , r 2 13.24 , r 2 14.32 nilainya sangat rendah dibandingkan dengan nilai R 2 1.234 , hal ini menunjukkan bahwa kemungkinan besar variabel bebas X 2 , X 3 dan X 4 saling berkorelasi sehingga paling tidak akan kelebihan satu variabel superfluous, artinya jumlah variabel bebas bisa dikeluarkan minimal ada satu. 4. Oleh karena kolinearitas timbul disebabkan adanya satu atau lebih variabel bebas yang berkorelasi sempurna atau mendekati sempurna dengan variabel bebas lainnya, salah satu cara untuk mengetahui variabel bebas X yang mana berkorelasi dengan variabel lainnya ialah dengan membuat regresi setiap X i terhadap sisa variabel lainnya dan menghitung R 2 kita beri simbol R 2 i . Apabila F yang dihitung berdasarkan data observasi dari sampel ternyata lebih besar dari nilai F dan tabel F dengan tingkat signifikan nyata tertentu katakan 1, maka dapat disimpulkan bahwa X i tersebut memang berkorelasi dengan sisa variabel bebas lainnya. Sebaliknya, kalau lebih kecil tidak berkorelasi dan kita dapat mempertahankan variabel bebas yang bersangkutan tetap didalam model regresi. Akan tetapi, kalau F signifikan secara statistik, berarti ada korealsi Leo Ibrahim Sihombing : Pengaruh Inflasi, Kurs, Investasi dan Suku Bunga Sertifikat Bank Indonesia Terhadap Harga Saham dan Volume Perdagangan Saham PT. Bank Rakyat Indonesia, Tbk di Bursa Efek Indonesia, 2010. antara X i dengan sisa variabel lainnya, kita tidak perlu langsung mengeluarkan variabel tersebut dari model. Untuk melakukan uji multikolinearitas dengan bantuan SPSS dapat melihat nilai VIF yang ditampilakan pada tabel Coefficients. Dasar Keputusan: • Apabila nilai koefisien VIF dari suatu variabel xi lebih besar dari 4 maka dapat dikatakan variabel tersebut bergejala colinearity. • Sebaliknya, jika nilai koefisien VIF dari suatu variabel xi lebih kecil dari 4 maka dapat dikatakan variabel tersebut tidak bergejala colinearity.

3.8.2. Uji Heteroskedastisitas