Asumsi Klasik Regresi Linier

37 | P r a k t i k u m S P S S 2 1 . 0 6.2.Pemahaman Regresi Analisis Regresi dilakukan jika suatu penelitian bertujuan untuk mengetahui hubungan sebab akibat pengaruh antar variabel, karena sebab akibat maka dalam regresi terdapat variabel yang menjadi sebab disebut variabel bebasindependenpenjelas X dan variabel yang menjadi akibat disebut variabel terikatdependenrespon Y. Regresi juga disebut dengan bentuk hubungan, sehingga memiliki rumusformulapersamaanmodel. Secara umum model regresi dengan � buah variabel penjelas adalah sebagai berikut: = � + � + � … … � � � + � � dengan: = Variabel respon tak bebasdependen yang bersifat acak random , , … . , � = Variabel penjelas bebasindependen yang bersifat tetap fixed variable � , � , … . , � � = Parameter koefisien regresi � = Variabel random error galatvariabel pengganggu disturbance term variabel yang tidak menjelaskan unexplanatory variable Jika variabel bebas berjumlah 1 satu maka disebut regresi linier sederhana dan jika variabel bebas berjumlah 2 dua atau lebih maka disebut regresi linier berganda.

6.3. Asumsi Klasik Regresi Linier

Analisis regresi selalu menghasilkan persamaanmodel regresi dan persamaanmodel regresi dapat digunakan untuk melakukan prediksi, selain itu secara statistik konstanta dan koefisien didapatkan dari hasil estimasi pendugaan, agar estimasi pendugaan yang dilakukan tidak bias menyimpang ada syarat yang harus dipenuhi dalam regresi yaitu asumsi klasik. Macam-macam asumsi klasik regresi adalah sebagai berikut : 38 | P r a k t i k u m S P S S 2 1 . 0 1. Normalitas Uji normalitas bertujuan untuk mengetahui apakah dalam model regresi residual � � mempunyai distribusi normal atau tidak. Asumsi residual � � memiliki distribusi normal dapat dilihat dari normal probability plot . Apabila titik-titik pada normal probability plot menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka disimpulkan bahwa residual � � berdistribusi normal. Pengujian normalitas juga dapat dilakukan dengan uji Kolmogorov Smirnov . Prosedur pengujian normalitas adalah dengan menguji residual � � . H : Residual � � berdistribusi normal H a : Residual � � tidak berdistribusi normal Kriteria yang digunakan adalah jika nilai signifikansi lebih besar dari 0,05 maka H gagal ditolak dan sebaliknya jika nilai signifikansi lebih kecil dari 0,05 maka H ditolak. 2. Non Multikolinieritas Multikolinieritas merupakan kasus di dalam regresi dimana ada hubungan yang kuat antar variabel bebas, di dalam regresi tidak boleh terjadi hubungan antar variabel bebas. Salah satu pengujian multikolinieritas yang sering digunakan adalah melihat nilai VIF atau nilai tolerance VIF = 1 tolerance . Kriteria yang digunakan adalah jika nilai VIF lebih kecil dari 10 atau nilai tolerance lebih besar dari 0,1 maka regresi tidak terjadi multikolinieritas. 3. Non Heteroskedastisitas Non heteroskedastisitas Homoskedastisitas menunjukkan keadaan di mana residual � � mempunyai nilai varian yang sama sebesar σ 2 . Sebaliknya jika residual � � mempunyai nilai varian yang berbeda-beda sebesar � � berarti terjadi kasus heteroskedastisitas. Model regresi yang baik adalah model regresi yang tidak menunjukkan adanya gejala heteroskedastisitas. Pendeteksian kasus heteroskedastisitas dapat dilakukan dengan berbagai cara, salah satunya dengan melihat scatter plot. Jika titik-titik menyebar di atas nol dan di bawah 39 | P r a k t i k u m S P S S 2 1 . 0 nol, menyebar secara acak dan tidak membentuk pola, maka dapat dikatakan tidak terjadi kasus heteroskedastisitas. Pengujian asumsi non heteroskedastisitas juga dapat dilakukan dengan uji glejster yaitu dengan meregresikan absolut residual dengan variabel penjelas yang digunakan. Hipotesis yang diajukan untuk pengujian asumsi non heteroskedastisitas adalah. H : varian identik non heteroskedastisitas H a : varian tidak identik heteroskedastisitas Kriteria yang digunakan adalah jika nilai signifikansi lebih besar dari 0,05 maka H gagal ditolak dan sebaliknya jika nilai signifikansi lebih kecil dari 0,05 maka H ditolak. 4. Non Autokorelasi Autokorelasi adalah keadaan yang menunjukkan residual � � memiliki hubungan dari satu observasi ke observasi lainnya. Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Untuk mengetahui model regresi dikatakan tidak terjadi autokorelasi jika nilai durbin watson berada antara du sd 4-du, dimana du ditentukan berdasarkan tabel durbin Watson atau dapat dilihat berdasarkan kriteria berikut : Tabel 6.1. Kriteria Pengambilan Keputusan Hipotesis Nol Keputusan Jika Tidak ada autokorelasi positif Tidak ada autokorelasi positif Tidak ada autokorelasi negatif Tidak ada autokorelasi negatif Tidak ada autokorelasi positif maupun negatif Tolak Tidak ada keputusan Tolak Tidak ada keputusan Gagal tolak 0 d d L d L ≤ d ≤ d U 4-d L d 4 4-d U ≤ d ≤ 4-d L d U d 4-d U Sumber : Gujarati and Porter, 2010

6.4. Studi Kasus