Statistik ini digunakan untuk menganalisa data dengan cara menggambarkan data yang sudah terkumpul namun bukan membuat kesimpulan yang bersifat
generalisasi Sugiono, 2004:142
2. Pengujian Asumsi Klasik
Penggunaan analisis regresi dalam statistik harus bebas dari asumsi-asumsi klasik seperti normalitas data, autokorelasi, heteroskedastisitas dan asumsi-asumsi
klasik lainnya agar hasil pengujian tidak bersifat bias dan efisien.. a. Uji Normalitas
Uji normalitas bertujuan untuk mengetahui apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal serta untuk
menghindari bias dalam model regresi. Pengujian ini diperlukan karena untuk melakukan uji t dan uji F mengasumsikan bahwa nilai residual mengikuti
distribusi normal Erlina, 2007:103. Jika nilai residual tidak memiliki distribusi normal, maka salah satu cara menormalkannya adalah dengan melakukan
transformasi data, yaitu mengubah nilai-nilai observasi data ke dalam bentuk logaritma sehingga membentuk distribusi normal Jogiyanto, 2004:172.
Untuk mendeteksinya dapat digunakan analisis grafik yaitu melihat grafik histogram yang membandingkan data observasi dengan distribusi yang mendekati
distribusi normal dan yang lebih handal adalah dengan melihat normal probability plot
. Jika distribusi normal, garis yang menggambarkan data akan mengikuti garis diagonal Ghozali, 2005:110. Selain uji grafik, juga dianjurkan untuk melakukan
lagi uji statistik Kolmogorov Smirnov KS yang dijelaskan Ghozali 2005:115,
Universitas Sumatera Utara
pedoman pengambilan keputusan tentang data tersebut merupakan distribusi normal dapat dilihat dari:
1 bila nilai signifikansi 0.05 berarti distribusi data tidak normal.
2 bila nilai signifikansi 0.05 berarti distribusi data normal.
Setelah melakukan uji normalitas data, selanjutnya dapat dilakukan uji outlier. Uji Outlier ini berguna untuk melihat apakah ada data yang mempunyai
nilai yang sangat menyimpang dari nilai data lainnya. Dengan kata lain, data outlier adalah data yang secara nyata berbeda dengan data-data lain. Salah satu
sebab terjadi distribusi data yang tidak normal adalah ada data yang outlier. Data outlier bisa terjadi karena beberapa sebab:
1 kesalahan dalam pemasukan data,
2 outlier bukan merupakan anggota populasi yang kita ambil sebagai sampel,
3 memang ada data ekstrim yang tidak bisa dihindari keberadaannya.
Untuk melihat data yang outlier dapat dilakukan dengan tiga cara Singgih,2002:24:
1 membuat nilai z atau standarisasi data. Bila nilai z yang didapat lebih besar
dari angka +2,5 atau lebih kecil dari angka -2,5 maka data tersebut outlier, 2
menampilkan grafik dalam bentuk scatter plot, 3
menampilkan grafik data dalam bentuk box plot. b. Uji Multikolinearitas
Uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi yang sangat kuat di antara variabel independen. Model regresi yang baik
seharusnya tidak terjadi korelasi diantara variabel independen karena hal ini akan
Universitas Sumatera Utara
mengurangi keyakinan dalam pengujian signifikansi Ghozali, 2005:91. Multikolinearitas adalah keadaan adanya korelasi yang kuat antara variabel-
variabel independen yang satu dengan variabel independen lainnya. Dalam hal ini kita sebut variabel-variabel bebas ini tidak ortogonal. Variabel-variabel bebas
yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi di antara sesamanya sama dengan nol. Jika terjadi korelasi sempurna di antara
sesama variabel bebas, maka konsekuensinya adalah: 1
koefisien-koefisien regresi menjadi tidak dapat ditaksir, 2
nilai standar error setiap koefisien regresi menjadi tak terhingga. Deteksi multikolinearitas dilakukan dengan melihat nilai VIF Variance
Inflation Factor dan tolerance. Pedoman suatu model regresi yang bebas dari multikolinearitas adalah VIF 10 dan tolerance 0.1 Ghozali, 2005:92. Selain
itu juga dapat dilihat dari besarnya korelasi antar variabel independen, dimana bila korelasi antar variabel independen di bawah 0,5 maka model regresi bebas dari
multikolinearitas Singgih, 2000:207. Ada dua cara yang dapat dilakukan jika terjadi multikolinearitas, yaitu:
1 mengeluarkan salah satu variabel, misalnya variabel independen A atau B
saling berkorelasi dengan kuat, maka bisa dipilih A atau B dikeluarkan dari model regresi,
2 menggunakan metode lanjut seperti regresi Bayesian atau regresi Ridge.
‘c. Uji Autokorelasi Uji Autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi
linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan
Universitas Sumatera Utara
pada periode t-1 atau sebelumnya. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena
residual atau kesalahan pengganggu tidak bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu atau time series karena
“gangguan” pada seorang individu atau kelompok cenderung mempengaruhi “gangguan” pada individu atau kelompok yang sama pada periode berikutnya.
Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Untuk mendeteksi ada atau tidaknya autokorelasi, dapat digunakan uji Durbin
Watson. Ghozali 2005:96 memberikan panduan untuk mendeteksi ada atau tidaknya autokorelasi sebagai berikut:
i. bila nilai Durbin-Watson DW berada diantara 0 dan batas bawah DL, berarti ada autokorelasi positif.
ii. bila nilai DW berada diantara DL dan DU batas atas, tidak dapat diputuskan terjadi autokorelasi positif atau tidak.
iii. bila nilai DW ada diantara 4-DL dan 4, berarti ada autokorelasi negatif. iv. bila nilai DW diantara 4-DU dan 4-DL, tidak dapat diputuskan ada
autokorelasi negatif atau tidak. v. bila nilai DW ada diantara DU dan 4-DU, berarti tidak ada autokorelasi
positif maupun negatif.
Nilai batas bawah DL Durbin Watson dan batas atas DU Durbin-Watson dapat dilihat pada tabel Durbin-Watson.
d. Uji Heterokedasitas Tujuan dari uji heterokedasitas ini adalah untuk menguji apakah dalam sebuah
model regresi terjadi ketidaksamaan varians dari residual dari satu pengamatan ke pengamatan yang lain. Jika varians dari residual dari suatu pengamatan ke
pengamatan lainnya tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas Erlina, 2007:108.
Universitas Sumatera Utara
Model regresi yang baik adalah yang homoskedasitas. Untuk mendeteksi ada tidaknya heteroskedasitas, menurut Ghozali 2005:105 dapat dilihat dari grafik
scatterplot antara nilai prediksi variabel dependen yaitu ZPRED dengan nilai residualnya SRESID. Jika ada pola tertentu seperti titik-titik yang ada membentuk
pola tertentu yang teratur, maka telah terjadi heteroskedasitas.
3. Pengujian hipotesis