Uji Asumsi Klasik Koefisien Determinasi Koefisien Determinasi R

67

4.4 Uji Asumsi Klasik

1. Uji Normalitas Tujuan uji normalitas adalah ingin menguji apakah dalam model regresi distribusi sebuah data mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid. Ada dua cara untuk mendeteksi apakah data berdistribusi normal atau tidak, yaitu dengan pendekatan grafik dan pendekatan Kolmogorv-Smirnov. a. Analisis Grafik Salah satu cara untuk melihat normalitas adalah dengan melihat grafik histogram, dan grafik normal p-p plot, yang membandingkan antara dua observasi dengan distribusi yang mendekati distribusi normal. Hasil Output SPSS terlihat seperti Gambar berikut: Sumber : Hasil Penelitian, 2016 data diolah SPSS 21 Gambar 4.1 Pengujian Normalitas Histogram Universitas Sumatera Utara 68 Berdasarkan grafik dapat disimpulkan bahwa distribusi data normal karena grafik histogram menunjukkan pola distribusi normal maka model regresi memenuhi asumsi normalitas dan sebaliknya jika data menyebar jauh dari garis diagonal dan tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi data normal yang tidak melenceng kanan maupun melenceng kiri. Jadi, berarti data residual berdistibusi normal. Terbukti bahwa data maupun model yang digunakan memenuhi asumsi normalitas. Sumber : Hasil Penelitian, 2016 data diolah SPSS 21 Gambar 4.2 Pengujian Normalitas P-P Plot Pada P-P plot terlihat bahwa titik-titik menyebar disekitar garis diagonal dan cenderung mengikuti arah garis diagonal. Hal ini menunjukkan bahwa data yang dipergunakan dalam penelitian ini memenuhi asumsi normalitas sehingga layak untuk diuji dengan model regresi. Universitas Sumatera Utara 69 b. Analisis Statistik Uji normalitas dengan grafik bisa saja terlihat berdistribusi normal, padahal secara statistik tidak berdistribusi normal. Jika nilai Z hitung lebih besar dari Z tabel maka Ho ditolak dengan pengertian bahwa data yang dianalisis berdistribusi normal. Demikian juga sebaliknya jika nilai Z hitung lebih kecil dari Z tabel maka Ho diterima dengan pengertian bahwa data yang dianalisis tidak berdistribusi normal. Berikut ini pengujian normalitas yang didasarkan dengan uji statistik nonparametik Kolmogorov-Smirnov K-S. Tabel 4.8 Sumber: Hasil Penelitian, 2016 data diolah SPSS 17 Berdasarkan Tabel 4.8, terlihat bahwa nilai Z hitung = 0,848 lebih besar dari nilai Z tabel = 0,799. Maka asumsi normalitas ditolak dengan pengertian bahwa data yang dianalisis berdistribusi normal. One-Sample Kolmogorov-Smirnov Test Pendapatan_UKM_Sesudah_ Pembiayaan N 43 Normal Parameters a,,b Mean 5,358,139.53 Std. Deviation 1,541,371.152 Most Extreme Differences Absolute .129 Positive .129 Negative -.056 Kolmogorov-Smirnov Z .848 Asymp. Sig. 2-tailed .469 a. Test distribution is Normal. b. Calculated from data. Universitas Sumatera Utara 70 2. Uji Heterokedastisitas Uji ini bertujuan untuk menguji apakah didalam model regresi terjadi ketidaksamaan varians. Jika varians dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi heteroskedastisitas. Ada beberapa cara untuk mendeteksi ada atau tidaknya heteroskedastisitas, yaitu : a. Analisis Grafik Dasar analisis adalah tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas, sedangkan jika ada pola tertentu, seperti titik-titik yang membentuk pola tertentu yang teratur, maka mengindikasikan telah terjadi heteroskedastisitas. Sumber : Hasil Penelitian, 2016 data diolah SPSS 21 Gambar 4.3 Heterokedastisitas Scaterrplot Universitas Sumatera Utara 71 Berdasarkan Gambar 4.3 dapat terlihat bahwa tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka berdasarkan metode grafik tidak terjadi heteroskedastisitas pada model regresi. b. Analisis Statistik Dasar analisis metode statistik adalah jika variabel bebas signifikan secara statistik mempengaruhi variabel terikat, maka ada indikasi terjadi heteroskedastisitas. Tabel 4.9 Uji Glejser Berdasarkan Output di atas dapat diketahui bahwa tidak satupun variabel bebas yang signifikan secara statistik mempengaruhi variabel terikat RES2. Hal ini terlihat dari probabilitas signifikansinya di atas tingkat kepercayaan 5 atau 0,05, jadi disimpulkan model regresi tidak mengarah adanya heteroskedastisitas. Coefficients a Model Unstandardized Coefficients Standardized Coefficients t Sig. B Std. Error Beta 1 Constant 275733.458 513911.827 .537 .595 Modal_Awal .013 .008 .229 1.487 .145 Modal_Pinjaman .004 .006 .095 .618 .540 a. Dependent Variable: RES_2 Sumber : Hasil Penelitian, 2016 data diolah SPSS 21 Universitas Sumatera Utara 72 3. Uji Multikolinieritas Tujuan uji multikolinieritas adalah untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel bebas tidak terjadi multikonieritas. Jika variabel bebas saling berkorelasi, maka variabel-variabel ini tidak ortogonal adalah variabel bebas yang nilai korelasi antar sesama variabel bebas sama dengan nol. Tabel 4.10 Uji Multikolinieritas Sumber : Hasil Penelitian, 2016 data diolah SPSS 21 Berdasarkan Tabel Output di atas dapat dilihat bahwa nilai VIF dari masing-masing variabel bebas adalah lebih kecil dari 5,00. Artinya tidak terjadi korelasi diantara variabel bebas tidak terjadi multikolinieritas pada model regresi. Coefficients a Model Unstandardized Coefficients Standardize Coefficients t Sig. Collinearity Statistics B Std. Error Beta Toleranc e VIF Constant 1647864.911 955360.960 1.725 .092 Modal_Awal .043 .016 .364 2.760 .009 .996 1.004 Modal_Pinjaman .037 .011 .439 3.325 .002 .996 1.004 a. Dependent Variable: Pendapatan_UKM_Sesudah_Pembiayaan Universitas Sumatera Utara 73

4.5 Analisi Regresi Linier Berganda