Dari hasil uji One-Sample Kolmogorov-Smirnov Test di atas diperoleh nilai Asymp. Sig. 2-tailed sebesar 0.123. Karena nilai 0.123 0.05, maka dapat
disimpulkan bahwa data terdistribusi normal. Pengujian normalitas juga dilakukan dengan melihat grafik normal
probability plot. Hasil pengujian Grafik Normal P-Plot dengan program IBM SPSS 20.0 terlihat pada gambar berikut ini :
Gambar 4.5. Normal P-Plot
Dari grafik Normal P-Plot di atas terlihat bahwa titik-titik menyebar berhimpit di sekitar garis diagonal dan searah mengikuti garis diagonal maka hal ini dapat
disimpulkan bahwa residual data memiliki distribusi normal, atau data memenuhi asumsi klasik normalitas.
4.6.1.2. Uji Multikolinearitas Sebelum Transformasi Data
Pengujian terhadap asumsi klasik multikolinearitas bertujuan untuk mengetahui apakah ada atau tidaknya korelasi antar variabel independen dalam
model regresi. Uji asumsi klasik multikolinearitas hanya dapat dilakukan jika terdapat lebih dari satu variabel independen dalam model regresi. Cara yang
umum digunakan oleh peneliti untuk mendeteksi ada tidaknya problem multikolinearitas pada model regresi adalah dengan melihat nilai Tolerance dan
VIF Variance Inflation Factor. Nilai yang direkomendasikan untuk menunjukkan tidak adanya problem multikolinearitas adalah nilai Tolerance harus
0.10 dan nilai VIF 10. Tabel di bawah ini menunjukkan hasil uji multikolinearitas pada penelitian
ini :
Tabel 4.38. Ringkasan Hasil Pengujian Multikolinieritas Dengan Menggunakan
Variance Inflation Factor VIF
Model Collinearity Statistics
Tolerance VIF
1 Constant
Pendidikan .429
2.328 Pendapatan
.473 2.113
Tanggungan .720
1.390 Sekolah
.762 1.312
Gender .978
1.022 a. Dependent Variable : Investasi
Tabel 4.38. memperlihatkan bahwa hasil perhitungan nilai tolerance menunjukkan tidak ada variabel independen yang memiliki nilai tolerance kurang
dari 0,10 yang berarti tidak ada korelasi antar variabel. Hasil perhitungan Variance Inflation Factor VIF juga menunjukkan hal yang sama, tidak ada
variabel independen yang memiliki nilai VIF lebih dari 10. Jadi dapat disimpulkan bahwa tidak ada Multikolinearitas antar variabel independen dalam model regresi.
4.6.1.3. Uji Heteroskedastisitas Sebelum Transformasi Data
Pengujian terhadap asumsi klasik heteroskedastisitas bertujuan untuk mengetahui apakah variance dari residual data satu observasi ke observasi lainnya
berbeda ataukah tetap. Jika variance dari residual data sama disebut homokedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang
kita inginkan adalah yang homokedastisitas atau yang tidak terjadi problem heteroskedastisitas. Pada penelitian ini uji heteroskedastisitas dilakukan dengan
menggunakan uji Grafik Scatterplot dan uji statistic Glejser. Hasil pengujian Grafik Scatterplot dengan program IBM SPSS 20.0
terlihat pada gambar berikut ini :
Gambar 4.6. Scatterplot
Dari grafik scatterplot di atas dapat dilihat bahwa titik-titik tidak menyebar secara acak dan cenderung berkumpul pada satu tempat. Hal ini mengindikasikan bahwa
pada data penelitian terjadi problem heteroskedastisitas.
Pengujian heteroskedastisitas juga dilakukan dengan Uji Statistik Glejser. Hasil pengujian Statistik Glejser dengan program IBM SPSS 20.0 terlihat pada
tabel berikut ini :
Tabel 4.39. Hasil Uji Heteroskedastisitas dengan Glejser
Coefficients
a
Model Unstandardized Coefficients
Standardized Coefficients
t Sig.
B Std. Error
Beta
1 Constant
12899.602 351515.752
.037 .971
Pendidikan 71330.706
73856.560 .132
.966 .337
Pendapatan .013
.004 .465
3.560 .001
Tanggungan -15224.767
66349.891 -.024
-.229 .819
Sekolah -75828.772
139565.935 -.056
-.543 .588
Gender 168116.339
120694.307 .127
1.393 .168
a. Dependent Variable: Glejser
Dari hasil uji Glejser di atas diperoleh nilai signifikansi untuk variabel Pendapatan 0.001. Oleh karena nilai signifikansi Pendapatan 0.05 maka dapat
disimpulkan bahwa pada data penelitian terdapat problem heteroskedastisitas. Hasil uji Glejser ini konsisten dengan hasil uji Scatterplot sebelumnya.
4.6.1.4. Uji Autokorelasi Sebelum Transformasi Data
Pengujian terhadap asumsi klasik autokorelasi bertujuan untuk mengetahui apakah ada korelasi antara kesalahan pengganggu pada data observasi satu
pengamatan ke pengamatan lainnya dalam model regresi linear. Model regresi yang baik adalah yang tidak terjadi korelasi. Pada penelitian ini uji autokorelasi
dilakukan dengan menggunakan uji statistik Durbin-Watson. Untuk uji Durbin- Watson peneliti akan membandingkan hasil DW statistik dan DW tabel. Jika DW
statistik DW tabel, maka dapat disimpulkan bahwa tidak terdapat problem autokorelasi.
Hasil pengujian Durbin-Watson dengan program IBM SPSS 20.0 terlihat pada tabel berikut ini :
Tabel 4.40. Hasil Uji Autokorelasi dengan Durbin-Watson DW Test
Model Summary
b
Model R
R Square Adjusted R
Square Std. Error of the
Estimate Durbin-Watson
1 .737
a
.543 .514
936758.495 2.029
a. Predictors: Constant, Gender, Pendidikan, Sekolah, Tanggungan, Pendapatan b. Dependent Variable: Investasi
Dari hasil uji statistik di atas diperoleh nilai DW statistik sebesar 2.029. Peneliti akan membandingkan dengan DW tabel pada tingkat signifikansi 5 . Jumlah
variabel yang digunakan ada enam k = 6 dengan sampel n = 85, maka diperoleh nilai DW tabel sebesar 1.801. Karena nilai DW statistik lebih besar dari nilai DW
tabel 2.029 1.801 maka dapat disimpulkan bahwa data penelitian tidak terdapat problem autokorelasi.
4.6.2. Uji Asumsi Klasik Setelah Transformasi Data
Untuk mengatasi problem heteroskedastisitas pada penelitian ini, peneliti melakukan transformasi data dengan Logaritma. Tujuan utama dari transformasi
data ini adalah untuk mengubah skala pengukuran data asli menjadi bentuk lain sehingga data dapat memenuhi asumsi-asumsi yang mendasari analisis ragam.
4.6.2.1. Uji Normalitas Setelah Transformasi Data
Hasil uji normalitas setelah dilakukan transformasi data dengan Logaritma ditunjukkan pada tabel 4.41.
Tabel 4.41. Hasil Uji Normalitas dengan Kolmogorov-Smirnov Test K-S
Setelah Transformasi Data
Unstandardized Residual
N 85
Normal Parameters
a,b
Mean 0E-7
Std. Deviation .08491007
Most Extreme Differences Absolute
.090 Positive
.090 Negative
-.060 Kolmogorov-Smirnov Z
.827 Asymp. Sig. 2-tailed
.502 a. Test distribution is Normal.
b. Calculated from data.
Dari hasil uji One-Sample Kolmogorov-Smirnov Test di atas diperoleh nilai Asymp. Sig. 2-tailed sebesar 0.502. Karena nilai 0.502 0.05, maka dapat
disimpulkan bahwa data terdistribusi normal. Sedangkan hasil pengujian Grafik Normal P-Plot setelah transformasi data terlihat pada gambar berikut ini :
Gambar 4.7. Normal P-Plot Setelah Transformasi Data
Dari grafik Normal P-Plot di atas terlihat bahwa titik-titik menyebar berhimpit di sekitar garis diagonal dan searah mengikuti garis diagonal maka berdasarkan hal
ini dapat disimpulkan bahwa residual data memiliki distribusi normal, atau data memenuhi asumsi klasik normalitas.
4.6.2.2. Uji Multikolinearitas Setelah Transformasi Data
Tabel 4.42. di bawah ini menunjukkan hasil uji multikolinearitas pada penelitian ini setelah dilakukan transformasi data :
Tabel 4.42. Ringkasan Hasil Pengujian Multikolinieritas Dengan Menggunakan
Variance Inflation Factor VIF Setelah Dilakukan Transformasi Data
Model Collinearity Statistics
Tolerance VIF
1 Constant
Pendidikan .390
2.565 LogPendapatan
.426 2.350
Tanggungan .720
1.388 Sekolah
.765 1.307
Gender .969
1.032 a. Dependent Variable : LogInvestasi
Tabel 4.42. memperlihatkan bahwa hasil perhitungan nilai tolerance menunjukkan tidak ada variabel independen yang memiliki nilai tolerance kurang
dari 0,10 yang berarti tidak ada korelasi antar variabel. Hasil perhitungan Variance Inflation Factor VIF juga menunjukkan hal yang sama, tidak ada
variabel independen yang memiliki nilai VIF lebih dari 10. Jadi dapat disimpulkan bahwa tidak ada Multikolinearitas antar variabel independen dalam model regresi.
4.6.2.3. Uji Heteroskedastisitas Setelah Transformasi Data
Hasil pengujian Grafik Scatterplot dengan program IBM SPSS 20.0 setelah transformasi data terlihat pada gambar berikut ini :
Gambar 4.8. Scatterplot Setelah Transformasi Data
Dari grafik scatterplot di atas dapat dilihat bahwa titik-titik menyebar secara acak dan tidak berkumpul pada satu tempat. Hal ini mengindikasikan bahwa pada data
penelitian tidak terjadi problem heteroskedastisitas. Hasil pengujian Statistik Glejser dengan program IBM SPSS 20.0 setelah
transformasi data terlihat pada tabel 4.43. berikut :
Tabel 4.43. Hasil Uji Heteroskedastisitas dengan Glejser Setelah Transformasi Data
Coefficients
a
Model Unstandardized Coefficients Standardized
Coefficients t
Sig. B
Std. Error Beta
1 Constant
-.056 .176
-.320 .750
Pendidikan .013
.007 .284
1.699 .093
LogPendapatan .011
.025 .072
.448 .656
Tanggungan .000
.006 .005
.041 .967
Sekolah -.009
.013 -.078
-.651 .517
Gender .006
.012 .054
.511 .611
a. Dependent Variable: Glejser
Dari hasil uji Glejser di atas diperoleh nilai signifikansi untuk semua variabel 0.05. Oleh karena nilai signifikansi di atas 0.05 maka dapat
disimpulkan bahwa data penelitian memenuhi asumsi klasik heteroskedastisitas. Hasil uji Glejser ini konsisten dengan hasil uji Scatterplot sebelumnya.
4.6.2.4. Uji Autokorelasi Setelah Transformasi Data
Hasil pengujian Durbin-Watson dengan program IBM SPSS 20.0 setelah transformasi data terlihat pada tabel berikut ini :
Tabel 4.44. Hasil Uji Autokorelasi dengan Durbin-Watson DW Test Setelah Transformasi Data
Model Summary
b
Model R
R Square Adjusted R
Square Std. Error of the
Estimate Durbin-Watson
1 .781
a
.610 .585
.08756 2.203
a. Predictors: Constant, Gender, Pendidikan, Sekolah, Tanggungan, LogPendapatan b. Dependent Variable: LogInvestasi
Dari hasil uji statistik di atas diperoleh nilai DW statistik sebesar 2.203. Peneliti
akan membandingkan dengan DW tabel pada tingkat signifikansi 5 . Jumlah variabel yang digunakan ada enam k = 6 dengan sampel n = 85, maka diperoleh
nilai DW tabel sebesar 1.801. Karena nilai DW statistik lebih besar dari nilai DW tabel 2.203 1.801 maka dapat disimpulkan bahwa data penelitian tidak terdapat
problem autokorelasi.
4.7. Analisis Regresi Linear Berganda
Analisis regresi linear berganda merupakan teknik analisis regresi yang dapat digunakan untuk menguji pengaruh beberapa variabel independen terhadap
satu variabel dependen. Hasil dari analisis regresi adalah berupa koefisien signifikansi untuk masing-masing variabel independen, yang menentukan apakah
menerima atau menolak hipotesis nol.
Dalam penelitian ini terdapat satu variabel dependent, yaitu Investasi Pendidikan, tiga variabel independent yaitu pendidikan kepala keluarga,
pendapatan keluarga, dan jumlah tanggungan keluarga, serta dua variabel dummy yaitu jenis kelamin anak gender dan jenis sekolah.
Dari analisis regresi linear berganda yang dilakukan dengan menggunakan bantuan Program IBM SPSS 20.0, hasil olah data terlihat seperti Tabel berikut:
Tabel 4.45. Analisa Regresi Linear Berganda
Coefficients
a
Model Unstandardized
Coefficients Standardized
Coefficients t
Sig. B
Std. Error Beta
1 Constant
5.720 .289
19.775 .000
Pendidikan .061
.012 .557
4.954 .000
LogPendapatan .087
.041 .226
2.099 .039
Tanggungan -.016
.011 -.127
-1.535 .129
Sekolah .073
.022 .264
3.291 .001
Gender .018
.019 .066
.921 .360
a. Dependent Variable: LogInvestasi
Berdasarkan Tabel 4.45., maka persamaan regresi yang di dapat adalah sebagai berikut:
Y = 5,720 + 0,061 X1 + 0,087 X2
– 0,016 X3 + 0,073 X4 + 0,018 X5 + e
Keterangan : Y = Investasi pendidikan
X1 = Pendidikan kepala keluarga X2 = Pendapatan keluarga
X3 = Jumlah tanggungan keluarga X4 = Jenis kelamin anak Gender