Uji asumsi Klasik Hasil Analisis Data dan Uji Hipotesis .1 Hasil Analisis Data

4.2 Hasil Analisis Data dan Uji Hipotesis 4.2.1 Hasil Analisis Data

4.2.1.1 Uji asumsi Klasik

Persamaan regresi yang didapat perlu diuji untuk memenuhikriteria statistika, dalam arti tidak terjadi penyimpangan yang cukup serius dari asumsi – asumsi yang ditetapkan, agar hasil estimasi tidak menyimpang dan memberikan informasi yang sesuai dengan keadaan data. Persamaan linier berganda harus bersifat BLUE Best Linier Unbiased Estimator, artinya pengambilan keputusan melalui uji hipotesis tidak boleh bias. Untuk menghasilkan keputusan yang BLUE maka harus dipenuhi diantaranya 3 tiga asumsi dasar klasik yaitu : 1. Tidak boleh ada autokorelasi 2. Tidak boleh ada multikolinearitas 3. Tidak boleh ada heteroskodasitas Adapun penjabaran dari asumsi dasar klasik dalah sebagai berikut :

1. Uji Normalitas

Tujuan dari dilakukannya uji normalitas adalah untuk mengetahui apakah dalam model regresi, variable terikat dan variable bebas keduanya mempunyai distribusi normal atau tidak. Dalam uji normalitas model regresi yang baik adalah memiliki distribusi data normal atau mendekati normal. Data yang berdistribusi normal dalam suatu model regresi dapat dilihat dari grafik normal P-P plot, dimana bila titik-titik yang menyebar di sekitar garis diagonal serta penyebarannya mengikuti arah garis diagonal, maka data tersebut dikatakan normal. Berikut grafik normal P – Plot normalitas data diatas penelitian pengaruh NPM, ROI, ROE, EPS terhadap harga saham, menggunakan program SPSS for windows 11.5 : Gambar 4.1 Normal P-P Plot of Regression Standardized Residual Dependent Variable : Close Price Obs erv ed C um Prob 1,0 ,8 ,5 ,3 0,0 E xpe ct ed C um Pr o b 1,0 ,8 ,5 ,3 0,0 Sumber : lampiran 6 Pada uji normalitas gambar 4.1, P-P plot menunjukkan bahwa tiitk-titik menyebar disekitar garis diagonal dan mengikuti garis diagonal, maka dapat disimpulkan bahwa data yang diperoleh dalam penelitian ini berdistribusi normal.

2. Autokorelasi

Uji autokorelasi dilakukan untuk menguji apakah dalam sebuah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 atau sebelumnya. Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Cara mendeteksi ada atau tidaknya autokorelasi dapat dilakukan dengan uji Durbin Watson. Jika nilai Durbin Watson hitung mendekati atau disekitar angka 2, maka model tersebut terbebas dari asumsi klasik autokorelasi. Berdasarkan perhitungan yang telah dilakukan terhadap uji autokorelasi didapatkan nilai Durbin Watson statistik yang terdapat dalam tabel : Tabel 4.6 Durbin Watson Model Summary b ,864 a ,746 ,721 26935,27478 1,896 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Durbin-W atson Predictors: Constant, EPS, ROI, ROE, NPM a. Dependent Variable: Close Price b. Sumber : Lampiran 7 Tabel 4.7 Tabel Durbin Watson DW Kesimpulan Kurang dari 0,525 Ada Autokorelasi 0,525 – 1,703 Tanpa Kesimpulan 1,703 – 2,297 Tidak ada Autokorelasi 2,297 – 3,475 Tanpa Kesimpulan 3,475 Ada Autokorelasi Dari perhitungan statistik diperoleh nilai dw sebesar 1,864 lampiran 7, sedangkan nilai du pada taraf nyata 0,05 adalah 1,720, sehingga 4-du adalah 2,280. Berdasarkan nilai tersebut, maka letak dw adalah 1,720dw2,280 dengan demikian statistik Durbin Watson menunjukkan tidak terjadi autokorelasi korelasi serial pada antar kesalahan pengganggu.

3. Multikolinearitas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi yang tinggi antar variabel independen. Model regresi yang baik seharusnya tidak mengandung multikolinearitas. Untuk mendeteksi ada tidaknya multikolearitas di dalam model adalah melihat nilai tolerance dan lawannya Variance Inflantion Faktor VIF, untuk setiap variabel bebas. Jika nilai tolerance kurang dari 0,10 dan nilai VIF lebih dari 10, artinya bahwa terlalu besar korelasi antara satu variabel bebas lainnya. Hasil pengujian multikolinearitas dengan menggunakan SPSS for Windows versi 11.5 dapat dilihat sebagai berikut : Tabel 4.8 Hasil Uji Multikolinearitas Coefficients a ,104 9,603 ,102 9,843 ,514 1,947 ,579 1,727 NPM ROI ROE EPS Model 1 Tolerance VIF Collinearity Statistics Dependent Variable: Close Price a. Sumber : Lampiran 8 Pada tabel 4.8 diatas menunjukkan bahwa nilai tolerance seluruh variabel adalah lebih dari 0,10 dan nilai VIF nya dibawah 10, sehingga dapat diyakini tidak ditemukan adanya multikolinearitas atau korelasi antar variabel bebas.

4. Heteroskedastisitas

Uji heteroskedastisitas dilakukan untuk menguji apakah dalam sebuah model regresi, terjadi ketidaksamaan varians dari resudual dari satu pengamatan yang lain. Jika varians dari residual dari satu pengamatan ke pengamatan yang lain berbeda, disebut heteroskedastisitas. Model regresi yang baik adalah tidak terjadi heteroskedistisitas. Heteroskedistisitas berarti variasi varian variabel tidak sama untuk melakukan pengamatan. Pada heteroskedistisitas, kesalahan yang terjadi tidak random acak tetapi menunjukkan hubungan yang sistematis sesuai dengan besarnya satu atau lebih variabel bebas. Berikut pendeteksian heteroskedistisitas dengan grafik scatter plot antara residual dan fits. Gambar 4.2 Scatter Plot Residual vs Fits Scatterplot Dependent Variable: Close Price Regression Studentized Residual 4 2 -2 -4 Regression Standardized Predicted Value 3 2 1 -1 -2 Sumber : Lampiran 9 Pengujian heteroskedastisitas di atas dilakukan dengan melihat plot antara residual versus fits pada gambar 4.2 jika terjadi trend baik itu naik, turun maupun rata, maka dikatakan ada heteroskedastisitas pada data. Pada gambar 4.2 dapat dijelaskan tidak terjadi trend karena data titik-titik tersebar hampir secara merata tidak membentuk pola. Hal ini membuktikan tidak terjadinya heteroskedastisitas.

4.2.1.2 Analisis Statistik Regresi Linear Berganda