Uji Asumsi Klasik ANALISIS PENGARUH PROFITABILITAS, BIAYA OPERASIONAL PENDAPATAN OPERASIONAL (BOPO), NON PERFORMING FINANCING (NPF) dan DANA PIHAK KETIGA (DPK) terhadap TINGKAT BAGI HASIL DEPOSITO MUDHARABAH (STUDI KASUS pada BANK UMUM SYARIAH dan UNIT US

55

1. Uji Asumsi Klasik

Model regresi yang diperoleh dari metode kuadrat terkecil biasa Ordinary Least SquareOLS merupakan model regresi yang menghasilkan estimator linier tidak bias yang terbaik Best Linier Unbias EstimatitorBLUE. Kondisi ini akan terjadi jika dipenuhi beberapa asumsi, yang disebut dengan asumsi klasik diantaranya : Nonmultikolinieritas. Artinya,antara variabel independen yang satu dengan independen yang lain dalam model regresi tidak saling berhubungan secara sempurna atau mendekati sempurna. Homoskedastisitas. Artinya, varians semua variabel adalah konstan sama. Nonautokorelasi. Artinya tidak terdapat pengaruh dari variabel dalam model melalui tenggang waktu time lag. Misalnya, nilai suatu variabel saat ini akan berpengaruh terhadap nilai variabel lain pada masa yang akan datang Algifari,2013:83. Berikut beberapa asumsi klasik yang digunakan dalam penelitian ini : a. Uji Normalitas Uji asumsi normalitas menguji data variabel bebas X dan data variabel terikat Y pada persamaan regresi yang dihasilkan, apakah berdistribusi normal atau berdistribusi tidak normal. Persamaan regresi dikatakan baik jika mempunyai data variabel bebas dan data variabel terikat berdistribusi mendekati normal atau normal sama sekali sunyoto, 2009:84. Uji Normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. 56 Seperti diketahui bahwa Uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistic menjadi tidak valid untuk jumlah sampel kecil. Untuk mendeteksi apakah residual berdistribusi normal atau tidak dapat digunakan analisis grafik Ghazali 2013 : 1 Analisis grafik Salah satu cara termudah untuk melihat normalitas revidual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. 2 Analisis Statistik Uji statistik yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non-parametrik Kolmogorov-Smirnov K-S. Uji K-S dilakukan dengan membuat hipotesis: H0 : Data residual berdistribusi normal 57 HA : Data residual tidak berdistribusi normal b. Uji Multikolinieritas Dalam uji asumsi klasik, terdapat beberapa penyimpangan yang akan sangat berpengaruh terhadap pola perubahanan variabel dependen. Penyimpangan tersebut salah satunya adalah adanya multikolinearitas dalam model regresi yang dihasilkan. Artinya, antarvariabel independen yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna koefisien korelasinya tinggi atau bahkan 1. Konsekuensi yang sangat penting bagi model regresi yang mengandung multikolinearitas adalah bahwa kesalahan standar estimasi akan cenderung meningkat dengan bertambahnya variabel independen, tingkat signifikansi yang digunakan untuk menolak hipotesis nol akan semakin besar, dan probabilitas menerima hipotesis yang salah kesalahan beta juga akan semakin besar. Akibatnya, model regresi yang diperoleh tidak sahih valid untuk menaksir nilai variabel independen. Menghilangkan adanya multikolinearitas pada suatu model regresi terdapat bermacam-macam cara. Cara yang paling mudah adalah menghilangkan salah satu atau beberapa variabel yang mempunyai korelasi tinggi dari model regresi. Jika ini dilakukan berarti melakukan kesalahan spesifik, karena mengeluarkan variabel independen dari model regresi yang secara teoritis variabel tersebut dapat 58 mempengaruhi variabel dependen. Cara lain yang dapat dilakukan adalah dengan menambah data. Cara ini akan bermanfaat jika dapat dipastikan bahwa adanya multikolinearitas dalam model regresi disebabkan oleh kesalahan sampel. Di samping kedua cara tersebut, terdapat cara yang sering digunakan, yaitu dengan mentransformasi variabel. Nilai variabel yang digunakan mundur satu tahun Algifari,2013:84. Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi, dapat dilihat dari nilai tolerance dan Variance Inflation Factor VIF. Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Tolerancemengukur variabilitas variabel independen yang terpilih yang dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi karena VIF = 1Tolerance. Nilai cutoff yang umum dipakai untuk menunjukan adanya multikolinieritas adalah nilai tolerance ≤0.10 atau sama dengan nilai VIF ≥ 10 Ghazali 2013. c. Uji Heteroskedastisitas Uji Heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas. Model regresi yang baik adalah 59 yang homoskedastisitas atau tidak terjadi Heteroskedastisitas. Kebanyakan data crosssection mengandung situasi heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran kecil, sedang dan besar. Untuk mendeteksi ada atau tidaknya heteroskedastisitas di dalam model regresi, dapat dilakukandengan cara melihat Grafik Plot antara nilai prediksi variabel terikat dependen yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya pola heteroskedastisitas data dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang diprediksi, dan sumbu X adalah residual Y prediksi – Y sesungguhnya yang telah di-studentized. Dasar analisis : 1 Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur bergelombang, melebar kemudian menyempit, maka mengindikasikan telah terjadi heteroskedastistias. 2 Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas. Uji statistik untuk mendeteksi heteroskedastisitas salah satunya yaitu Uji Glesjer. Glesjer mengusulkan untuk meregresi nilai absolut 60 residual terhadap variabel independen Gujarati, 2003 dengan persamaan regresi: |Ut| = Xt + vt Dimana: |Ut| = Nilai residual absolut Xt = Variabel bebas Jika nilai dari probabilitas signifikansinya di atas tingkat kepercayaan 5, maka dapat disimpulkan bahwa model regresi tidak mengandung adanya Heterokedastisitas.Ghozali, 2013:142 d. Uji Autokorelasi Penyimpangan model regresi klasik yang selanjutnya adalah adanya otokorelasi dalam model regresi. Artinya, adanya korelasi antara anggota sampel yang diurutkan berdasar waktu. Penyimpangan asumsi ini biasanya muncul pada observasi yang menggunakan data time seriesKonsekuensi dari adanya otokorelasi dalam suatu model regresi adalah varianssampel tidak dapat menggambarkan varians populasinya. Lebih jauh lagi, model regresi yang dihasilkan tidak dapat digunakan untuk menaksir nilai variabel dependen pada nilai variabel independen tertentu Algifari 2013. Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada atau tidaknya autokorelasi Ghazali 2013. 61 1 Uji Durbin-Watson DW test Uji Durbin Watson hanya digunakan untuk autokorelasi tingkat satu first order autocorrelation dan mensyaratkan adanya intercept konstanta dalam model regresi dan tidak ada variabel lag di antara variabel independen. Hipotesis yang akan diuji adalah : H : tidak ada autokorelasi r = 0 H a : ada autokorelasi r ≠ 0 Pengambilan keputusan ada tidaknya autokorelasi : Tabel 3.1 Pengambilan Keputusan Autokorelasi Hipotesis nol Keputusan Jika Tidak ada autokorelasi positif Tolak 0ddl Tidak ada autokorelasi positif No decision dl ≤d≤du Tidak ada korelasi negative Tolak 4-dld4 Tidak ada korelasi negatif No decision 4-du ≤d≤4-dl Tidak ada autokorelasi, positif atau negatif Tidak ditolak Dud4-du 2 Pengobatan Autokorelasi Oleh karena adanya autokorelasi, maka nilai standard error se dan nilai t-statistik tidak dapat dipercaya sehingga diperlukan pengobatan. Pengobatan autokorelasi tergantung dari nilai ρ yang 62 dapat diestimasi dengan beberapa cara seperti di bawah ini Ghazali,2013:130 : a. Nilai ρ diestimasi dengan Durbin-Watson d ρ=1- d 2 b. Nilai ρ diestimasi dengan Theil-Nagar d ρ= n 2 1- d 2 + k 2 n 2 -k 2 Langkah Analisis : 1. Dapatkan nilai lag satu residual Ut-1 dengan perintah Transform dan Compute 2. Isikan pada target variabel Ut_1 dan isikan pada kotak Numeric Expression LagRes_1 3. Dari menu utama spss, pilih Analyze, kemudian submenu Regressi, lalu pilih Linear 4. Pada kotak dependent isikan variabel Res_1 Ut dan pada kotak independent isikan variabel Ut-1 Lag satu dari Ut. Abaikan yang lain dan pilih Ok 5. Gunakan nilai ρ pada iterasi pertama untuk mentransformaikan persamaan regresi. Langkah Iterasi : 1. Membentuk variabel TBHt_1, ROAt_1, BOPOt_1, NPFt_1, dan DPKt_1 dengan perintah Transform dan Compute. Pada kotak Target Variabel isikan dengan TBHt_1 dan pada kotak Numeric 63 Expression isikan TBH- ρ LagTBH . lakukan hal yang sama untuk semua variabel independen. 2. Dari menu utama spss pilih Analyze, kemudian Regression, lalu pilih Linear. Pada kotak dependent isikan variabel TBHt_1, dan pada kotak independen variabel isikan variabel , ROAt_1, BOPOt_1, NPFt_1, dan DPKt_1 3. Pilih statistik dan aktifkan Durbin-Watson untuk menguji apakah masih terjadi autokorelasi. Abaikan lainnya dan pilih Ok 4. Membandingkan hasil regresi persamaan awal sebelum dilakukan transformasi dan hasil regresi setelah dilakukan transformasi jika masih terdapat autokorelasi, maka lanjutkan tahapan selanjutnya. Langkah iterasi kedua : 1. Nilai  yang diperoleh dari iterasi pertama kita gunakan untuk mengestimasi model general difference equation sebagai berikut: Yt-  Yt-1 = 11- + 2Xt- Xt-1+t -  t – 1 2. Oleh karena kita belum memiliki beberapa variabel seperti Yt-1 dan  Xt-1, maka kita membuat variabel ini dengan perintah Transform dan Compute. 3. Pilih Transform dan Compute dan isikan pada Target Variabel 64 TBHt_1 = TBH- LagTBH lakukan juga pada variabel independennya. Dari menu utama SPSS, pilih menu Analyze kemudian Regression lalu Linear 4. Pada kotak dependen isikan variabel dependennya TBHt_1 5. Pada kotak independen isikan variabel independenya Hitung persamaan :  t = Yt-12 Xt 6. Pilih Transform lalu Compute dan isikan seperti di bawah ini: 7. Pilih OK, sekarang kita punya variabel baru Ut 8. Buat variabel Lag satu Ut dengan Transform dan Compute 9. Langkah berikutnya mengestimasi  pada iterasi kedua dengan persamaan regresi 10. Dari menu utama SPSS pilih Analyze kemudian Regression lalu Linear 11. Pada kotak dependen isikan Ut 12. Pada kotak independen isikan LagUt 13. Pilih OK 14. Gunakan nilai  pada iterasi kedua untuk mentransformasikan persamaan regresi. 15. Pilih Transform lalu Compute Isikan Target Variabel dengan TBH dan Numeric Expression isikan TBH = TBH-0.916LAGTBH Lakukan untuk semua variabel X-nya 65 16. Dari menu utama spss pilih Analyze, kemudian Regression, lalu pilih Linear. Pada kotak dependent isikan variabel TBH, dan pada kotak independen variabel isikan variabel, ROA, BOPO, NPF, dan DPK 17. Pilih statistik dan aktifkan Durbin-Watson untuk menguji apakah masih terjadi autokorelasi. Abaikan lainnya dan pilih Ok 18. Bandingkan nilai Durbin-Watson saat ini, apakah masih terjadi autokoreasi atau tidak jika nilai d terletak antara nilai dU dengan 4-Du, maka dapat disimpulkan bahwa model persamaan regresi tersebut sudah tidak mengandung masalah autokorelasi lagi.

2. Uji Statistik