Statistik Deskriptif Pengujian Asumsi Klasik

manfaatnya melebihi satu tahun anggaran dan akan menambah aset atau kekayaan daerah serta akan menimbulkan konsekuensi menambah belanja yang bersifat rutin seperti biaya pemeliharaan. Belanja modal memiliki karakteristik spesifik yang menunjukkan adanya berbagai pertimbangan dalam pengalokasiannya. Pemerolehan aset tetap juga memiliki konsekuensi pada beban operasional dan pemeliharaan pada masa yang akan datang. Halim, 2004 : 73.

3.6 Metode Analisis Data

Metode analisis data yang digunakan dalam penelitian ini adalah metode analisis regresi dengan bantuan software SPSS 17. Penggunaan metode analisis regresi dalam pengujian hipotesis, terlebih dahulu diuji apakah model tersebut memenuhi asumsi klasik atau tidak.

3.6.1 Statistik Deskriptif

Statistik deskriptif memberikan gambaran atau deskripsi suatu data yang dilihat dari rata-rata mean, standar deviasi, nilai minimum dan maksimum.

3.6.2 Pengujian Asumsi Klasik

Pengujian regresi linear berganda dapat dilakukan setelah model dari penelitian ini memenuhi syarat-syarat yaitu lolos dari asumsi klasik. Syarat-syarat tersebut adalah data tersebut harus terdistribusi secara normal, tidak mengandung multikolinearitas, autokorelasi, dan heterokedastisitas. Untuk itu sebelum melakukan pengujian regresi linear berganda perlu dilakukan pengujian asumsi klasik. Universitas Sumatera Utara

3.6.2.1 Uji Normalitas

Menurut Erlina dan Mulyani 2007 : 103, “uji ini berguna untuk tahap awal dalam metode pemilihan analisis data. Jika data normal, gunakan statistik parametrik dan jika data tidak normal gunakan statistik non parametrik atau lakukan treatment agar data normal.” Menurut Ghozali 2005 : 110, “Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.” Menurut Ghozali 2005 : 110 ada dua cara unutk mendeteksi apakah residual berdistribusi normal atau tidak, yaitu : 1 Analisis Grafik Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan plotnya data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. 2 Analisis statistik Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan nilai Z-skewness. Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non parametrik Kolmogorov-Smirnov K-S. Pedoman pengambilan keputusan tentang data tersebut mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov Smirnov dapat dilihat dari : Universitas Sumatera Utara a nilai Sig. Atau signifikan atau probabilitas 0,05, maka distribusi data adalah tidak normal, b. nilai Sig. Atau signifikan atau probabilitas 0,05, maka distribusi data adalah normal.

3.6.2.2 Uji Multikolinearitas

Menurut Gujarati 1995 dalam Hadi 2006 : 168, “uji multikolinearitas berhubungan dengan adanya korelasi antar variabel independen. Sebuah persamaan terjangkit penyakit ini bila dua atau lebih variabel independen memiliki tingkat korelasi yang tinggi. Sebuah persamaan regresi dikatakan baik bila persamaan tersebut memiliki variabel independen yang saling tidak berkorelasi.” Menurut Hadi 2006 : 168 untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi dapat dilihat dari : 1 Salah satu ciri regresi yang terjangkit multikolinear adalah persamaan tersebut memiliki nilai R 2 yang sangat tinggi, tetapi hanya memiliki sedikit variabel independen yang signifikan memiliki nilai t hitung tinggi. Keadaan yang paling ekstrim adalah bila model memiliki nilai R 2 dan F hitung yang tinggi dan secara otomatis akan memiliki nilai signifikansi F yang sangat bagus tetapi tidak satupun variabel independen yang memiliki nilai t cukup signifikan. Bila hal ini terjadi maka bisa disimpulkan bagusnya F dan R 2 karena adanya interaksi antar variabel independen yang cukup tinggi multikolinear. 2 Indikator lain yang bisa dipakai adalah CI Condition Index atau Eigenvalues. Bila CI berkisar antara 10 sampai dengan 30 maka kita bisa mengatakan bahwa persamaan tersebut terjangkit multikolinear. Bila CI 30 maka terjangkitnya semakin kecil. 3 VIF Variable Inflation Factor juga bisa digunakan sebagai indicator. Bila VIF 10 maka variable tersebut memiliki kolinearitas yang tinggi. Universitas Sumatera Utara Menurut Ghozali 2005 : 91, untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi, dapat dilihat dari : 1 Nilai R 2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel independennya banyak yang tidak signifikan mempengaruhi variabel dependen. 2 Menganalisis matrik korelasi variabel-variabel independen. Jika antarvariabel independen ada korelasi yang cukup tinggi umumnya di atas 0,90, maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen. 3 Multikolinearitas dapat juga dilihat dari a nilai tolerance dan lawannya, bvariance inflation factor VIF. Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen terikat dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi karena VIF = 1Tolerance. Nilai Cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai tolerance 0.10 atau sama dengan nilai VIF 10. Beberapa cara mengobati apabila terjadi multikolinearitas dalam data penelitian adalah sebagai berikut : a Menggabungkan data crossection dan time series pooling data. b Mengeluarkan satu atau lebih variable independen yang mempunyai korelasi tinggi dari model regresi dan identifikasikan variable independen lainnya untuk membantu prediksi. c Transformasi variable merupakan salah satu cara mengurangi hubungan linear di antara variable independen. d Menggunakan model dengan variabel independen yang mempunyai korelasi Universitas Sumatera Utara tinggi hanya semata-mata untuk prediksi jangan mencoba untuk menginterpretasikan koefisien regresinya. e Menggunakan metode analisis yang lebih canggih seperti bayesian regression atau dalam kasus khusus ridge regression.

3.6.2.3 Uji Heterokedastisitas

Uji Heterokedastisitas dilakukan untuk menguji apakah dalam sebuah model regresi terjadi ketidaksamaan varians dari satu pengamatan ke pengamatan yang lain. Jika varians dari residual suatu pengamatan ke pengamatan lainnya tetap, maka disebut Homoskedasitas. Dan jika varians berbeda, maka disebut heterokedastisitas. Model regresi yang baik adalah yang tidak terjadi heterokedastisitas. Suatu model dikatakan terdapat gejala heterokedastisitas jika koefisien parameter beta dari persamaan regresi tersebut signifikan secara statistik. Sebaliknya, jika parameter beta tidak signifikan secara statistik, hal ini menunjukkan bahwa data model empiris yang diestimasi tidak terdapat heterokedastisitas Erlina, 2007 : 108. Menurut Gujarati 1995 dalam Hadi 2006 : 172, “Untuk mengetahui adanya masalah heterokedastisitas ini kita bisa menggunakan korelasi jenjang Spearman, tes Park, tes Goldfeld-Quandt, tes BPG, tes White atau tes Glejser.” Bila menggunakan korelasi jenjang Spearman, maka kita harus menghitung nilai korelasi untuk setiap variabel independen terhadap nilai residu, baru kemudian dicari tingkat signifikansinya. Park dan Glejser test memiliki dasar test yang sama yaitu meregresikan kembali nilai residu ke variabel independen. Universitas Sumatera Utara Menurut Hadi 2006 : 174, salah satu cara untuk mengurangi masalah heterokedastisitas adalah menurunkan besarnya rentang range data. Salah satu cara yang bisa dilakukan untuk menurunkan rentang data adalah melakukan transformasi manipulasi logaritma. Tindakan ini bisa dilakukan bila semua data bertanda positif.”

3.6.2.4 Uji Autokorelasi

Uji autokorelasi digunakan untuk menguji asumsi klasik regresi berkaitan dengan adanya autokorelasi. “Autokorelasi akan muncul bila data sesudahnya merupakan fungsi dari data sebelumnya atau data sesudahnya memiliki korelasi yang tinggi dengan data sebelumnya pada data runtut waktu dan besaran data sangat tergantung pada tempat data tersebut terjadi “. Hadi, 2006 : 175. Menurut Singgih 2002 : 218 untuk mendeteksi adanya autokorelasi bisa digunakan tes Durbin Watson D-W. Panduan mengenai angka D-W untuk mendeteksi autokorelasi bisa dilihat pada tabel D-W, yang bisa dilihat pada buku statistik yang relevan. Namun demikian secara umum dapat diambil patokan : 1 Angka D-W di bawah -2 berarti ada autokorelasi positif, 2 Angka D-W di antara -2 sampai +2, berarti tidak ada autokorelasi, 3 Angka D-W di atas +2 berarti ada autokorelasi negatif. Jika terjadi autokorelasi, maka dapat diatasi dengan cara : a Melakukan transformasi data, b Menambah data observasi. Universitas Sumatera Utara 3.6.3 Model dan Teknik Analisis Data 3.6.3.1 Model Regresi Berganda