2 Lana tunai
laba akuntansi setelah disesuaikan
dengan transaksi- transaksi non-kas,
seperti beban penyusutan, beban
amortisasi, penjualan kredit,
pembelian kredit, utang gaji, utang
pajak, dan utang bunga yang belum
dibayar
Arus kas operasi Rp
Rasio
3 Dividen kas
distribusi laba dalam bentuk kas oleh
sebuah perusahaan kepada pemegang
sahamnya
Dividen kas Rp
Rasio
F. Metode Analisis Data
1. Pengujian Asumsi Klasik
Metode analisis data yang digunakan dalam penelitian ini adalah model analisis regresi berganda dengan menggunakan bantuan software SPSS 16. Dalam
penggunaan metode analisis regresi dalam pengujian hipotesis, terlebih dahulu diuji apakah model tersebut memenuhi asumsi klasik atau tidak. Pengujian asumsi
klasik tersebut meliputi: a.
Uji Normalitas Uji normalitas data bertujuan untuk menguji apakah dalam model regresi,
variabel pengganggu atau residual memiliki distribusi normal Ghozali, 2005:111. Dalam penelitian ini, untuk mendeteksi normalitas data dapat
dilakukan dengan pengujian berikut: 1
Uji Kolmogrov Smirnov
Universitas Sumatera Utara
Dalam uji ini, pedoman yang digunakan dalam pengambilan keputusan adalah:
a Jika nilai signifikan 0.05 maka distribusi normal
b Jika nilai signifikan 0.05 maka distribusi tidak normal
Hipotesis yang digunakan dalam uji ini adalah: Ho : Data residual berdistribusi normal
Ha : Data residual tidak berdistribusi normal Jika ternyata data yang diuji tidak normal, ada beberapa cara mengubah
model regresi menjadi normal Jogiyanto, 2004: 172, yaitu: a
dengan melakukan transformasi data ke bentuk lain, yaitu: Logaritma Natural, akar kuadrat, Logaritma lo,
b lakukan trimming, yaitu mengubah observasi yang bersifat outlier,
c lakukan winsorizing, yaitu mengubah nilai-nilai data outlier menjadi
nili-nilai minimum atau maksimum yang diizinkan supaya distribusinya menjadi normal.
2 Histogram
Pengujian dengan model histogram memiliki ketentuan bahwa data normal berbentuk lonceng. Data yang baik adalah data yang memiliki pola distribusi
normal. Jika data melenceng ke kanan atau melenceng ke kiri berarti data tidak terdistribusi secara normal.
3 Grafik Normality Probability Plot
Dalam uji ini, ketentuan yang digunakan adalah:
Universitas Sumatera Utara
a Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis
diagonal, maka model regresi memenuhi asumsi normalitas. b
Jika data menyebar jauh dari diagonal danatau tidak mengikuti arah garis diagonal, maka model regresi tidak memenuhi asumsi normalitas.
b.Uji Heterokedastisitas Uji heterokedastisitas bertujuan untuk menguji apakah dalam model regresi
terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang baik adalah jika tidak terjadi heteroskedastisitas, atau
terjadi homoskedastisitas. Menurut Ghozali 2005:105, ada beberapa cara untuk mendeteksi ada
tidaknya heteroskedastisitas: a
melihat grafik plot antara nilai prediksi variabel terikat dependen yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya
heterokedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana
sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual Y prediksi – Y sesungguhnya yang telah di- studentized. Dasar analisis:
1 Jika ada pola tertentu, seperti titik – titik yang ada membentuk pola
tertentu yang teratur bergelombang, melebar kemudian menyempit, maka diindikasikan telah terjadi heterokedastisitas,
2 Jika tidak ada pola yang jelas, serta titik – titik menyebar diatas dan di
bawah angka 0 pada sumbu Y, maka tidak terjadi heterokedastisitas,
Universitas Sumatera Utara
b uji Park, mengemukkan metode bahwa varaince s² merupakan fungsi
dari varibel-varibel independen yang dinyatakan dalam persamaan: σ²i = αXi ß,
c uji glejser, mengusulkan untuk meregres nilai absolut residual terhadap
variabel independen dengan persamaan: | Ut| = α + ßXt + vt,
d uji white, dilakukan dengan meregres residual kuadrat U²t dengan
variable independen,variable independen kuadrat dan perkalian interaksi variable independen.
c. Uji Autokorelasi
Uji ini bertujuan untuk melihat apakah dalam suatu model regresi linear ada korelasi antar kesalahan pengganggu pada periode t dengan kesalahan pada
periode t-1. Autokorelasi muncul karena observasi yang berurutan sepanjang tahun yang berkaitan satu dengan yang lainnya. Hal ini sering ditemukan pada
time series. Pada data cross-section, masalah autokorelasi relatif tidak terjadi. Pengujian ini menggunakan uji Durbin Watson. Menurut Sunyoto 2009:91,
Pengambilan keputusan ada tidaknya autokorelasi adalah sebagai berikut: 1
angka D-W dibawah -2 berarti ada autokorelasi positif, 2
angka D-W diantara -2 sampai +2 berarti tidak ada autokorelasi, 3
angka D-W di atas +2 berarti ada autokorelasi negatif. d.
Uji Multikolinearitas Uji multikolinieritas bertujuan untuk menguji apakah model regresi
mempunyai korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen.
Universitas Sumatera Utara
Multikolinearitas adalah situasi adanya korelasi variabel -variabel independen antara yang satu dengan yang lainnya. Dalam hal ini disebut variabel -variabel
bebas ini tidak ortogonal. Variabel – variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.
Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah:
• Koefisien – koefisien regresi menjadi tidak dapat ditaksir,
• Nilai standar error setiap koefisien regresi menjadi tak terhingga.
Menurut Ghozali 2005:91, untuk mendeteksi ada tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut:
1 Nilai R
2
yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel – variabel independennya banyak
yang tidak signifikan mempengaruhi variabel dependen. 2
Menganalisis matrik korelasi variabel – variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi umumnya diatas
0.90, maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas
dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.
3 Multikolinearitas dapat juga dilihat dari a nilai tolerance dan lawannya
bvariance inflation factor VIF. Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen
lainnya. Dalam pengertian sederhana setiap variabel independen menjadi
Universitas Sumatera Utara
variabel dependen terikat dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang
terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi karena
VIF=1Tolerance. Nilai cut off yang umum dipakai untuk menunjukan adanya multikolinearitas adalah nilai tolerance 0.10 atau sama dengan
nilai VIF 10.
2. Pengujian Hipotesis