38
3.6.1 Statistik Deskriptif
Statistik Deskriptif adalah metode statistik yang digunakan untuk menggambarkan atau mendeskripsikan data yang telah dikumpulkan menjadi
sebuah informasi.
3.6.2 Pengujian Asumsi Klasik
Peneliti melakukan uji asumsi klasik terlebih dahulu sebelum melakukan pengujian hipotesis, hal ini disebabkan karena data yang digunakan dalam
penelitian sering bersifat bias dan tidak efisien. Untuk memperoleh nilai yang tidak bias dan efisien Best Linear Unbiased Estimator BLUE dari model
persamaan linear maka haruslah memenuhi asumsi klasik yang mendasari model linear. Setelah data memenuhi asumsi klasik maka data layak dianalisis lebih
lanjut untuk pengujian hipotesis dengan analisis pengujian linear. Pengujian asumsi klasik yang dilakukan terdiri atas uji normalitas, uji multikolinearitas, uji
heteroskedasitas, dan uji autokorelasi. Menurut Ghozali 2005 : 123 asumsi klasik yang harus dipenuhi adalah:
a berdistribusi normal, b non-multikolinearitas, artinya antara variabel independen dalam model
regresi tidak memiliki korelasi atau hubungan secara sempurna atau mendekati sempurna,
c non-autokorelasi, artinya kesalahan penggangu dalam model regresi tidak saling berkorelasi,
d homoskedastitas, artinya variance variabel independen dari satu pengamatan ke pengamatan lain adalah konstan atau sama.
3.6.2.1 Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Kalau nilai residual
Universitas Sumatera Utara
39
tidak mengikuti distribusi normal, uji statistik menjadi tidak valid untuk jumlah sampel kecil. Uji ini ditujukan untuk mendapatkan kepastian terpenuhinya syarat
normalitas yang akan menjamin dapat dipertanggungjawabkannya langkah- langkah analisis statisik sehingga kesimpulan yang diambil dapat
dipertanggungjawabkan. Cara yang digunakan untuk mendeteksi apakah residual berdistribusi normal atau tidak dapat didasarkan pada analisis grafik dan analisis
statistik. Analisis grafik dilakukan dengan melihat grafik histogram yang membandingkan data observasi dengan distribusi yang mendekati distribusi
normal atau mengikuti kurva berbentuk lonceng dan grafik normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal.
Dasar pengambilan keputusan normal probability plot menurut Ghozali 2005 : 110 adalah sebagai berikut:
a Jika data menyebar sekitar garis diagonal dan mengikuti arah garis diagonal atau grafis histogramnya menunjukkan pola distribusi normal,
maka model regresi memenuhi asumsi normalitas, b Jika menyebar jauh dari garis diagonal dan atau tidak mengikuti arah
garis diagonal atau grafis histogramnya tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi
normalitas.
Sedangkan analisis statistik dilakukan dengan uji statistik nonparametrik Kolmogorov-Smirnov K-S yang dijelaskan oleh Ghozali 2005 : 155. Uji K-S
dibuat dengan membuat hipotesis: Ho : Data residual berdistribusi normal
Ha : Data residual tidak berdistribusi normal Bila signifikansi 0,05 dengan α = 5 berarti distribusi data normal dan H
diterima, sebaliknya bila nilai signifikan 0,05 berarti distribusi data tidak normal
Universitas Sumatera Utara
40
dan H
a
diterima. Menurut Jogiyanto 2004 : 172, distribusi yang melanggar asumsi normalitas dapat dijadikan menjadi bentuk yang normal dengan beberapa
cara sebagai berikut : a Transformasi data
Transformasi data dapat dilakukan dengan logaritma natural Ln, Log 10, SQRT maupun akar kuadrat. Jika ada data yang bernilai negatif,
transformasi data dengan logaritma akan menghilangkannya sehingga jumlah sampel n akan berkurang.
b Trimming Trimming adalah memangkas atau membuang observasi yang bersifat
outlier. c Winsorizing
Winsorizing mengubah nilai-nilai outlier menjadi nilai-nilai minimum atau maksimum yang diizinkan supaya distribusinya menjadi normal.
3.6.2.2 Uji Multikolinearitas
Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut variabel-variabel
bebas tidak ortogonal. Variabel-variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.
Uji multikolinearitas bertujuan untuk menguji apakah pada model regresi ditemukan adanya korelasi diantara variabel independen. Model regresi yang baik
seharusnya menunjukkan tidak terjadinya korelasi diantara variabel independen. Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen
antara yang satu dengan yang lainnya.
Dalam hal ini kita sebut variabel-variabel bebas tidak
ortogonal. Variabel-variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.
Untuk mendeteksi ada tidaknya multikolinearitas di dalam model regresi menurut Ghozali 2005 dapat dilihat dari :
Universitas Sumatera Utara
41
• Nilai Tolerance dan lawannya • VIF Variance Inflation Factor
Kedua ukuran ini menunjukkan setiap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih tidak
dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan VIF yang tinggi karena VIF = 1Tolerance. Nilai cutoff yang
umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai Tolerance 0,10 atau sama dengan nilai VIF 10.
Cara untuk mengatasi masalah jika terjadi multikolinearitas adalah : a Menggabungkan data cross section dan time series pooling data.
b Mengeluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari model-model regresi dan identifikasikan variabel independen
lainnya untuk membantu prediksi. c Transformasi variabel merupakan salah satu cara mengurangi hubungan
linear diantara variabel independen. Transformasi dapat dilakukan dalam bentuk logaritma natural.
3.6.2.3 Uji Heteroskedastisitas
Heteroskedastisitas merupakan situasi dimana dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain.
Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedasitas dan jika berbeda disebut heteroskedasitas. Model regresi
yang baik adalah yang homoskedasitas atau tidak terjadi heteroskedasitas.
Universitas Sumatera Utara
42
Kebanyakan data cross section mengandung situasi heteroskedasitas karena data ini menghimpun data yang mewakili berbagai ukuran kecil, sedang, dan besar.
Untuk mendeteksi ada tidaknya heteroskedasitas, menurut Ghozali 2005:105 dapat dilihat dari grafik Scatterplot antara nilai prediksi variabel
dependen yaitu ZPRED dengan residualnya SRESID. Jika ada pola tertentu seperti titik-titik yang ada membentuk pola tertentu yang teratur bergelombang,
melebar kemudian menyempit, maka telah terjadi heteroskedasitas. Sebaliknya jika tidak ada pola yang jelas serta titik-titik yang menyebar di atas dan di bawah
angka 0 pada sumbu Y maka tidak terjadi heterokedastisitas atau terjadi homoskedastisitas.
3.6.2.4 Uji Autokorelasi
Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan
pada periode t-1 atau sebelumnya. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena
residual atau kesalahan pengganggu tidak bebas dari satu observasi ke observasi lainnya. Hal ini paling sering ditemukan pada data runtut waktu time series
karena “gangguan” pada seorang individukelompok cenderung mempengaruhi “gangguan” pada individukelompok yang sama pada periode berikutnya. Model
regresi yang baik adalah model regresi yang bebas dari autokorelasi. Untuk mengetahui adanya autokorelasi dapat dideteksi dengan
menggunakan Durbin Watson. Penentuan ada tidaknya autokorelasi dapat dilihat dalam tabel 3.3.
Universitas Sumatera Utara
43
Tabel 3.3 Uji Statistik Durbin-Watson
Durbin-Watson Kesimpulan
1.10 Ada Autokorelasi
1.11 - 1.54 Tanpa Kesimpulan
1.55 - 2.46 Tidak Ada Autokorelasi
2.47 - 2.90 Tanpa Kesimpulan
2.91 Ada Autokorelasi
Sumber: Algifari 2000 3.6.3
Pengujian Hipotesis Penelitian
Dalam menentukan hubungan yang berlaku antara informasi laba akuntansi dan arus kas dari aktivitas operasi terhadap harga saham pada perusahaan
perbankan yang terdaftar di Bursa Efek Indonesia, maka digunakan analisis statistik berikut:
3.6.3.1 Analisis Regresi Berganda
Analisis regresi digunakan untuk memperkirakan atau meramalkan hubungan antara dua variabel dengan membuat asumsi ke dalam suatu bentuk
fungsi tertentu fungsi linear. Dimana variabel dependen dapat diprediksi melalui variabel independen secara individual, sehingga dapat digunakan untuk
memutuskan apakah naik atau turunnya variabel dependen dapat dilakukan dengan menaikkan atau menurunkan variabel independen.
Sedangkan menurut Ghozali 2005 “Analisis Regresi merupakan studi mengenai ketergantungan variabel dependen terikat dengan satu atau lebih
variabel independen variabel penjelas atau bebas dengan tujuan mengestimasi dan atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen
Universitas Sumatera Utara
44
berdasarkan nilai variabel independen yang diketahui”. Dalam penelitian ini digunakan model analisis regresi berganda multiple regresion, karena variabel
independen lebih dari satu yaitu 2 variabel berupa laba akuntansi dan arus kas dari aktivitas operasi. Model regresi linear yang digunakan adalah sebagai berikut:
Y = a + b1X
1
+ b2X
2
+ e
Keterangan: Y = Harga Saham
a = Konstanta
X
1
= Variabel independen I yaitu nilai laba akkuntansi per lembar saham X
2
= Variabel independen II yaitu nilai arus kas dari aktivitas operasi per lembar saham
b
1
= Koefisien regresi X
1
b
2
= Koefisien regresi X
2
e = Error tingkat kesalahan pengganggu
3.6.3.2 Uji Signifikansi
Uji signifikansi antara variabel bebas terhadap variabel terikat, baik secara simultan serentak maupun parsial dilakukan dengan menggunakan uji statistik t
dan uji statistik F. 1. Uji t uji secara parsial
Uji secara parsial untuk menguji setiap variabel bebas atau independent variable X apakah mempunyai pengaruh atau tidak terhadap variabel tidak
bebas atau dependent variable Y. Bentuk pengujiannya adalah:
Universitas Sumatera Utara
45
• Ho : b
1
= b
2
= 0, artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara parsial tidak mempunyai pengaruh terhadap harga saham
pada perusahaan perbankan yang terdaftar di BEI. • Ha : b
1
≠ b
2
≠ 0, artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara parsial mempunyai pengaruh terhadap harga saham pada
perusahaan perbankan yang terdaftar di BEI. Dengan menggunakan tingkat signifikan alpha 5 dan derajat kebebasan
df ≥ 20, kemudian dibandingkan t
tabel
dengan t
hitung
untuk menguji signifikansi pengaruh. Apabila nilai t
hitung
t
tabel
, maka H ditolak.
2. Uji F uji secara serentak Uji F dilakukan untuk melihat seberapa besar pengaruh variabel independen
secara bersama-sama terhadap variabel dependen. Bentuk pengujiannya adalah:
• H : b
1
= b
2
= 0 artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara bersama-sama tidak mempunyai pengaruh terhadap harga
saham pada perusahaan perbankan yang terdaftar di BEI. • Ha : b
1
≠ b
2
≠ 0 artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara bersama-sama mempunyai pengaruh terhadap harga saham
pada perusahaan perbankan yang terdaftar di BEI. Pengujian signifikansi dilakukan dengan mengamati F
hitung
pada nilai signifikan alpha 5. Apabila nilai F
hitung
lebih besar daripada F
tabel
, maka H ditolak.
Universitas Sumatera Utara
46
BAB IV HASIL PENELITIAN DAN PEMBAHASAN