Rancangan Analisis

E. Rancangan Analisis

1. Uji statistik deskriptif

Menurut Sugiyono (2009), statistik deskriptif adalah statistik yang berfungsi untuk mendeskripsikan atau memberi gambaran terhadap obyek yang diteliti melalui data sampel atau populasi sebagaimana adanya, tanpa melakukan analisis dan membuat kesimpulan yang berlaku untuk umum.

Pada statistik deskriptif ini, akan dikemukakan cara-cara penyajian data, dengan tabel biasa maupun distribusi frekuensi; grafik garis maupun batang; diagram lingkaran; pictogram; penjelasan kelompok melalui modus, median, mean, dan variasi kelompok melalui rentang dan simpangan baku (hlm 29).

2. Uji normalitas

Menurut Ghozali (2011:160), uji normalitas bertujuan untuk menguji apakah dalam modal regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistik.

a. Analisis Grafik Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk garis lurus diagonal, dan ploting data residual a. Analisis Grafik Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk garis lurus diagonal, dan ploting data residual

Pada prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dari grafik atau dengan melihat histogram dari residualnya. Dasar pengambilan keputusan:

Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas.

Jika data menyebar jauh dari diagonal atau tidak mengikuti arah garis diagonal atau garis histogram tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.

b. Analisis Statistik Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual kelihatan normal, padahal secara statistik bisa sebaliknya. Oleh sebab itu dianjurkan disamping uji grafik dilengkapi dengan uji statistik. Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan skewness dari residual. Nilai z statistik untuk skewness dapat dihitung dengan rumus:

Zskewness = Skewness

6/N

Sedangkan nilai z kurtosis dapat dihitung dengan rumus:

Zkurtosis = Kurtosis

24/N

Dimana N adalah jumlah sampel, jika nilai Z hitung > Z tabel, maka distribusi tidak normal.

Uji statistik lain yang dapat digunakan untuk menguji normalitas data adalah uji statistik non-parametrik. Kolmogorov- Smirnov (K - S). uji K-S dilakukan dengan membuat hipotesis:

H 0 = data residual berdistribusi normal

H a = data residual tidak berdistribusi normal

3. Uji asumsi klasik

a. Uji multikolonieritas

Menurut Ghozali (2011:105), Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independent). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka variabel- variabel ini tidak ortogonal. Variabel ortogonal adalah variabel Menurut Ghozali (2011:105), Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independent). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka variabel- variabel ini tidak ortogonal. Variabel ortogonal adalah variabel

Nilai R 2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-

variabel independen banyak yang tidak signifikan mempengaruhi variabel dependen.

Menganalisis matrik korelasi variabel-variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya di atas 0.90), maka hal ini merupakan indikasi adanya multikolonieritas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolonieritas. Multikolonieritas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.

Multikolonieritas dapat juga dilihat dari (1) nilai tolerance dan lawannya (2) variance inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih Multikolonieritas dapat juga dilihat dari (1) nilai tolerance dan lawannya (2) variance inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih

b. Uji heteroskedastisitas

Menurut Ghozali (2011:139), uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas

berbeda disebut heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi heteroskedastisitas. Kebanyakan data cross section mengandung situasi heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran (kecil, sedang, dan besar).

dan

jika

Dasar analisis:

1. Jika pola tertentu, seperti titik-titik yang ada pola tertentu yang

melebar kemudian menyempit),

teratur

(bergelombang,

maka mengindikasikan telah terjadi heteroskedastisitas.

2. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas (hlm 105).

c. Uji autokorelasi

Menurut Ghozali (2011:110), uji autokorelasi bertujuan menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu (time series) karena “gangguan” pada seseorang individu/kelompok cenderung mempengaruhi “gangguan” pada individu/kelompok yang sama

pada periode berikutnya. Pada data cross section (silang waktu), masalah autokorelasi relatif jarang terjadi karena “gangguan” pada

observasi yang berbeda berasal dari individu. Kelompok yang berbeda. Model regresi yang baik adalah regresi yang bebas dari autokorelasi.

Cara yang dapat digunakan untuk mendeteksi ada atau tidaknya autokorelasi adalah dengan Uji Durbin Watson.

Uji Durbin Watson hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lagi di antara variabel independen. Hipotesis yang akan diuji adalah:

H 0 : tidak ada autokorelasi (r = 0)

H a : ada autokorelasi (r 0 ) Pengambilan keputusan ada tidaknya autokorelasi:

Tabel 3.1

Keputusan autokorelasi

Hipotesis nol

Keputusan

Jika

tidak ada autokorelasi positif

0 < d < dl tidak ada autokorelasi positif

Tolak

dl < d < du tidak ada korelasi negatif

No decision

4 - dl < d <4 tidak ad korelasi negatif

Tolak

4 - du < d < 4 – du tidak ada autokorelasi , positif atau negatif

No decision

du < d < 4 – du Sumber : Ghozali, Imam (2011:111)

tidak ditolak

4. Model analisis data

a. Analisis regresi linier berganda

Menurut Sugiyono (2009), analisa regresi ganda digunakan bila peneliti bermaksud meramalkan bagaimana keadaan (naik Menurut Sugiyono (2009), analisa regresi ganda digunakan bila peneliti bermaksud meramalkan bagaimana keadaan (naik

Analisa ini digunakan untuk mengetahui bagaimana variabel terikat (Y) yaitu Harga saham dapat diprediksikan melalui variabel bebas yaitu Current ratio (X 1 ), Net profit margin (X 2 ), Total debt to total assets ratio(X 3 ), Total assets turnover (X 4 ), Earning per share (X 5 ), dan Price earning ratio (X 6 ) secara individual. Didalam penelitian ini terdapat enam (6) variabel bebas dengan satu variabel terikat yang diduga tidak mempunyai hubungan interaktif (saling mempengaruhi) antara variabel-variabel tersebut. jadi analisis regresi ganda akan dilakukan bila jumlah variabel independennya minimal 2.

Persamaan regresi untuk n prediktor adalah :

Y=a+b 1 X 1 +b 2 X 2 +...+b n X n +

Rumus korelasi ganda 6 prediktor:

Ry = b 1 ∑X 1 Y+ b 2 ∑X 2 Y+b 3 ∑X 3 Y+b 4 ∑X 4 Y+b 5 ∑X 5 Y+b 6 ∑X 6 Y

∑Y 2

Nilai a, b 1 ,b 2 ,b 3 ,b 4 ,b 5 ,b 6 diperoleh dengan rumus:

a = harga Y bila X = 0 (harga konstan)

b = angka arah atau koefisien regresi

X 1 = Current ratio

X 2 = Net profit margin

X 3 = Total debt to total assets

X 4 = Total assets turnover

X 5 = Earning per share

X 6 = Price earning ratio

Y = Harga Saham

e = variabel penggangu

b. Analisis koefisien determinasi berganda

Koefisien determinasi (R²) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah antara nol dan satu. Nilai R² yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen. Secara umum koefisien determinasi untuk data silang (cross section) relatif rendah karena adanya variasi yang besar antara masing-masing pengamatan, sedangkan untuk data runtun waktu (time series) biasanya mempunyai nilai koefisien determinasi yang tinggi.

Kelemahan mendasar penggunaan koefisien determinasi adalah bias terhadap jumlah variabel independen yang dimasukkan kedalam model. Setiap tambahan satu variabel

independen, maka R 2 pasti meningkat tidak peduli apakah variabel tersebut berpengaruh secara signifikan terhadap

variabel dependen. Oleh karena itu banyak peneliti yang menganjurkan untuk menggunakan nilai Adjusted R 2 pada saat mengevaluasi mana model regresi terbaik. Tidak seperti R 2 , nilai Adjusted R 2 dapat naik atau turun apabila satu variabel

independen ditambahkan kedalam model (Ghozali, 2011:97).

KD = r² X 100%

Keterangan: KD = Koefisien determinasi r² = koefisien korelasi antar variabel X dan variabel Y

5. Uji Hipotesis

a. Uji Signifikan Parameter individual (uji Statistik t)

Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh suatu variabel penjelas/independen secara individual dalam menerangkan variasi variabel independen (Ghozali, 2011:98)

t hitung dapat dicari dengan rumus:

r√n–2

t hitung = √ 1 - r²

Keterangan:

r = koefisien korelasi

n = jumlah sampel

Kriteria pengujian :

1). Bila nilai t hitung > t tabel, maka H o ditolak dan H a

diterima

2). Bila nilai t hitung < t tabel, maka H o diterima dan H a

diterima.

b. Uji statistik F

Uji simultan dimaksudkan untuk mengetahui apakah semua variabel bebas mempunyai pengaruh yang sama terhadap variabel terikat. Pengujian yang dilakukan menggunakan Uji F. jika F hitung > F tabel maka menolak hipotesis nol (H o ) dan

menerima hipotesis alternatif (H a ), yang berarti semua variabel bebas secara bersama-sama memiliki pengaruh terhadap variabel terikat. F hitung dapat dicari dengan rumus :

F hitung =

Keterangan :

r = Koefisien Korelasi r = Koefisien Korelasi

Kriteria pengujian :

1). Bila nilai F hitung > F tabel, maka H o ditolak dan H a

diterima.

2). Bila F hitung < F tabel, maka H o diterima dan H a ditolak.

3). Bila nilai Sig F < 0.05 berarti variabel independen berpengaruh secara signifikan terhadap variabel dependen.

4). Bila nilai Sig F > 0.05 berarti variabel independen tidak berpengaruh secara signifikan terhadap variabel dependen.