Metode Analisis Data

3.5 Metode Analisis Data

3.5.1 Pengujian Asumsi Klasik

Pengujian asumsi klasik merupakan syarat utama untuk menilai apakah persamaan regresi yang digunakan sudah memenuhi syarat BLUE (best linear Pengujian asumsi klasik merupakan syarat utama untuk menilai apakah persamaan regresi yang digunakan sudah memenuhi syarat BLUE (best linear

3.5.1.1 Uji Normalitas

Tujuan uji normalitas adalah untuk menguji apakah dalam model regresi, variabel terikat (dependent variable) dan variabel bebas (independent variable). Dan diantara variabel terikat dan variabel bebas mempunyai distribusi normal atau mendekati normal. Model regresi yang memiliki distribusi data yang normal atau mendekati normal dikatakan model regresi yang baik (Imam Ghozali, 2009).

Normalitas suatu data dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dari grafik atau melihat dari grafik histograf dari nilai residualnya. Dasar pengambilan keputusan adalah sebagai berikut :

1. Jika data menyebar sekitar garis diagonal dan mengikuti arah histograf menuju pola distribusi normal, maka model regresi tersebut memenuhi asumsi klasik.

2. Jika data menyebar jauh dari garis diagonal dan atau tidak mengikuti garis diagonal atau histograf, tidak menunjukkan alpha distribusi normal, maka model regresi tersebut tidak memenuhi asumsi normalitas. Teknik yang digunakan uji asumsi normalitas ini adalah One Sample

Kolmogorov-Smirnov Test. Dengan menguji statistik non-parametik Kolmogrov-

Smirnov (K-S) terhadap nilai residual persamaan regresi, dengan hipotesis pada tingkat signifikan 0,05.

Dimana :

H 0 :p ≥ 0,05 data residual berdistribusi normal

H 1 : p < 0,05 data residual tidak berdistribusi normal

3.5.1.2 Uji Multikolonieritas

Uji Multikolonieritas adalah variabel dependen yang ada dalam model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien korelasinya tinggi bahkan sama dengan satu) untuk mendeteksi adanya multikolonieritas dapat dilihat matrik korelasi antara variabel independen. Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen sama dengan nol (Imam Ghozali, 2009). Deteksi adanya multikolonieritas dapat dilakukan dengan melihat nilai variance inflation factor (VIF) atau tolerance value. Batas dari tolerance factor (VIF) adalah 0,10 dan batas VIF adalah 10. Apabila hasil analisis menunjukkan nilai VIF dibawah 10 dan tolerance value diatas 0,10 maka tidak terjadi multikolonieritas, sehingga model reliable sebagai dasar analisis.

3.5.1.3 Uji Autokorelasi

Uji autokorelasi bertujuan menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan Uji autokorelasi bertujuan menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan

Uji Durbin – Watson hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag di antara variabel independen. Hipotesis yang akan diuji adalah : Dimana :

H0 : tidak ada autokorelasi ( r = 0 ) HA : ada autokorelasi ( r ≠ 0)

Tabel 3.3 Pengambilan keputusan ada tidaknya autokorelasi

Jika Tidak ada autokorelasi positif

Hipotesis nol

Keputusan

0 < d < dl Tidak ada autokorelasi positif

Tolak

dl ≤ d ≤ du Tidak ada korelasi negatif

Tidak ada keputusan

4 – dl < d < 4 Tidak ada korelasi negatif

Tolak

4 – du ≤ d ≤ 4 – dl Tidak ada autokorelasi,

Tidak ada keputusan

du < d < 4 - du Positif atau negatif

Tidak ditolak

3.5.1.4 Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan

Dasar analisis ada atau tidaknya gejala heteroskedastisitas adalah dengan melihat ada tidaknya pola tertentu pada grafik scatterplot di sekitar nilai X dan Y adalah (Imam Ghozali, 2009) :

1. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas.

2. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

3.5.2 Analisis Regresi

Analisis regresi pada dasarnya adalah studi mengenai ketergantungan variabel dependen (terikat) dengan satu atau lebih variabel independen (variabel bebas), dengan tujuan untuk mengestimasi dan/atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen berdasarkan nilai variabel independen yang diketahui (Gujarati, 2003).

Penelitian ini menggunakan teknik analisis data dengan metode analisis Regresi Linear Berganda (Multiple Linear Regression). Analisis ini secara matematis ditulis dengan persamaan sebagai berikut :

UP = α + β 1 X 1 + β 2 X 2 + β 3 X 3 + β 4 X 4 + β 5 X 5 + ε (3.3) Dimana : UP

= Underpricing hari pertama sebagai dependen variabel α = Konstanta

X 1 = Reputasi underwriter

X 2 = Reputasi Auditor

X 3 = Umur perusahaan

X 4 = Financial leverage

X 5 = Return on assets (ROA) β 1 = Koefisien regresi reputasi underwriter β 2 = Koefisien regresi reputasi auditor β 3 = Koefisien regresi umur perusahaan β 4 = Koefisien regresi financial leverage β 5 = Koefisien regresi return on assets (ROA) ε = error term

Analisis regresi berganda disamping untuk mengukur kekuatan hubungan antara dua variabel atau lebih juga menunjukkan arah hubungan antara variabel dependen dengan independen. Jadi analisis regresi berganda merupakan analisa untuk mengukur seberapa besar pengaruh variabel reputasi underwriter, reputasi auditor, umur perusahaan, financial leverage, dan return on assets (ROA) dengan tingkat underpricing pada perusahaan yang listing di Bursa Efek Indonesia.

Apabila koefisien β bernilai positif (+) maka terjadi pengaruh searah antara variabel independen dengan variabel dependen, demikian pula sebaliknya, bila Apabila koefisien β bernilai positif (+) maka terjadi pengaruh searah antara variabel independen dengan variabel dependen, demikian pula sebaliknya, bila

3.5.3 Teknik Pengujian Hipotesis

3.5.3.1 Interpretasi Koefisien Determinasi (R 2 )

Koefisien determinasi (R 2 ) pada dasarnya untuk mengetahui seberapa besar pengaruh variabel bebas (X) terhadap variabel terikat (Y). Nilai R 2 berkisar antara 0 sampai dengan 1, bila R 2 = 0 berarti tidak terdapat hubungan antara variabel bebas dengan variabel terikat, apabila R 2 = 1 berarti variabel bebas

memiliki hubungan yang sempurna terhadap variabel terikat.

3.5.3.2 Uji Statistik F

Uji statistik F pada dasarnya menunjukkan apakah ada pengaruh secara bersama-sama antara variabel terikat (Y) dengan variabel bebas (X), yaitu pengaruh variabel reputasi underwriter, reputasi auditor, umur perusahaan, financial leverage, dan return on assets (ROA) secara simultan terhadap underpricing.

F 2 hit = R /k (3.4) (1–R 2 )/(n–k–1)

Keterangan :

F hit = Nilai hitung R 2 = Koefisien korelasi berganda

k = Banyaknya variabel bebas n

= Banyaknya data = Banyaknya data

b. H 1 : βi ≠ 0, artinya terdapat pengaruh X 1 , X 2 , X 3 , X 4 , dan X 5 secara bersama- sama terhadap Y. Dasar pengambilan keputusan menggunakan angka signifikansi :

a. Apabila angka signifikansi ≥ 0,05 , maka H 0 diterima.

b. Apabila angka signifikansi < 0,05 , maka H 0 ditolak atau H 1 diterima.

3.5.3.3 Uji Statistik t

Uji statistik t pada dasarnya menunjukkan apakah ada pengaruh yang nyata secara parsial antara variabel terikat (Y) dengan variabel bebas (X). t 0 = KKP √ n – m

(3.5)

1 – √( KKP ) 2 Keterangan :

KKP = Koefisien korelasi parsial n

= Banyaknya data m

= Banyaknya variabel

a. H 0 : βi = 0, artinya tidak terdapat pengaruh X 1 ,X 2 ,X 3 ,X 4 , dan X 5 secara parsial terhadap Y.

b. H 1 : βi ≠ 0, artinya terdapat pengaruh X 1 , X 2 , X 3 , X 4 , dan X 5 secara parsial terhadap Y. Dasar pengambilan keputusan menggunakan angka signifikansi :

a. Apabila angka signifikansi ≥ 0,05 , maka H 0 diterima.

b. Apabila angka signifikansi < 0,05 , maka H 0 ditolak atau H 1 diterima.