Teknik Analisis dan Uji Hipotesis
Uji hipotesis yang akan dilakukan adalah secara simultan maupun secara parsial,yang masing-masing uji dilakukan untuk mengetahui pengaruh dari
variabel bebas 1 dan 2 terhadap Y baik secara simultan maupun secara
parsial. 1. Uji Simultan Fhitung
Uji F, yaitu untuk menguji pengaruh variabel bebas X secara bersama-sama atau simultan terhadap variabel dependen Y dengan
prosedur sebagai berikut : a.
Fhitung dapat dicari dengan rumus :
R ² k-1
Fhit = —————— …………………Sudrajat,1988:124 1-R
² n-k
Tingkat signifikasi
Dalam penelitian ini menggunakan tingkat signifikasi 0,05 - 5 dengan derajat bebas n-k k-1,di mana n jumlah sampel dan k = jumlah
variabel. b. Kriteria
hipotesis H0 :
1 = 2 = 3 =4 = 0,1,2,3,4 tidak berpengaruh terhadap Y H1 :
3 4 0,,3,4 berpengaruh terhadap Y Gambar 3 : Daerah kritis Ho melalui kurva distribusi F
Kaidah pengujian : 1. Apabila F hitung F table, maka H0 ditolak dan H1 diterima, artinya
secara simultan variabel bebas berpengaruh nyata terhadap variabel terikat.
2. Apabila F hitung F table, maka H0 diterima dan H1 ditolak, artinya secara simultan variabel bebas tidak berpengaruh nyata terhadap
variabel terikat. 2. Uji
Partial thituhg
Uji t digunakan untuk pengujian hipotesis penelitian pengaruh parsial variabel bebas terhadap variabel terikat,dengan prosedur sebagai
berikut : a. Nilai thitung dapat dicari dengan rumus sebagai berikut:
β1 t hitung = ———— ………………………. Sudrajat, 1988, 122
Se β1
Derajat kebebasan sebesar n – k – 1 Dimana :
β1 = Koefisien
regresi setiap variabel bebas
Se = Standart error
Daerah Penerimaan H Daerah Penolakan H
n = Jumlah sampel
k = Parameter
regresi Tingkat signifikan
Dalam peneltian ini menggunakan tingkat signifikansi 5= 0,05 .Derajat kebebasan sebesar n – k – 1 ,di mana n = jumlah sampel dan k =
jumlah variabel bebas.
b. Kriteria hipotesis H0 :
1 = 2 = 3 = 4 = 0,1,2,3,4 tidak berpengaruh terhadap Y
H1 : 1
≠ 2 ≠3 4 0,1,2,3,4 berpengaruh terhadap Y Gambar 4 : Daerah kritis Ho melalui kurva distribusi t
Ho diterima jika –t tabel t hitung t tabel
Ho ditolak jika t hitung t tabel dan t hitung t table
Dengan kriteria :
Daerah Penerimaan Ho
Daerah Penolakan Ho
Daerah Penolakan Ho
1. Apabila t hitung t tabel, maka H0 ditolak dan H1 diterima, berarti secara parsial ada pengaruh nyata variabel bebas terhadap variabel
terikat. 2. Apabila t hitung t tabel, maka H0 diterima dan H1 ditolak, berarti
secara parsial tidak ada pengaruh nyata variabel bebas terhadap variabel terikat.
3. Kriteria asumsi klasik BLUE Regresi linier berganda dengan persamaan:
Y = 0 + 11i + 22i + 33i + 44i + i ..Sudjana,1999:380
Persamaan regresi tersebut harus bersifat BLUE Best Linier Unbiased Estimator,artinya pengambilan keputusan melalui uji F dan
uji t tidak boleh bias. Sifat BLUE dapat dijelaskan sebagai berikut :
Best = Perhitungan sifat ini bila ditetapkan dalam uji signifikan
baku terhadap α dan β.
Linier = Sifat ini dibutuhkan untuk memudahkan dalam
penafsiran. Unbiased =Bila jumlah sampel sangat besar penafsiran parameter
diperoleh dari sampel besar kira-kira lebih mendekati parameter sebenarnya.
Estimasi = E diharapkan sekecil mungkin
Untuk mengetahui apakah model analisis tersebut cukup layak digunakan dalam pembuktian selanjutnya dan untuk mengetahui sampai
sejauh mana variabel bebas menjelaskan variabel terikat, maka perlu diketahui nilai R² koefisien determinasi dengan menggunakan rumus :
R² = JK regresi .......................................... Sudrajat, 1988 ; 120 JK total
Dimana : R²
= Koefisien
determinasi JK
= Jumlah kuadrat JK regresi
= b1 Sy1 X1i + b2 Sy2 Y2i …..+ bm JK total
= Y1² atau ∑Y ²
n
b1 ∑Y1 X1 + b2 ∑Y1 X2 + b3 ∑Y1 X3
R² = ______________________________
∑Y1² Keterangan :
Karakteristik utama R² adalah tidak mempunyai nilai negative, tidak berkisar antara 0 dan 1 R²
≤ 1. Untuk menghasilkan pengambilan keputusan yang BLUE maka
harus dipenuhi tiga asumsi dasar yang tidak boleh dilanggar oleh regresi linier berganda,yaitu:
1. Tidak ada multikolinieritas 2. Tidak ada autokorelasi
3. Tidak boleh ada heterokedastisitas Apabila salah satu dari ketiga asumsi dasar tersebut
dilanggar,maka persamaan regresi yang diperoleh tidak lagi bersifat BLUE,sehingga pengambilan keputusan melalui uji F dan uji t menjadi
bias.Di bawah ini akan dijelaskan masing-masing asumsi dasar dari BLUE,yaitu sebagai berikut
a. Autokorelasi,didefinisikan sebagai korelasi antara data observasi yang diurutkan berdasarkan urut waktu time seriees atau data yang
diambil pada waktu tertentu cross section. Jadi dalam model regresi linier berganda diasumsikan tidak
terdapat gejala autokorelasi.Artinya nilai residual Y observasi Y prediksi pada waktu ke t et tidak boleh ada hubungan dengan nilai
residual periode sebelumnya et-1.Identifikasi ada atau tidaknya gejala autokorelasi dapat di tes dengan menghitung nilai Durbin watson d-tes
dengan persamaan:
ⁿ t=2 et-et-1² d =
─────────
ⁿ t-1 et² Keterangan:
d = Nilai Durbin Watson
et = Residual pada waktu ke-t et-1 = Residual pada waktu ke t-1 atau periode sebelumnya
n = banyaknya data
Gambar 5 : Kurva Statistik Durbin Watson
Daerah Daerah Daerah Daerah Kritis Ketidak- Terima Ho Ketidak- Kritis
pastian pastian Tolak Tidak ada Tolak
Ho autokorelasi Ho 0 d
L
d
U
2 4-d
U
4-d
L
d
b. Multikolinieritas,artinya antara independent yang satu dengan yang lain dalam model regresi tidak saling berhubungan secara sempurna
atau mendekati sempurna. Diagnosis atau dugaan secara sederhana terhadap adanya
multikolinieritas di dalam model regresi adalah sebagai berikut: 1
Koefisien determinasi berganda r square tinggi 2 Koefisen korelasi sederhana tinggi
3 Nilai Fhitung tinggi signifikan 4 Sebagian besar
5 Atau bahkan seluruh koefisien regresi tidak signifikan
Algifari,1995 Dari diagnosis atau dugaan adanya multikolinieritas tersebut maka perlu
adanya pembuktian atau secara statistik ada atau tidaknya gejala multikolinieritas yang dilakukan dengan cara menghitung Variance
Inflation Faktor VIF,dengan rumus sebagai berikut:
VIF menyatakan tingkat pembengkakan variance,apabila VIF lebih besar dari 10 ini berarti terdapat multikolinieritas pada persamaan linier
Cyer,1994:681.Pembuktian dengan menghitung VIF ini tidak dapat diketahui dengan variabel bebas yang mana korelasi tersebut
terjadi.Sehingga dalam menganalisis ada tidaknya multikolinieritas peneliti juga akan membahas dengan korelasi matrik,yaitu
mengkorelasikan satu persatu antar variabel bebas.Adapun hasil yang diperoleh setelah dianalisis VIF adalah dibawah 10 sehingga persamaan
di atas tidak terjadi multikolinieritas. c. Heterokedastisitas,dalam analisis regresi untuk mendapatkan hasil
yang baik salah satu yang harus dipenuhi adalah hogenitas varians yang ditimbulkan oleh koefisien pengganggu e.Untuk mendeteksi
gejala heterokedastisitas dapat dibuat diagram pencar antara e² dengan Yi.Selain itu bisa diidentifikasi dengan cara menghitung
Rank Spearman antara residual dengan seluruh variabel bebas : di²
rs = 1- 6
NN²-1
Dimana : di = selisih ranking standart deviasi s dan ranking nilai mutlak error
n = banyaknya sampel
Apabila koefisien korelasi Rank Spearman untuk seluruh variabel bebasa terhadap residual lebih kecil dari 0,05 maka dapat
dikatakan bahwa dalam persamaan regresi terdapat heteroskedastisitas.
BAB IV
HASIL DAN PEMBAHASAN