Pengujian Hipotesis Metode Analisis Data

33 X 5 = penggunaan uap kg X 6 = Suplai listrik kwh U = unsur galat Dalam menyelesaikan atau menduga koefisien dari fungsi produksi tersebut maka salah satu metode yang dapat digunakan adalah metode kuadrat terkecil OLS = Ordinary Least Square. Sebelum dilakukan analisis lanjutan, maka harus dilakukan pemilihan fungsi produksi Cobb-Douglas terbaik, yang sesuai untuk data produksi yang tersedia. Selanjutnya persamaan regresi tersebut dianalisis untuk memperoleh nilai t-hitung, P-value, F-hitung dan R 2 . Pengujian- pengujian yang dilakukan dalam hal ini adalah pengujian model penduga dan pengujian terhadap parameter regresi.

4.3.2 Pengujian Hipotesis

1. Pengujian asumsi OLS Ordinary Least Square Pemilihan model tersebut antara lain didasarkan pada asumsi OLS. Asumsi pertama dari model regresi adalah suatu model dikatakan baik jika memenuhi asumsi normalitas. Normalitas menunjukkan bahwa residu atau sisa diasumsikan mengikuti distribusi normal. Uji ini digunakan untuk mengetahui apakah residual dalam model menyebar normal. Untuk mengetahuinya dilakukan uji Kolmogorov- Smirnov KS dengan menggunakan α sebesar 0,05. Jika nilai KS KS 1- α atau jika nilai statistik Kolmogorov-Smirnov dikonversi ke dalam p-value maka daerah penolakannya adalah p-value hitung p-value 1- α . Satu asumsi penting dari model regresi linier adalah bahwa gangguan disturbunsi yang muncul dalam fungsi regresi populasi adalah homoskedastik, yaitu semua gangguan tersebut mempunyai varian yang tetap Setiawan, Kusrini DE.2010. Pelanggaran dari asumsi ini adalah heteroskedastisitas. Salah satu cara untuk mendeteksi adanya heteroskedastisitas adalah dengan White Heteroskedasticity Test. Selain itu suatu fungsi dikatakan baik apabila telah memenuhi asumsi OLS yang lain, yaitu tidak terdapat gejala autokorelasi. Autokorelasi dapat didefinisikan sebagai korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu seperti dalam data time series atau ruang seperti dalam data cross-sectional Gujarati, 1997. Salah satu metode yang dapat digunakan 34 untuk menguji gejala autokorelasi tersebut adalah dengan menggunakan Uji Durbin-Watson yang dapat diperoleh dari pengolahan data dengan menggunakan program Minitab 14. Nilai statistik hitung Durbin Watson akan dibandingkan dengan batas atas dan batas bawah. Kaidah keputusannya adalah sebagai berikut: • Jika d dlow maka terdapat autokorelasi positif • Jika d 4- dlow maka terdapat autokorelasi negatif • Jika dlow d dup atau 4-dup d 4-dlow maka tidak dapat disimpulkan • Jika dup d 4-dup berarti tidak terdapat autokorelasi Asumsi OLS lain yang harus terpenuhi adalah bahwa tidak terdapat gejala multikolinearitas di dalam fungsi. Multikolinier variabel independent adalah kondisi dimana terdapat hubungan linier diantara variabel independent. Ada beragam penyebab multikolinier, diantaranya disebabkan adanya kecendrungan variabel-variabel yang bergerak secara bersamaan. Adanya multikolinier menyebabkan ragam variabel menjadi sangat besar, sehingga koefisien regresi dugaan tidak stabil dan berimplikasi pada besar dan arah koefisien variabel menjadi tidak valid untuk diinterpretasi. Adanya multikolinier dapat dilihat pada nilah Variance Inflation Factor VIF 10. Jika terjadi masalah multikolinier maka harus diperbaiki terlebih dahulu dengan menambah observasi, mengeluarkan variabel independent yang berkolerasi kuat. Selain itu, multikolinieritas bisa juga diatasi dengan menggunakan analisis komponen utama Principal Component Analisys PCA. Analisis regresi komponen utama merupakan suatu analisis kombinasi antara analisis regresi dengan analisis komponen utama. Analisis regresi komponen utama ditetapkan bila dalam pembentukan model pendugaan peubah bebas yang digunakan banyak dan terdapat hubungan yang erat antar peubah bebasnya. Untuk teknis penghitungannya dapat dilihat pada Lampiran 9. Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan mereduksi dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen- 35 komponen tersebut menjadi variabel bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas Y dengan menggunakan analisis regresi. Tahapan prosedur penyelesaian PCA yang diringkas dari Nurfitriani, 2011; Putra, 2007; Endartrianti, 2011 yaitu: tahap awal yang dilakukan pada regresi komponen utama yaitu jika matriks variabel asal dilambangkan X nxm , satuan variabel asal tidak sama, maka variabel asal perlu ditransformasikan menjadi vektor baku Z nxm yang dirumuskan sebagai berikut: Dimana: Z ij = unsur matriks Z baris ke-i dan kolom ke-j X ij = unsur matriks X baris ke- i dan kolom ke-j X j = rataan parameter X j S j = simpangan baku parameter X j Selanjutnya matriks baku ini ditransformasikan menjadi matriks skor komponen utama SK. Peubah bebas pada regresi komponen utama merupakan kombinasi linier dari peubah asal Z Z adalah hasil pembakuan dari peubah X, yang disebut sebagai komponen utama. Komponen utama ke- j dapat dinyatakan dalam bentuk persamaan berikut: Wj = a 1j Z1 + a 2j Z2 + … + a pj Zp …………………………..……4.1 dimana W merupakan komponen utama hasil reduksi dan aj merupakan koefisien. Di antara Wj saling orthogonal bebas satu sama lainnya. Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen W yang lain menjelaskan proposi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan. Biasanya tidak semua W digunakan, sebagian ahli menganjurkan agar memilih komponen utama yang akar cirinya lebih dari satu, keragaman data yang dapat diterangkan oleh komponen utama tersebut kecil sekali. Selanjutnya komponen utama Wj yang terpilih diregresikan dengan dengan Y. Persamaan regresi yang di dapat kemudian kemudian di tranformasi balik ke peubah Z, dapat diperoleh: 36 Y = c + c 1 Z1 + c 2 Z2 + … +c p Zp ………………….………………………..4.2 Kemudian ditransformasi lagi ke peubah asli yaitu peubah X. Sehingga, Y = b + b 1 X 1 + b 2 X 2 + …+ b p X p ……………………………….…………..4.3 2. Pengujian terhadap parameter model Uji F Tujuan pengujian ini adalah untuk mengetahui apakah model penduga yang diajukan sudah tepat untuk menduga parameter dan fungsi produksi. Hipotesis: H : b1 = b2 = ..... = b6 = 0 H 1 : Setidaknya ada satu bi ≠ 0 Uji statistik yang digunakan adalah uji F Dimana: R 2 = Koefisien determinasi k = Jumlah parameter n = Jumlah pengamatan contoh Kriteria Uji: F-hitung F-Tabel k-1,n-k  Tolak H F-hitung F-Tabel k-1,n-k  Terima H Jika H ditolak berarti paling sedikit ada satu peubah bebas X yang digunakan berpengaruh sighifikan terhadap peubah tak bebas. Apabila H ditolak, maka garis regresi linier berganda yang bersangkutan dapat digunakan untuk memperkirakanmeramalkan peubah tak bebas Y. Sebaliknya jika H diterima berarti tidak ada peubah bebas yang digunakan yang berpengaruh signifikan 37 terhadap peubah tak bebas. Apabila H diterima maka garis linier regresi linier berganda yang bersangkutan tidak dapat digunakan untuk memperkirakan meramalkan Y. Untuk melihat sejauh mana variasi peubah tak bebas Y dijelaskan oleh peubah bebas Xi dapat dilihat dari besarnya nilai koefisien determinasi R 2 . Koefisien determinasi dapat dirumuskan sebagai berikut: Dimana: SST = Jumlah kuadrat total SSE = Jumlah kuadrat galateror SSR = Jumlah kuadrat regresi Nilai R 2 bergerak antara nol sampai dengan satu atau dalam notasi matematis ditulis sebagai 0 ≤ R 2 ≤1. Jika R 2 sama dengan satu berarti bahwa sumbangan peubah bebas secara bersama-sama terhadap variasi peubah tak bebas adalah seratus persen. Hal ini berarti bahwa seluruh variasi pada peubah tak bebas dijelaskan oleh model. 3. Pengujian parameter variabel Uji t Tujuan pengujian ini adalah untuk mengetahui apakah setiap peubah bebas berpengaruh nyata terhadap peubah tak bebas. Hipotesa : H0 : bi = 0 H1 : bi 0 ; i = 1,2,3,…..,5 Uji statistik yang digunakan adalah uji-t: Dimana: bi = Koefisien regresi ke-i yang diduga Sbi = Standar deviasi koefisien regresi ke-i yang diduga Kriteria uji: t-hitung t- tabel α2, n-k  Terima H 38 t-hitung t- tabel α2, n-k  Tolak H Jika H ditolak, artinya peubah Xi berpengaruh signifikan terhadap peubah tak bebas Y. Sebaliknya, jika H diterima maka peubah bebas Xi tidak berpengaruh nyata terhadap peubah tak bebas Y.

4.3.3 Pengukuran Variabel