Analisis Regresi Berganda METODE PENELITIAN 4.1.

4.5. Analisis Regresi Berganda

Berdasarkan kerangka teori dan studi terdahulu, maka model dugaan ekspor jagung Indonesia sebelum terjadinya krisis ekonomi adalah, sebagai berikut : Y t = b +b 1 X1 t +b 2 X2 t +b 3 X3 t +b 4 X4 t-1 +b 5 X5 t +b 6 X6 t +b 7 X7 t + ε t Di mana : Y t = volume ekspor jagung Indonesia di pasar Malaysia ton X1 = volume produksi jagung Indonesia ton X2 = harga domestik jagung Rpton X3 = harga ekspor jagung Indonesia US ton X4 = volume ekspor jagung periode sebelumnya ton X5 = volume impor jagung Indonesia ton X6 = nilai tukar rupiah RpUS X7 = laju perkembangan inflasi di Indonesia persentase b = intercept bi, b 2 , ... , b 6 = koefisien regresi 1, 2, 3, ... ε t = error Setelah terjadinya krisis ekonomi, maka model yang digunakan adalah sebagai berikut: Y t = b +b 1 X1 t +b 2 X2 t +b 3 X3 t +b 4 X4 t-1 +b 5 X5 t +b 6 X6 t +b 7 X7 t +B 8 X8 t + ε t Dimana : Y t = volume ekspor jagung Indonesia di pasar Malaysia ton X1 = volume produksi jagung Indonesia ton X2 = harga domestik jagung Rpton X3 = harga ekspor jagung Indonesia US ton X4 = volume ekspor jagung periode sebelumnya ton X5 = volume impor jagung Indonesia ton X6 = nilai tukar rupiah RpUS X7 = laju perkembangan inflasi di Indonesia persentase b = intercept bi, b 2 , ... , b 6 = koefisien regresi 1, 2, 3, ... DM t = Dummy 0 dalam kondisi sebelum diterapkannya liberalisasi perdagangan AFTA dan 1 sesudah diterapkannya liberalisasi perdagangan AFTA ε t = error Model yang digunakan dalam analisis data adalah model regresi linier berganda. Validasi model dilakukan melalui uji-t, uji-F, uji autokorelasi, heteroscedasticity, dan multikolinearitas. Model kuantitatif dengan persamaan regresi linier berganda yang diolah dengan program Minitab 15, digunakan untuk menganalisis faktor-faktor yang mempengaruhi ekspor jagung Indonesia ke Malaysia. Pendugaan model tersebut dilakukan dengan menggunakan Metode Kuadrat Terkecil Biasa Ordinary Least Square yang didasarkan asumsi-asumsi, sebagai berikut Gujarati, 1997 : 1. Nilai rata-rata kesalahan penganggu sama dengan nol, yaitu E ε i = 0, untuk I = 1,2,3,…, n. 2. Varian ε i = E ε j = δ 2 , sama halnya untuk semua kesalahan penggangu asumsi homoskedastis. 3. Tidak ada autokorelasi antara kesalahan pengganggu, berarti kovarian ε i ≠ε j = 0, i tidak sama dengan j. 4. Variabel bebas X 1 , X 2 , X 3 , …, X n , konstan dalam sampling yang terulang repeated sampling dan bebas terhadap kesalahan pengganggu ε i . 5. Tidak ada koleniaritas ganda multikolonearitas diantara variabel bebas X. Dengan beberapa asumsi yang telah dikemukakan di atas, maka dapat diketahui bahwa dugaan koefisien regresi yang diperoleh dengan menggunakan metode kuadrat terkecil biasa merupakan pemerkira linear terbaik tak bias BLUE = Best Linear Unbiased Estimator. Cara mendeteksi adanya pelanggaran asumsi- asumsi ini adalah sebagai berikut : a Autokorelasi Autokorelasi didefinisikan sebagai korelasi linier antara anggota serangkaian observasi yang diurutkan berdasarkan waktu dan ruang. Cara yang paling umum mendeteksi adanya autokorelasi adalah dengan menggunakan uji Durbin-Watson DW dari hasil regresi, yang akan menghasilkan nilai statisktik d. Adapun kriteria ujinya, adalah sebagai berikut : d d L ; d d U : autokorelasi d L ≤ d ≤ d U : tidak diketahui d U ≤ d ≤ 4- d U : tidak ada autokorelasi b Heteroskedastisitas Heteroskedastisitas merupakan suatu kondisi dimana nilai ragam error term pada variabel bebas tidak memiliki nilai yang sama untuk setiap observasi Nachrowi dan Usman, 2002. Jika faktor pengganggu pada model tidak memiliki varian yang konstan, maka diduga model mengalami masalah heteroskedastisitas. Selain itu, dapat pula dideteksi dengan membandingkan sum square residual pada weighted statistic dengan sum square residual unweighted statistic. Jika sum square residual pada weighted statistic lebih kecil dibandingkan dengan sum square residual unweighted statistic, maka dapat disimpulkan terjadi heteroskedastisitas. Bila pada suatu persamaan terjadi heteroskedastisitas, maka hal tersebut akan berakibat: 1. Hasil estimasi tidak akan memiliki varians yang minimum atau estimator tidak efisien. 2. Estimasi dengan estimator dari data yang sebenarnya akan mempunyai varians yang tinggi, sehingga prediksi menjadi tidak efisien. 3. Tidak dapat diterapkannya uji nyata koefisien atau selang kepercayaan dengan menggunakan rumus yang berkaitan dengan nilai variansnya. Pengujian untuk mendeteksi gejala heteroskedastisitas dengan menggunakan uji White Heteroskedasticity. Kriteria uji yang digunakan, adalah: 1. Jika nilai probabilitas pada ObsR-Squared nilai critical value α yang digunakan, maka terima H yang berarti pada persamaan tidak terjadi heteroskedastisitas. 2. Jika nilai probabilitas pada ObsR-Squared nilai critical value α yang digunakan, maka tolak H yang berarti pada persamaan terjadi heteroskedastisitas. c Multikolinearitas Merupakan sebuah kejadian dimana terdapat korelasi linier majemuk yang tinggi antar variabel-variabel bebas. Kejadian ini dapat dideteksi dengan melihat : 1. Jika R 2 besar tetapi tidak ada satupun penduga koefisien variabel bebas yang nyata berbeda dari nol, maka terdapat multikolinearitas. 2. Dengan melihat nilai output dari Variance Inflation Faktor VIF yang dihasilkan dari hasil pengolahan data, dimana apabila nilai VIF-nya dibawah 10 berarti tidak terjadi multikolinearitas. Dimana : R 2 xj = koefisien determinasi dari persamaan prediktor ke-j, merupakan fungsi dari prediktor lainnya. Ada banyak cara dan pendekatan yang dilakukan untuk mengatasi masalah multikolinearitas, seperti i membuang peubah bebas yang mempunyai multikolinearitas tinggi terhadap peubah bebas lainnya, ii menambah data pengamatan, dan iii melakukan transformasi terhadap peubah-peubah bebas yang mempunyai koliearitas atau menggabungkan menjadi peubah-peubah bebas baru yang mempunyai arti. Cara lain yang digunakan adalah dengan menggunakan regresi gulud Ridge Regression, regresi kuadrat terkecil parsial Partial Least Square, dan analisis komponen utama Principal Component Analysis. Berdasarkan uraian di atas, maka dalam penelitian ini untuk mengatasi masalah multikolinearitas dengan menggunakan Principal Component Analysis PCA. Principal Component Analysis PCA merupakan teknik analisis multivariabel menggunakan banyak variabel yang dilakukan untuk tujuan ortogonalisasi dan penyederhanaan variabel. Analisis ini merupakan teknik statistik yang mentransformasikan secara linier satu set variabel ke dalam variabel baru dengan ukuran lebih kecil, namun representatif dan tidak saling berkorelasi ortogonal. PCA sering digunakan sebagai analisis antara maupun analisis akhir. Sebagai analisis antara, PCA bermanfaat mereduksi variabel yang berukuran besar ke dalam variabel baru yang berukuran sederhana. Sedangkan untuk analisisi akhir, PCA umumnya digunakan untuk mengelompokkan variabel-variabel penting dari suatu bundel variabel bebas untuk menduga suatu fenomena memahami struktur dan melihat hubungan antar variabel. Pada dasarnya PCA adalah analisis yang mentransformasikan data sejumlah p ke dalam struktur data baru sejumlah k dengan jumlah k p. Perhitungan dengan PCA memerlukan beberapa pertimbangan yang sekaligus menggambarkan adanya kendala dan tujuan yang ingin dicapai dari hasil analisis PCA. Di dalam PCA akan dihitung vektor pembobot yang secara matematis ditunjukkan untuk memaksimumkan keragaman dari kelompok variabel baru, yang sebenarnya merupakan fungsi linear, peubah asal, atau memaksimumkan jumlah kuadrat korelasi antar PCA dengan variabel asal Juliani dalam Rosita, 2008. Persamaan umum dari PCA adalah sebagai berikut Jollife dalam Rosita, 2008: α ’ k χ = α 1k χ k +…+ α 1k-1 χ k-1 = x adalah variabel asal, α adalah vector pembobot dan α ’ k χ adalah komponen utama. Hasil analisis komponen utama antara lain nilai akar eigen value, proporsi dan kumulatif akar ciri, nilai pembobot eigen vector atau sering disebut sebagai PC loading, loading serta component scores. Vektor pembobot merupakan parameter yang menggambarkan peran hubungan setiap variabel dengan komponen utama ke-i. Untuk loading menggambarkan besarnya korelasi antara variabel asal dengan komponen utama ke-i. Nilai loading diperoleh dengan persamaan: r i = i √ λ 1 ……………………………… dimana r i menggambarkan besarnya korelasi antara variabel asal dengan komponen utama k-i, merupakan nilai pembobot utama k-i, dan λ 1 adalah menentukan banyaknya komponen yang diinterpretasikan. Kriteria tersebut adalah nilai akar ciri lebih besar sama dengan satu, karena akan memberikan informasi dengan baik mengenai variabel asal. Seperti yang diketahui sebelumnya bahwa salah satu kelemahan fungsi produksi Cobb Douglas saat diduga dengan OLS adalah adanya masalah multikolinearitas. Salah satu metode yang dapat digunakan untuk mengatasi masalah tersebut adalah menggunakan metode komponen utama, sehingga masalah multikolineaaritas tidak akan mempengaruhi model regresi ini. Misalkan matrik variabel asal dilambangkan X nxp jika satuan variabel asal tidak sama, maka variabel asal perlu ditransformasikan menjadi vector baku Z nxp , yang dirumuskan sebagai berikut: Z ij = Dimana: Z ij = unsur matrik Z baris ke-i dan kolom ke-j X ij = unsur matrik X baris ke-i dan kolom ke-j X j = rataan variabel ke-j S j = simpangan baku variabel ke-j Sehingga persamaan regresi liniernya dirumuskan, sebagai berikut: Y = Z α + e Dimana: Y = vektor baris variabel tak bebas yang berukuran nx1 Z = matrik variabel bebas yang berukuran nxp α = vektor baris yang merupakan koefisien regresi, yaitu α 1 , α 2 , ….., α p e = vektor galat yang berukuran nx1 Selanjutnya matrik baku Z ini ditransformasikan menjadi matrik skor komponen utama K dengan persamaan K=ZA, dimana matrik A adalah matrik yang kolom-kolomnya merupakan vektor ciri dari matrik Z’Z. Skor komponen ini selanjutnya diregresikan dengan variabel tak bebas dengan menggunakan analisis regresi linier. Model regresi komponen utama dapat dirumuskan, sebagai berikut: Y = Kγ + e atau Y = ZAγ + e γ merupakan vektor koefisien komponen utama yang terdiri dari γ , γ 1 , γ 2 ,…., γ m dan m≤p, sehingga diperoleh hubungan α = AY dan var α = A var γ A’. Sedangkan untuk menduga koefisien regresi asal βj, maka dilakukan transformasi dengan persamaan βj = α jSj dengan var βj = var α jSj2, j = 1, 2, …, p.

4.6. Uji Hipotesis dan Perumusan Model