4.5. Analisis Regresi Berganda
Berdasarkan kerangka teori dan studi terdahulu, maka model dugaan ekspor jagung Indonesia sebelum terjadinya krisis ekonomi adalah, sebagai
berikut : Y
t
= b +b
1
X1
t
+b
2
X2
t
+b
3
X3
t
+b
4
X4
t-1
+b
5
X5
t
+b
6
X6
t
+b
7
X7
t
+
ε
t
Di mana : Y
t
= volume ekspor jagung Indonesia di pasar Malaysia ton X1
= volume produksi jagung Indonesia ton X2
= harga domestik jagung Rpton X3
= harga ekspor jagung Indonesia US ton X4
= volume ekspor jagung periode sebelumnya ton X5
= volume impor jagung Indonesia ton X6
= nilai tukar rupiah RpUS X7
= laju perkembangan inflasi di Indonesia persentase b
= intercept bi, b
2
, ... , b
6
= koefisien regresi 1, 2, 3, ... ε
t
= error Setelah terjadinya krisis ekonomi, maka model yang digunakan adalah
sebagai berikut: Y
t
= b +b
1
X1
t
+b
2
X2
t
+b
3
X3
t
+b
4
X4
t-1
+b
5
X5
t
+b
6
X6
t
+b
7
X7
t
+B
8
X8
t
+
ε
t
Dimana : Y
t
= volume ekspor jagung Indonesia di pasar Malaysia ton X1
= volume produksi jagung Indonesia ton X2
= harga domestik jagung Rpton
X3 = harga ekspor jagung Indonesia US ton
X4 = volume ekspor jagung periode sebelumnya ton
X5 = volume impor jagung Indonesia ton
X6 = nilai tukar rupiah RpUS
X7 = laju perkembangan inflasi di Indonesia persentase
b = intercept
bi, b
2
, ... , b
6
= koefisien regresi 1, 2, 3, ... DM
t
= Dummy 0 dalam kondisi sebelum diterapkannya liberalisasi perdagangan AFTA dan 1 sesudah diterapkannya liberalisasi perdagangan AFTA
ε
t
= error Model yang digunakan dalam analisis data adalah model regresi linier
berganda. Validasi model dilakukan melalui uji-t, uji-F, uji autokorelasi, heteroscedasticity, dan multikolinearitas. Model kuantitatif dengan persamaan
regresi linier berganda yang diolah dengan program Minitab 15, digunakan untuk menganalisis faktor-faktor yang mempengaruhi ekspor jagung Indonesia ke
Malaysia. Pendugaan model tersebut dilakukan dengan menggunakan Metode Kuadrat Terkecil Biasa Ordinary Least Square yang didasarkan asumsi-asumsi,
sebagai berikut Gujarati, 1997 : 1.
Nilai rata-rata kesalahan penganggu sama dengan nol, yaitu E ε
i
= 0, untuk I = 1,2,3,…, n.
2. Varian ε
i
= E ε
j
= δ
2
, sama halnya untuk semua kesalahan penggangu asumsi homoskedastis.
3. Tidak ada autokorelasi antara kesalahan pengganggu, berarti kovarian ε
i
≠ε
j
= 0, i tidak sama dengan j.
4. Variabel bebas X
1
, X
2
, X
3
, …, X
n
, konstan dalam sampling yang terulang repeated sampling dan bebas terhadap kesalahan pengganggu ε
i
. 5.
Tidak ada koleniaritas ganda multikolonearitas diantara variabel bebas X. Dengan beberapa asumsi yang telah dikemukakan di atas, maka dapat
diketahui bahwa dugaan koefisien regresi yang diperoleh dengan menggunakan metode kuadrat terkecil biasa merupakan pemerkira linear terbaik tak bias BLUE
= Best Linear Unbiased Estimator. Cara mendeteksi adanya pelanggaran asumsi- asumsi ini adalah sebagai berikut :
a Autokorelasi
Autokorelasi didefinisikan sebagai korelasi linier antara anggota serangkaian observasi yang diurutkan berdasarkan waktu dan ruang. Cara yang
paling umum mendeteksi adanya autokorelasi adalah dengan menggunakan uji Durbin-Watson DW dari hasil regresi, yang akan menghasilkan nilai statisktik d.
Adapun kriteria ujinya, adalah sebagai berikut : d d
L
; d d
U
: autokorelasi d
L
≤ d ≤ d
U
: tidak diketahui d
U
≤ d ≤ 4- d
U
: tidak ada autokorelasi
b Heteroskedastisitas
Heteroskedastisitas merupakan suatu kondisi dimana nilai ragam error term pada variabel bebas tidak memiliki nilai yang sama untuk setiap observasi
Nachrowi dan Usman, 2002. Jika faktor pengganggu pada model tidak memiliki varian yang konstan, maka diduga model mengalami masalah heteroskedastisitas.
Selain itu, dapat pula dideteksi dengan membandingkan sum square residual pada weighted statistic dengan sum square residual unweighted statistic. Jika sum
square residual pada weighted statistic lebih kecil dibandingkan dengan sum square residual unweighted statistic, maka dapat disimpulkan terjadi
heteroskedastisitas. Bila pada suatu persamaan terjadi heteroskedastisitas, maka hal tersebut
akan berakibat: 1.
Hasil estimasi tidak akan memiliki varians yang minimum atau estimator tidak efisien.
2. Estimasi dengan estimator dari data yang sebenarnya akan mempunyai
varians yang tinggi, sehingga prediksi menjadi tidak efisien. 3.
Tidak dapat diterapkannya uji nyata koefisien atau selang kepercayaan dengan menggunakan rumus yang berkaitan dengan nilai variansnya.
Pengujian untuk
mendeteksi gejala
heteroskedastisitas dengan
menggunakan uji White Heteroskedasticity. Kriteria uji yang digunakan, adalah: 1.
Jika nilai probabilitas pada ObsR-Squared nilai critical value α yang digunakan, maka terima H
yang berarti pada persamaan tidak terjadi heteroskedastisitas.
2. Jika nilai probabilitas pada ObsR-Squared nilai critical value α yang
digunakan, maka tolak H yang berarti pada persamaan terjadi
heteroskedastisitas.
c Multikolinearitas
Merupakan sebuah kejadian dimana terdapat korelasi linier majemuk yang tinggi antar variabel-variabel bebas. Kejadian ini dapat dideteksi dengan melihat :
1. Jika R
2
besar tetapi tidak ada satupun penduga koefisien variabel bebas yang nyata berbeda dari nol, maka terdapat multikolinearitas.
2. Dengan melihat nilai output dari Variance Inflation Faktor VIF yang
dihasilkan dari hasil pengolahan data, dimana apabila nilai VIF-nya dibawah 10 berarti tidak terjadi multikolinearitas.
Dimana : R
2
xj = koefisien determinasi dari persamaan prediktor ke-j, merupakan fungsi dari prediktor lainnya.
Ada banyak cara dan pendekatan yang dilakukan untuk mengatasi masalah multikolinearitas, seperti i membuang peubah bebas yang mempunyai
multikolinearitas tinggi terhadap peubah bebas lainnya, ii menambah data pengamatan, dan iii melakukan transformasi terhadap peubah-peubah bebas
yang mempunyai koliearitas atau menggabungkan menjadi peubah-peubah bebas baru yang mempunyai arti. Cara lain yang digunakan adalah dengan
menggunakan regresi gulud Ridge Regression, regresi kuadrat terkecil parsial Partial Least Square, dan analisis komponen utama Principal Component
Analysis. Berdasarkan uraian di atas, maka dalam penelitian ini untuk mengatasi
masalah multikolinearitas dengan menggunakan Principal Component Analysis PCA. Principal Component Analysis PCA merupakan teknik analisis
multivariabel menggunakan banyak variabel yang dilakukan untuk tujuan ortogonalisasi dan penyederhanaan variabel. Analisis ini merupakan teknik
statistik yang mentransformasikan secara linier satu set variabel ke dalam variabel baru dengan ukuran lebih kecil, namun representatif dan tidak saling berkorelasi
ortogonal.
PCA sering digunakan sebagai analisis antara maupun analisis akhir. Sebagai analisis antara, PCA bermanfaat mereduksi variabel yang berukuran besar
ke dalam variabel baru yang berukuran sederhana. Sedangkan untuk analisisi akhir, PCA umumnya digunakan untuk mengelompokkan variabel-variabel
penting dari suatu bundel variabel bebas untuk menduga suatu fenomena memahami struktur dan melihat hubungan antar variabel.
Pada dasarnya PCA adalah analisis yang mentransformasikan data sejumlah p ke dalam struktur data baru sejumlah k dengan jumlah k p.
Perhitungan dengan PCA memerlukan beberapa pertimbangan yang sekaligus menggambarkan adanya kendala dan tujuan yang ingin dicapai dari hasil analisis
PCA. Di dalam PCA akan dihitung vektor pembobot yang secara matematis ditunjukkan untuk memaksimumkan keragaman dari kelompok variabel baru,
yang sebenarnya merupakan fungsi linear, peubah asal, atau memaksimumkan jumlah kuadrat korelasi antar PCA dengan variabel asal Juliani dalam Rosita,
2008. Persamaan umum dari PCA adalah sebagai berikut Jollife dalam Rosita, 2008:
α
’ k
χ
=
α
1k
χ
k
+…+
α
1k-1
χ
k-1
= x adalah variabel asal, α adalah vector pembobot dan
α
’ k
χ
adalah komponen utama.
Hasil analisis komponen utama antara lain nilai akar eigen value, proporsi dan kumulatif akar ciri, nilai pembobot eigen vector atau sering disebut sebagai PC
loading, loading serta component scores. Vektor pembobot merupakan parameter yang menggambarkan peran hubungan setiap variabel dengan komponen utama
ke-i. Untuk loading menggambarkan besarnya korelasi antara variabel asal dengan komponen utama ke-i. Nilai loading diperoleh dengan persamaan:
r
i
=
i
√ λ
1
……………………………… dimana r
i
menggambarkan besarnya korelasi antara variabel asal dengan komponen utama k-i, merupakan nilai pembobot utama k-i, dan λ
1
adalah menentukan banyaknya komponen yang diinterpretasikan. Kriteria tersebut adalah
nilai akar ciri lebih besar sama dengan satu, karena akan memberikan informasi dengan baik mengenai variabel asal.
Seperti yang diketahui sebelumnya bahwa salah satu kelemahan fungsi produksi Cobb Douglas saat diduga dengan OLS adalah adanya masalah
multikolinearitas. Salah satu metode yang dapat digunakan untuk mengatasi masalah tersebut adalah menggunakan metode komponen utama, sehingga
masalah multikolineaaritas tidak akan mempengaruhi model regresi ini. Misalkan matrik variabel asal dilambangkan X
nxp
jika satuan variabel asal tidak sama, maka variabel asal perlu ditransformasikan menjadi vector baku
Z
nxp
, yang dirumuskan sebagai berikut: Z
ij
= Dimana:
Z
ij
= unsur matrik Z baris ke-i dan kolom ke-j X
ij
= unsur matrik X baris ke-i dan kolom ke-j X
j
= rataan variabel ke-j S
j
= simpangan baku variabel ke-j Sehingga persamaan regresi liniernya dirumuskan, sebagai berikut:
Y = Z
α +
e Dimana:
Y = vektor baris variabel tak bebas yang berukuran nx1 Z = matrik variabel bebas yang berukuran nxp
α
= vektor baris yang merupakan koefisien regresi, yaitu
α
1
, α
2
,
…..,
α
p
e = vektor galat yang berukuran nx1 Selanjutnya matrik baku Z ini ditransformasikan menjadi matrik skor
komponen utama K dengan persamaan K=ZA, dimana matrik A adalah matrik yang kolom-kolomnya merupakan vektor ciri dari matrik Z’Z. Skor komponen ini
selanjutnya diregresikan dengan variabel tak bebas dengan menggunakan analisis regresi linier. Model regresi komponen utama dapat dirumuskan, sebagai berikut:
Y = Kγ + e atau Y = ZAγ + e γ merupakan vektor koefisien komponen utama yang terdiri dari γ
, γ
1
, γ
2
,…., γ
m
dan m≤p, sehingga diperoleh hubungan
α
= AY dan var
α
= A var γ A’. Sedangkan untuk menduga koefisien regresi asal βj, maka dilakukan transformasi
dengan persamaan βj =
α
jSj dengan var βj = var
α
jSj2, j = 1, 2, …, p.
4.6. Uji Hipotesis dan Perumusan Model