Latar Belakang Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas

Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 BAB 1 PENDAHULUAN

1.1 Latar Belakang

Dalam suatu penelitian banyak hal menarik untuk diamati. Sehingga si peneliti harus melihat berbagai faktor yang mempengaruhi serta menganalisisnya untuk keperluan penelitiannya. Terkadang, terlalu banyaknya faktor yang mempengaruhi penelitian maka dibutuhkan suatu model matematis yang ringkas dan sesuai untuk menyelesaikan penelitian tersebut. Sebut saja model matematis tersebut adalah model statistika. Model statistika merupakan suatu model matematis yang meliputi variabel bebas dan variabel tak bebas dari parameter persamaan yang digunakan untuk mengetahui bentuk hubungan antara peubah-peubah yang dipakai sebagai keperluan pendugaan ataupun peramalan. Sehingga untuk keperluan tersebut maka parameter- parameter yang terkait harus didefinisikan terlebih dahulu. Salah satu dari model statistika yang sering digunakan dalam pemecahan suatu permasalahan adalah model Regresi Linier Linear Regression. Model regresi linier merupakan sebuah model yang digunakan untuk menganalisis hubungan antar variabel. Hubungan tersebut dapat diekspresikan dalam bentuk persamaan yang menghubungkan variabel terikat Y dengan satu atau lebih variabel bebas X 1 , X 2 , ..., X k . Jika variabel terikat Y hanya dihubungkan dengan satu variabel bebas X, maka akan menghasilkan persamaan regresi linier yang sederhana Simple Linear Regression. Sedangkan jika variabel bebas X yang digunakan lebih dari satu, maka persamaan regresinya adalah persamaan regresi linier berganda Multiple Linear Regression. Secara umum persamaan regresi linier dengan k variabel bebas dinyatakan dengan : i ki k i i i X X X Y ε β β β β + + + + + =  2 2 1 1 dengan : Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 i Y = variabel tak bebas pengamatan ke i pada variabel yang dijelaskan y i X = variabel bebas pengamatan ke i pada variabel penjelas x k k β β , , 1  = parameter koefisien regresi variabel penjelas x k i ε = variabel gangguan error k β β , , 1  adalah parameter-parameter yang akan diduga, yang mana dalam tulisan ini digunakan metode kuadrat terkecil biasa Ordinary Least Square, OLS sebagai penduganya. Penduga dengan MKT akan menghasilkan taksiran yang diijinkan jika asumsi berikut terpenuhi: a. Nilai rata-rata kesalahan pengganggu nol, yaitu : = i E ε untuk n i , , 2 , 1  = b. Var 2 2 σ ε ε = = i i E , adalah konstan untuk semua kesalahan pengganggu asumsi homoskedastisitas. c. Tidak ada korelasi serial autocorrelation antara penggangu i ε , berarti kovarian j i j i ≠ = , ε ε d. Peubah bebas n x x x , , , 2 1  konstan dalam sampling yang terulang dan bebas terhadap kesalahan pengganggu i ε . e. Tidak ada multikoloniaritas diantara peubah bebas. f. 2 , σ ε N i ≈ , artinya kesalahan pengganggu menyebar mengikuti distribusi normal dengan rata-rata 0 dan variansi 2 σ . Salah satu asumsi dari model regresi linier klasik diatas adalah bahwa tidak ada multikolinieritas atau tidak ada hubungan linier kolinieritas antara variabel- variabel bebasnya. Jika terdapat multikolinieritas di dalam persamaan regresi tersebut maka akan mengakibatkan penggunaan OLS dalam mengestimasi parameterkoefisien regresi akan terganggu. Jika multikolinieritas yang hampir sempurna terjadi, meskipun metode kuadrat terkecil dapat digunakan tetapi galat yang dihasilkan akan menjadi besar, variansi dan kovariansi parameter tidak terhingga. Nanang Pradipta : Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas, 2009. USU Repository © 2009 Ada beberapa cara untuk mengatasi masalah ini, diantaranya ialah : 1. Dengan memperbesar ukuran sampel sehingga kovarian diantara parameter- parameternya dapat dikurangi. Hal ini disebabkan karena kovariansi berhubungan terbalik dengan ukuran sampel, tetapi harus diingat bahwa hal ini akan benar jika interkorelasi yang terjadi hanya didalam sampel dan bukan didalam populasi dari variabel-variabel. Jika variabel-variabel ini berkolinier dalam populasi maka prosedur memperbesar ukuran sampel tidak akan mengurangi multikolinieritas 2. Mengeluarkan suatu variabel yang diketahui menyebabkan terjadinya multikolinieritas, tetapi dalam mengeluarkan suatu variabel dari model, kita mungkin melakukan bias spesifikasi. Bias spesifikasi timbul dari spesifikasi yang tidak benar dari model yang digunakan dalam analisis. 3. Metode Regresi Ridge, metode ini pertama kali dikemukakan oleh A.E. Hoerl pada tahun 1962. Regresi ini merupakan modifikasi dari metode kuadrat terkecil dengan cara menambah tetapan bias c yang kecil pada diagonal matrik X T X. Dari beberapa cara mengatasi masalah multikolinieritas diatas, metode Regresi Ridge merupakan penyelesaian yang paling baik, karena mengingat tujuan Regresi Ridge untuk memperkecil variansi estimator koefisien regresi. Berdasarkan latar belakang inilah maka penulis memberi judul tulisan ini yaitu ”Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas.

1.2 Perumusan Masalah