ANALISIS RESTRICTED RIDGE REGRESSION (RRR) UNTUK MENGATASI MULTIKOLINEARITAS DAN APLIKASINYA PADA DATA UANG PRIMER.

(1)

BAB I PENDAHULUAN

A.Latar Belakang Masalah

Dalam kehidupan, seringkali peneliti dihadapkan dengan suatu kejadian yang saling berhubungan atau berpengaruh satu sama lain. Ilmu statistika mengenal metode regresi yang merupakan salah satu metode untuk menentukan tingkat pengaruh suatu variabel terhadap variabel yang lain. Variabel yang diteliti adalah variabel independen dan variabel dependen. Variabel independen yaitu variabel bebas yang tidak dipengaruhi oleh variabel lainnya dan dinotasikan dengan variabel X. Variabel dependen yaitu variabel yang keberadaannya dipengaruhi oleh variabel bebas dan dinotasikan dengan variabel Y.

Regresi pertama kali dikemukakan oleh Francis Galton, seorang antropolog dan ahli meteorologi Perancis dalam artikelnya yang berjudul “Family Likeness in Stature”. Tetapi ada pula yang menyatakan istilah regresi muncul pada pidato Francis Galton di depan Section H of The British Association di Aberdeen tahun 1855 yang dimuat dalam makalah Regression Toward Mediocrity in Hereditary Stature (Draper and Smith, 1985). Galton menunjukkan bahwa tinggi badan anak laki-laki dari ayah setelah beberapa generasi cenderung mundur (regressed) mendekati nilai tengah populasi. Istilah regresi sekarang diterapkan pada semua jenis peramalan, dan tidak harus berimplikasi suatu regresi mendekati nilai tengah populasi.


(2)

Untuk memodelkan hubungan antara variabel dependen dan independen maka dilakukan analisis regresi. Analisis regresi adalah suatu analisis yang digunakan untuk mengukur pengaruh antara variabel independen dan variabel dependen (Danang Sunyoto, 2010). Arnita (2013) mengatakan bahwa terdapat beberapa tujuan penggunaan analisis regresi, yaitu: (a) Membuat estimasi rata-rata dan nilai variabel dependen dengan didasari pada nilai variabel independen, (b) Menguji hipotesis karakteristik dependensi, (c) Untuk meramalkan nilai rata-rata variabel independen dengan didasarkan pada nilai variabel bebas di luar jangkauan sampel.

Terdapat dua jenis regresi yaitu regresi linear dan regresi non linear. Regresi linear yaitu regresi yang menyatakan bentuk hubungan dimana variabel dependen dan independennya berpangkat satu. Regresi non linear adalah regresi yang menyatakan bentuk hubungan dimana variabel dependen dan independennya mempunyai pangkat tertentu.

Berdasarkan jumlah variabel independennya (X), analisis regresi linear dapat dibedakan menjadi dua macam, yaitu analisis regresi linear sederhana dan analisis regresi linear ganda. Analisis regresi linear sederhana adalah analisis regresi untuk mengetahui hubungan antara satu variabel independen (X) dengan variabel dependen (Y) saja. Sedangkan analisis regresi linear ganda adalah analisis regresi untuk mengetahui hubungan antara dua atau lebih variabel independen (X) dengan variabel dependen (Y). Analisis regresi linear ganda lebih sering digunakan karena suatu keadaan biasanya dipengaruhi oleh beberapa keadaan lainnya.


(3)

Teknik estimasi variabel dependen yang mendasari analisis regresi klasik adalah metode kuadrat terkecil/Least Square Method. Metode ini pertama kali diperkenalkan oleh Carl Friederich Gauss. Untuk mendapatkan nilai-nilai penduga parameter, metode kuadrat terkecil memerlukan beberapa asumsi klasik yang harus dipenuhi yaitu memenuhi normalitas, tidak terjadi autokorelasi, tidak terjadi heteroskedastisitas, dan tidak terjadi multikolinearitas. Apabila keempat asumsi tersebut terpenuhi, maka penduga parameter yang diperoleh bersifat Best Linier Unbiased Estimator (BLUE). Namun tidak jarang pula ditemui hal-hal yang menyebabkan asumsi-asumsi tersebut tidak terpenuhi, sehingga penggunaan metode kuadrat terkecil akan memberikan kesimpulan yang kurang baik atau nilai penduga parameternya bersifat bias.

Salah satu pelanggaran asumsi klasik adalah terjadinya multikolinearitas. Multikolinearitas adalah kondisi dimana terdapat hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen dalam model regresi ganda. Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas. Adanya korelasi yang tinggi diantara variabel bebas akan menghasilkan penaksir yang berbias, memiliki varians yang besar, dan mungkin jauh dari nilai sasaran. Oleh karena itu, multikolinearitas harus diatasi karena dianggap sebagai suatu kelemahan dalam analisis regresi.

Dalam upaya mengatasi masalah multikolinearitas, muncullah beberapa teknik regresi modern yang dapat digunakan. Salah satu cara untuk mengatasi masalah tersebut adalah melalui metode Ridge Regression. Ridge Regression


(4)

pertama kali dikemukakan oleh Hoerl and Kennarrd pada tahun 1970. Pada dasarnya metode ini juga merupakan metode kuadrat terkecil. Perbedaannya adalah bahwa pada metode Ridge Regression, nilai variabel bebasnya ditransformasikan dahulu melalui prosedur centering and rescaling.

Pada tahun 1970, Hoerl and Kennarrd membahas tentang estimasi Ridge Regression dalam penelitiannya yang berjudul Ridge Regression: Biased Estimation for Non orthogonal Problems. Penelitian ini menjelaskan tentang estimator Ordinary Ridge Regression (ORR) dan bagaimana menambah tetapan bias k dengan menggunakan metode ridge trace untuk mendapatkan perkiraan bias dengan Mean Squared Error (MSE) lebih kecil. Pada tahun 2011, M. El-Dereny dan N.I. Rashwan dalam jurnalnya Solving Multicolinearity Problem Using Ridge Regression Models menjelaskan tentang beberapa metode untuk mendapatkan estimasi pada analisis regresi ridge, diantaranya Generalized Ridge Regression (GRR), Ordinary Ridge Regression (ORR), dan Directed Ridge Regression (DRR). Jurnal ini menunjukkan bahwa penduga atau estimator dari regresi ridge lebih baik dibanding estimator Ordinary Least Square (OLS) saat ditemukannya kasus multikolinearitas.

Cara lain untuk mengatasi multikolinearitas dikemukakan oleh Toutenbuerg (1982), yaitu dengan menggunakan informasi prior pada ruang parameter. Informasi prior yang dimaksud berbentuk persamaan restriksi linear, yaitu:


(5)

dengan:

menyatakan matriks berukuran yang menunjukkan struktur informasi pada parameter , baik secara individual atau kombinasi linear dari elemen-elemen vektor .

menyatakan vektor parameter berukuran menyatakan vektor restriksi berukuran .

apabila restriksi linear benar ( dan apabila restriksi linear salah (

Selanjutnya, Gollberger dalam Toutenburg (1982) mengkombinasikan restriksi linear dengan OLS sehingga diperoleh estimator baru yang disebut Restricted Least Square (RLS). Sifat dari RLS tergantung pada restriksi linear, artinya apabila restriksi linear benar atau maka estimator yang diperoleh bersifat tak bias. Apabila restriksi linear salah atau estimator yang diperoleh bersifat bias. Kelebihan dari penggunaan restriksi linear ini yaitu dapat menurunkan variansi estimator. Secara keseluruhan, estimator RLS mempunyai nilai Mean Square Eror (MSE) lebih kecil dari estimator OLS. Akan tetapi, penentuan restriksi linear tersebut belum pasti benar atau salah sehingga dalam penggunaannya kadang kala timbul ketidakpastian. Apabila kondisi restriksi linear benar atau maka kadang kala parameter masih memuat persoalan multikolinearitas. Oleh karena itu, akan dibahas suatu estimator baru yang memodifikasi estimator RLS dengan arah estimator Ridge Regression.


(6)

Nityananda Sarkar A. memperkenalkan Restricted Ridge Regression (RRR) dalam jurnal A new estimator combining the ridge regression and the restricted least squares methods of estimation, pada tahun 1992. Dalam jurnal ini dijelaskan bahwa RRR merupakan kombinasi antara Ordinary Ridge Regression (ORR) dan Restricted Least Square (RLS). Jurnal ini juga menunjukkan bahwa RRR adalah estimator bias dan mempunyai nilai MSE lebih kecil dari ORR dan RLS.

Pada tahun 2012, S. Najarian, M. Arashi, dan B.M. Golam Kibria dalam jurnalnya yang berjudul a simulation study on some restricted ridge regression estimator membahas tentang simulasi penggunaan estimator RRR pada beberapa contoh data, seperti Acetylene Data, Portland Cement Data, dan Gross National Product Data, serta membandingkan nilai MSE dari RRR dan RLS. Hasil dari simulasi adalah estimator RRR lebih baik dari RLS dengan melihat nilai MSE RRR yang lebih kecil dari MSE RLS.

Beberapa penelitian dengan tema serupa juga telah dilakukan. Soemartini (2008) dalam tesisnya yang berjudul “penyelesaian multikolinearitas melalui metode ridge regression” menggunakan metode ridge regression untuk mengatasi terjadinya multikolinearitas dalam regresi linear ganda. Metode yang dibahas pada dasarnya juga merupakan metode kuadrat terkecil, perbedaannya adalah bahwa pada metode ridge regression, nilai variabel regressornya ditransformasikan dahulu melalui prosedur centering and rescaling. Estira Woro Astrini (2013) dalam skripsinya “analisis regresi ridge dua tahap untuk permasalahan multikolinearitas”. Analisis


(7)

regresi Ridge dua tahap ini merupakan gabungan antara Two Stage Least Square (TSLS) dengan Ordinary Ridge Regression (ORR).

Alzaber (1998) juga menjelaskan estimator koefisien regresi dalam tesisnya yang berjudul “kombinasi estimator regresi ridge dan estimator

kudrat terkecil restriksi”. Dalam tesisnya ditunjukkan keunggulan estimator regresi ridge restriksi bila dibandingkan dengan estimator kudrat terkecil restriksi dan estimator regresi ridge dengan menggunakan kriteria rata-rata sesatan kuadrat.

Masalah multikolinearitas terutama terjadi pada variabel-variabel yang memuat data time series, dimana korelasi antar variabel independennya tinggi. Untuk memperjelas penggunaan estimator RRR dalam mengatasi multikolinearitas, akan dibahas salah satu contoh kasus dimana pada variabel bebasnya memuat multikolinearitas. Salah satu contohnya adalah pada uang primer. Uang primer adalah uang yang dikeluarkan oleh Bank Indonesia yang kemudian uang tersebut didistribusikan kepada Bank Umum, Bank Perkreditan Rakyat (BPR), dan sektor swasta. Terdapat beberapa faktor yang mempengaruhi besarnya uang primer, diantaranya adalah tagihan kepada bukan penduduk, kredit likuiditas, serta tagihan kepada bank umum dan BPR.

Pada data uang primer, uang primer sebagai variabel dependen (Y) sedangkan faktor-faktor yang mempengaruhi uang primer sebagai variabel independen (X). Dalam kasus ini, diduga terjadi pelanggaran asumsi multikolinearitas diantara variabel-variabel independennya, yaitu variabel kredit likuiditas dan tagihan kepada bank umum dan BPR. Uang primer


(8)

merupakan variabel moneter yang cukup penting dan digunakan sebagai indikator bagi kebijakan moneter terhadap perekonomian, maka penyelesaian kasus multikolinearitas dilakukan tanpa menghilangkan salah satu variabel indepennya. Oleh karena itu, digunakan metode Restricted Ridge Regression (RRR) untuk penyelesaian kasus multikolinearitas yang terjadi.

Dalam tugas akhir ini, akan dibahas langkah-langkah untuk estimasi Restricted Ridge Regression (RRR) yang merupakan kombinasi dari Restricted Least Square (RLS) dan Ordinary Ridge Regression (ORR) dan penerapan RRR untuk mengatasi masalah multikolinearitas yang terjadi pada data uang primer. B.Batasan Masalah

Agar penyelesaian masalah tidak menyimpang dari pembahasan, maka perlu dibuat pembatasan masalah yaitu dianggap bahwa asumsi klasik yang lain tetap terpenuhi sehingga difokuskan pada permasalahan multikolinearitas dan cara penanganan pelanggaran asumsi tersebut dengan Restricted Ridge Regression (RRR).

C.Perumusan Masalah

Berdasarkan latar belakang di atas maka yang menjadi pokok permasalahan adalah :

1. Bagaimana langkah-langkah estimasi Restricted Ridge Regression (RRR)? 2. Bagaimana penerapan Restricted Ridge Regression (RRR) dalam


(9)

D.Tujuan Penelitian

Berdasarkan permasalahan di atas, tujuan dari penulisan tugas akhir ini adalah :

1. Mengetahui langkah-langkah estimasi Restricted Ridge Regression (RRR). 2. Mengetahui penerapan Restricted Ridge Regression (RRR) dalam

mengatasi masalah multikolinearitas. E.Manfaat Penelitian

Manfaat penulisan tugas akhir ini diantaranya: 1. Bagi Penulis

Membuka wawasan teoritis maupun praktis pada kajian ilmu Ridge Regression, khususnya Restricted Ridge Regression dalam mengatasi masalah mulitkolinearitas.

2. Bagi Jurusan Matematika FMIPA UNY

Menambah kelengkapan koleksi pustaka dan menjadi referensi untuk penelitian-penelitian selanjutnya.


(10)

10

BAB II

TINJAUAN PUSTAKA

Dalam bab ini dibahas tentang matriks, metode pengganda Lagrange, regresi linear, metode kuadrat terkecil, restriksi linear, multikolinearitas, regresi ridge, uang primer, dan koefisien korelasi ganda.

A. Matriks

1. Pengertian Matriks

Menurut G. Hadley (1992), matriks adalah suatu susunan persegi panjang dari bilangan-bilangan yang diatur dalam baris dan kolom. Matriks yang memiliki baris dan kolom dapat ditulis sebagai berikut:

[ ] [

] (2.1)

dimana menyatakan elemen matriks yang berada pada baris ke-i dan kolom ke-j.

Contoh matriks berukuran adalah:

[

]

2. Jenis-jenis Matriks


(11)

11

a. Matriks Persegi

Matriks persegi adalah matriks yang memiliki baris dan kolom sama banyak. Matriks persegi B berordo dapat dituliskan sebagai:

[ ] (2.2)

Dalam matriks persegi di atas, elemen merupakan elemen diagonal utama.

b. Matriks Diagonal

Matriks diagonal adalah matriks persegi dimana semua elemen selain elemen diagonal utamanya bernilai nol. Bentuk umum dari matriks diagonal adalah:

[

] (2.3)

c. Matriks Segitiga

Matriks segitiga atas (upper triangular) adalah matriks persegi dimana semua elemen di bawah diagonal utamanya bernilai nol. Bentuk umum matriks segitiga atas berukuran adalah:

[ ] (2.4)


(12)

12

Matriks segitiga bawah (lower triangular) adalah matriks persegi dimana semua elemen di atas diagonal utamanya bernilai nol. Bentuk umum matriks segitiga bawah berukuran adalah:

[ ] (2.5)

Sebuah matriks baik yang merupakan segitiga atas maupun yang merupakan segitiga bawah dinamakan matriks segitiga (triangular).

d. Matriks Identitas

Matriks identitas ordo yang ditulis dengan atau adalah matriks persegi yang elemen-elemennya bernilai satu sepanjang diagonal utama (diagonal dari kiri atas menuju kanan bawah) dan elemen-elemen selain diagonal utamanya bernilai nol. Bentuk matriks identitas adalah: [ ] (2.6)

Contoh matriks identitas dengan ukuran 4 4:

[ ]

Jika matriks A adalah suatu matriks berukuran , maka


(13)

13

e. Matriks Simetris

Matriks simetris adalah matriks persegi yang elemennya simetris secara diagonal. Matriks dikatakan simetris jika untuk semua dan , dengan menyatakan unsur pada baris ke dan kolom ke . Matriks yang simetris dapat dikatakan pula sebagai matriks yang transposenya sama dengan dirinya sendiri. Contoh matriks simetris yaitu:

[ ]

3. Operasi matriks

a. Jumlah Unsur Diagonal Suatu Matriks

R.K. Sembiring (1995) menjelaskan bahwa bila adalah suatu matriks persegi dengan ukuran , maka jumlah unsur diagonal matriks dilambangkan , adalah

∑ (2.8) Lambang adalah singkatan dari trace dalam bahasa Inggris. b. Penjumlahan Matriks

Steven J. Leon (2001) menjelaskan bahwa jika [ ] dan [ ] keduanya adalah matriks , maka jumlah adalah matriks yang elemen ke-ij adalah untuk setiap pasang (i,j). Maka penjumlahan matriks dapat dituliskan sebagai:


(14)

14 Contoh penjumlahan matriks adalah:

[

] [

] [ ] c. Pengurangan Matriks

Steven J. Leon (2001) juga menjelaskan bahwa jika didefinisikan sebagai , maka ternyata bahwa didapat dari mengurangi entri pada dari setiap entri dari yang seletak. Jika [ ] dan [ ], maka pengurangan matriks dapat dituliskan sebagai:

[ ] [ ] [ ] (2.10) Contoh pengurangan matriks adalah:

[

] [

] [

]

d. Perkalian Skalar

Howard Anton (2000) menjelaskan jika adalah suatu matriks dan adalah suatu skalar, maka hasil kali adalah matriks yang diperoleh dengan mengalikan setiap anggota dari dan . Perkalian matriks dengan skalar menghasilkan sebuah matriks baru yang elemennya adalah hasil perkalian setiap elemen matriks aslinya dengan skalar. Dalam notasi matriks jika [ ], maka


(15)

15 e. Perkalian Matriks

Charles G. Cullen (1993) mendefinisikan bahwa jika A adalah matriks berukuran dan adalah matriks berukuran , maka hasil kali adalah matriks berukuran yang unsur-unsurnya adalah:

∑ (2.12)

Perkalian matriks hanya bisa dilakukan jika banyaknya kolom matriks yang pertama sama dengan banyaknya baris matriks yang kedua. Contoh perkalian matriks:

Matriks berukuran dikalikan matriks berukuran maka hasil perkalian matriks berukuran .

[ ] [

] [ ] f. Transpose Matriks

Steven J. Leon (2001) mendefinisikan transpose dari suatu matriks berorde adalah matriks berorde yang didefinisikan oleh:

(2.13)

untuk dan . Transpose dari matriks dinyatakan oleh .


(16)

16

Akibat dari (2.13) terlihat bahwa baris ke- dari memiliki

entri-entri yang sama dengan entri-entri dari kolom ke- dari , dan kolom ke- dari memiliki entri-entri yang sama dengan entri-entri dari baris ke- dari .

Contoh matriks [

], maka [

]

Beberapa sifat transpose matriks:

a)

b)

c) , dengan sembarang skalar

d)

g. Determinan Matriks

Jika adalah matriks berukuran , fungsi determinan matriks dapat ditulis dengan atau . Secara matematisnya ditentukan dengan:

(2.14)

dengan , ..., merupakan himpunan { }.

Jika adalah matriks berukuran yang mengandung sebaris bilangan nol, maka .

Contoh:


(17)

17

Jika adalah matriks segitiga, maka adalah hasil kali elemen-elemen diagonal utama, yaitu . Contoh:

[ ], maka

Jika adalah sebarang matriks persegi, maka , dimana adalah transpose dari .

Contoh:

[ ], maka . [ ], maka . Jadi, .

Jika dan adalah matriks persegi yang ordonya sama, maka .

h. Invers Matriks

Howard Anton (2000) menjelaskan bahwa jika adalah suatu matriks persegi berukuran dan jika suatu matriks yang berukuran sama disebut invers (balikan) dari jika dipenuhi , maka bisa dibalik dan disebut invers dari . Invers dari dilambangkan dengan . Contoh suatu matriks yaitu:

[ ] Diperoleh [


(18)

18

Jika dan adalah matriks-matriks yang dapat dibalik yang ukurannya sama, maka

a) dapat dibalik

b)

Jika adalah sebuah matriks yang dapat dibalik, maka a) dapat dibalik dan

b) untuk

c) Untuk skalar , dimana , maka dapat dibalik dan

i. Matriks Ortogonal

Menurut Dumairy (2012), matriks ortogonal ialah matriks yang apabila dikalikan dengan matriks transposenya menghasilkan matriks satuan (identitas).

Matriks ortogonal dapat dituliskan sebagai:

(2.15)

karena persamaan (2.15), maka

(2.16)

Sifat matriks ortogonal:

1) Invers matriks ortogonal juga matriks ortogonal

2) Hasil kali matriks-matriks ortogonal juga matriks ortogonal 3) Jika matriks ortogonal, maka det atau det


(19)

19

Contoh matriks ortogonal berukuran yaitu:

[ ] j. Matriks Definit Positif

Menurut Steven J. Leon (2001), suatu matriks simetris berorder disebut matriks definit positif apabila untuk semua vektor tak nol .

Menurut Searle (1971), suatu matriks yang berukuran dikatakan definit positif jika dan hanya jika dan

untuk setiap vektor tidak nol.

k. Matriks Definit Semi Positif

Searle (1971) mendefinisikan suatu matriks yang berukuran dikatakan definit semi positif jika dan hanya jika kondisi-kondisi berikut dipenuhi:

1. ( matriks simetris)

2. untuk setiap vektor tidak nol.

3. untuk paling sedikit satu vektor tidak nol.

l. Matriks definit negatif

Menurut Steven J. Leon (2001), suatu matriks simetris berorder disebut matriks definit negatif apabila untuk semua vektor tak nol .


(20)

20 4. Nilai Eigen dan Vektor Eigen

Howard Anton (2001) menjelaskan bahwa jika adalah matriks , maka vektor tak nol dinamakan vektor eigen (eigenvector) dari jika adalah kelipatan skalar dari , yakni:

(2.17)

untuk suatu skalar . Skalar dinamakan nilai eigen (eigenvalue) dari dan

dikatakan vektor eigen yang bersesuaian dengan .

5. Turunan Matriks (Greene, 2012)

Turunan matriks sangat diperlukan dalam pembahasan Restricted Ridge Regression (RRR). Misalkan terdapat dua vektor dan , dengan

[

]

maka (2.18)

[

]

maka (2.19)

dan

maka


(21)

21 Bukti:

1. ( ) [ ] [

] (2.21)

2. ( ) [ ] [

] (2.22)

Jadi, terbukti

Misalkan fungsi linier (2.23)

dengan [ ]

Setiap elemen dari adalah

(2.24)


(22)

22 [

] [

] (2.25)

Sehingga

(2.26) Suatu persamaan

[

] [

] (2.27)

(2.28) Jika diambil turunan parsial terhadap elemen-elemen X akan diperoleh hasil sebagai berikut:

(2.29)

Jika diperhatikan hasil di atas, merupakan elemen-elemen dari hasil matiks dan vektor , yaitu dan


(23)

23

memberikan suatu vektor kolom dengan elemen. Jadi hasil di atas dapat diringkas sebagai berikut:

(2.30)

B. Metode Pengganda Lagrange

Metode Pengganda Lagrange (Lagrange Multipliers) adalah metode yang digunakan untuk menentukan nilai maksimum atau minimum dari suatu fungsi yang dibatasi oleh suatu kendala/hambatan/pembatas tertentu. Misalkan yang akan dicari adalah nilai maksimum atau minimum dari fungsi dengan kendala . Maka langkah yang dilakukan adalah menyusun fungsi Lagrange yang dinyatakan sebagai berikut:

(2.31) dimana adalah pengganda Lagrange. Selanjutnya, menerapkan syarat adanya nilai maksimum atau minimum, yaitu:

Permasalahan di atas dapat diperluas untuk -variabel. Misalkan fungsi objektifnya mempunyai bentuk dan kendala , maka fungsi Lagrange-nya menjadi:

(2.32) Sehingga syarat adanya nilai maksimum atau minimum adalah:

...


(24)

24

C. Regresi Linear

Regresi linier adalah metode statistika yang digunakan untuk mengetahui hubungan antara variabel dependen ( ) dengan satu atau lebih variabel independen ( ). Berdasarkan banyaknya variabel bebas, regresi linear dapat dibagi menjadi dua yaitu regresi linear sederhana dan regresi linear berganda. Regresi linear sederhana digunakan untuk mengetahui hubungan linier antara variabel dependen ( ) dengan satu variabel independen ( ), sedangkan regresi linear berganda digunakaan untuk mengetahui hubungan linier antara variabel dependen ( ) dengan dua atau lebih variabel independen .

Bentuk umum dari regresi linier ganda dengan variabel adalah

(2.33) dengan adalah parameter.

Model regresi ganda untuk pengamatan, dapat dijabarkan sebagai berikut:

(2.34) dengan

adalah variabel dependen


(25)

25 adalah parameter atau koefisien regresi

adalah galat yang saling bebas dan menyebar normal

Jika persamaan (2.33) ditulis dalam bentuk matriks, maka akan menjadi:

[ ] [

] [ ] [ ]

Maka penjabaran persamaan (2.33) dapat ditulis sebagai:

(2.35)

dengan

[ ] [

] [ ]

[ ]

Keterangan:

menyatakan vektor respon berukuran

menyatakan vektor parameter berukuran

menyatakan matriks variabel bebas berukuran


(26)

26

Terdapat asumsi-asumsi yang harus dipenuhi dalam analisis regresi linier ganda, antara lain:

1. Nilai ekspektasi dari vektor residualnya adalah 0, yaitu Atau dapat dituliskan sebagai

[ ] [

] [ ]

2. Variansinya konstan untuk semua residual

3. Tidak ada autokorelasi antar residual

( ) .

4. Tidak terjadi multikolinearitas, yaitu adanya hubungan linier antara variabel independen satu dengan yang lainnya.

D. Metode Kuadrat Terkecil

Metode Kuadrat Terkecil (least square method) merupakan metode yang digunakan untuk melakukan estimasi dalam model statistik linear. Teknik estimasi least square yang menggunakan informasi sampel disebut juga dengan Ordinary Least Square (OLS). OLS diperkenalkan pertama kali oleh Carl Friedrich Gauss, seorang ahli matematika dari Jerman (Kuncoro, 2001). Estimator yang diperoleh dengan menggunakan metode OLS adalah ̂ yang meminimumkan jumlah kuadrat galat OLS ( ).


(27)

27 Persamaan Regresi Ganda:

(2.39)

Persamaan (2.39) dapat ditulis:

dan persamaan regresi dugaannya yaitu ̂ (2.40) Jumlah kuadrat galat OLS ( ) adalah:

[ ] [

]

(2.41)

dengan ̂, maka

( ̂) ( ̂) ( ̂ )( ̂)

̂ ̂ ̂ ̂ (2.42)

̂ adalah matriks berukuran . Dengan menggunakan sifat transpose


(28)

28 ∑

( ̂) ( ̂) ( ̂ )( ̂)

̂ ̂ ̂ ̂

̂ ̂ ̂ (2.43) Estimator ̂ adalah ̂ yang meminimumkan , yaitu ̂ yang memenuhi

persamaan

̂ , sehingga diperoleh ̂

̂ ̂

̂ (2.44) Sifat-sifat penduga metode kuadrat terkecil yaitu:

1. ̂ Linear

̂ linear jika ̂ merupakan fungsi linear dari ̂

(2.45)

2. ̂ tidak bias


(29)

29

Dari persamaan (2.44) telah diketahui bahwa ̂ , maka: ( ̂)

( ̂)

(2.46)

Jadi, ̂ adalah penduga tak bias dari 3. ̂ mempunyai variansi minimum

( ̂) [( ̂ )( ̂ ) ]


(30)

30

(2.47)

dengan

Misal ̂ merupakan estimator lain dari yang juga merupakan tak bias dan linear.

̂ (2.48)

Dengan adalah matriks berukuran Karena ̂ tak bias, maka:

( ̂ ) [ ]

[ ]

(2.49)

agar ̂ tidak bias maka harus sama dengan 0. ̂ ( ̂ )( ̂ )

{ }{ } }

{

}{ }

{

}{ } (2.50)

Karena , maka

( ̂ ) { }{ }


(31)

31

{ } { }

{ }{ }

{

}

{ }

( ̂) (2.51)

terbukti ( ̂ ) ̂

E. Restriksi Linear

Restriksi linear merupakan salah satu bentuk informasi prior. Menurut Berger (1980), informasi prior untuk parameter adalah suatu informasi non sampel yang muncul dari pengalaman masa lalu dengan situasi yang hampir sama dan memuat parameter yang sama. Sebagai contoh restriksi linear adalah sebagai berikut:

Contoh 2.1. Dalam suatu penelitian akan diestimasi vektor parameter , dari penelitian sebelumnya diperoleh bahwa sama dengan suatu konstanta , jumlah parameter , dengan sama dengan satu, dan parameter . Hasil dari penelitian sebelumnya tersebut tidak diabaikan, namun dapat dijadikan sebagai informasi prior untuk penelitian selanjutnya. Informasi prior yang dimaksud berbentuk restriksi linear. Restriksi linear dari model regresi linear sederhana , yaitu:


(32)

32 Apabila ditulis dalam bentuk matriks adalah:

[ ] [ ] [ ]

atau dapat ditulis sebagai:

(2.52) dengan: [

] [ ] dan [ ]

adalah matriks berukuran , merupakan struktur informasi pada parameter , baik secara individual atau kombinasi linear dari elemen-elemen vektor . r adalah matriks berukuran . dan masing-masing merupakan vektor yang telah diketahui.

Selanjutnya bentuk (2.52) dinamakan persamaan restriksi linear umum. Contoh 2.1 jika disajikan dalam bentuk (2.52) adalah:

[ ] [

] [ ] (2.53)

Artinya: [ ]

dan [ ]

Jadi restriksi linear untuk penelitian pada contoh 2.1 adalah seperti pada (2.53). Diasumsikan vektor parameter dalam (2.52) yang tidak diketahui diduga menggunakan metode kuadrat terkecil yaitu ̂, diperoleh vektor ̂. Selanjutnya akan diturunkan distribusi dari ̂, sebagai berikut:


(33)

33

( ̂) , dan ( ̂) (2.54)

F. Multikolinearitas

1. Pengertian Multikolinearitas

Istilah multikolinearitas pertama kali dikemukakan oleh Ragnar Frisch pada tahun 1934, yang menyatakan bahwa model regresi dikatakan terkena multikolinearitas bila terjadi hubungan linier yang sempurna (perfect) dan pasti (exact) diantara beberapa atau semua variabel bebas dari model regresi.

Menurut Kuncoro (2001), multikolinearitas adalah adanya hubungan linear yang sempurna (mendekati sempurna) antara beberapa atau semua variabel bebas. Gujarati (2003) menjelaskan bahwa berdasarkan hubungan yang terjadi antara variabel-variabel bebas, multikolinearitas dapat dibedakan menjadi dua, yaitu multikolinearitas sempurna dan multikolinearitas kurang sempurna.

a. Multikolinearitas Sempurna

Multikolinearitas sempurna terjadi apabila berlaku hubungan:

(2.55)

dimana seluruhnya tidak sama dengan nol ( . Untuk mengetahui multikolinearitas sempurna dimisalkan , sehingga persamaan dapat ditulis sebagai berikut:

(2.56)

Persamaan tersebut menunjukkan bagaimana berhubungan secara linear sempurna dengan sisa variabel lainnya.


(34)

34 b. Multikolinearitas Kurang Sempurna

Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan:

∑ (2.57)

dimana adalah galat sisa dengan syarat galat yang saling bebas dan menyebar normal , untuk mengetahui adanya multikolinearitas tidak sempurna, maka dimisalkan , sehingga persamaan dapat ditulis sebagai berikut:

(2.58)

Persamaan tersebut menunjukkan bagaimana tidak berhubungan secara linear sempurna dengan sisa variabel lainnya, sebab tergantung pada .

2. Deteksi Multikolinearitas

Deteksi multikolinearitas dilakukan untuk mengetahui ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu regresi linear ganda. Apabila terjadi multikolinearitas, maka hubungan antara variabel bebas dan variabel terikatnya akan terganggu. Beberapa cara untuk mengetahui ada tidaknya multikolinearitas menurut Montgomery (2006) adalah:

a. Menganalisis koefisien korelasi sederhana antara variabel bebasnya. Multikolinearitas dapat diduga dari tingginya nilai korelasi antara variabel bebasnya. Kolinearitas antara variabel bebas dapat diduga


(35)

35

dengan melihat nilai dari koefisien korelasi sederhana yang cukup tinggi (

b. Menggunakan Variance Inflation Factor (VIF)

Variance Inflation Factor (VIF) adalah salah satu cara dalam mendeteksi adanya multikolinearitas. Hal ini diperoleh berdasarkan fakta bahwa kenaikan dari variansi tergantung dari dan VIF itu sendiri. VIF dinyatakan dengan rumus:

(2.59)

dimana adalah koefisien determinasi dari variabel bebas yang diregresikan terhadap variabel bebas lainnya.

c. Metode TOL (Tolerance Value)

Menurut Gujarati (2003) untuk mendeteksi multikolinearitas, selain menggunakan koefisien korelasi dan VIF, juga dapat menggunakan metode TOL (Tolerance Value). TOL adalah indikasi dari persen variansi dalam prediktor yang tidak dapat dihitung oleh variabel prediktor. Rumusan dari TOL adalah sebagai berikut:

(2.60)

Suatu dikatakan memiliki koefisien kolinearitas yang tinggi dengan yang lainnya jika memiliki nilai

3. Akibat Multikolinearitas

Montgomery (2006) menjelaskan bahwa multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi


(36)

36

berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel bebas yang bersangkutan.

Dalam banyak hal masalah multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-masing variabel bebas diregresikan secara terpisah dengan variabel tak bebas (simple regression), uji T menunjukkan hasil yang signifikan.

4. Cara Mengatasi Multikolinearitas

Apabila dalam deteksi multikolinearitas menunjukkan terjadinya pelanggaran asumsi multikolinearitas, maka masalah tersebut harus diatasi. Berikut adalah beberapa cara untuk mengatasi multikolinearitas:

a. Memanfaatkan informasi sebelumnya (prior information)

Menurut Berger (1980), informasi prior untuk parameter adalah suatu informasi non sampel yang muncul dari pengalaman masa lalu dengan situasi yang hampir sama dan memuat parameter yang sama.

b. Memperbesar ukuran sampel

Multikolinearitas diharapkan bisa hilang atau berkurang jika ukuran sampel diperbesar (atau jumlah sampel ditambah). Dengan memperbesar ukuran sampel, maka kovarian diantara parameter-parameter dapat dikurangi.

c. Menghilangkan salah satu atau lebih variabel bebas.

Untuk menghilangkan beberapa variabel bebas dari model, dilakukan satu persatu. Pilih variabel bebas yang memiliki korelasi


(37)

37

paling tinggi dengan variabel lainnya. Menghilangkan satu variabel dari model harus dilakukan dengan hati-hati. Tindakan ini tidak bisa dilakukan jika hilangnya sebuah variabel akan mengakibatkan terjadinya kesalahan spesifikasi dalam model. Hal ini biasanya dikarenakan secara teoritis variabel tersebut tidak dapat dihilangkan dari model.

d. Estimasi Regresi Ridge

Menurut Montgomery (2006), salah satu cara untuk mengatasi masalah multikolinearitas adalah menggunakan estimasi regresi Ridge. Estimasi Ridge untuk koefisien regresi dapat diperoleh dengan menyelesaikan suatu bentuk persamaan normal regresi. Asumsikan bahwa bentuk standar dari model regresi linear ganda adalah sebagai berikut:

Parameter penting yang membedakan regresi ridge dari metode kuadrat terkecil adalah konstanta . Konstanta bias yang relatif kecil, bernilai antara 0 dan 1 ditambahkan pada diagonal utama matriks , sehingga koefisien estimator regresi Ridge dipenuhi dengan besarnya konstanta bias (Hoerl dan Kennard, 1970).

G. Regresi Ridge

Regresi Ridge merupakan metode yang digunakan untuk mengatasi multikolinearitas pada regresi linear ganda yang mengakibatkan matriks singular. Regresi Ridge pertama kali diperkenalkan oleh Hoerl dan Kennard


(38)

38

pada tahun 1970. Pada dasarnya metode ini juga merupakan metode kuadrat terkecil. Perbedaannya adalah bahwa pada metode ridge regression, nilai variabel independennya ditransformasikan dahulu melalui prosedur centering and rescaling.

Dengan menggunakan pengganda Lagrange, akan dicari estimator regresi ridge dengan mencari nilai ̂ yang meminimumkan fungsi tujuan

( ̂ ) ( ̂ ) dengan kendala ̂ ̂ , yang

ekuivalen dengan meminimumkan :

( ̂ )( ̂ ) ̂ ̂ (2.61)

̂ ̂ ̂ ̂ ̂ ̂

dengan :

= Pengganda lagrange, = Konstanta positif,

= Variabel dependen transformasi, = Variabel independen transformasi

Karena ̂ merupakan skalar atau matiks berukuran 1 x 1, maka dengan menggunakan sifat transpose matriks diperoleh transpose dari matriks ̂ adalah ̂ ̂ , sehingga persamaan (2.61) menjadi

̂ ̂ ̂ ̂ ̂ (2.62) Nilai fungsi G akan minimum jika

̂ , persamaan (2.62) jika diturunkan terhadap ̂ akan menjadi :

̂ ̂ ̂

̂ ̂

̂


(39)

39

Jadi ̂ merupakan estimator regresi ridge. H. Uang Primer

Uang primer adalah uang yang dikeluarkan oleh bank sentral (Bank Indonesia) yang selanjutnya uang tersebut didistribusikan kepada Bank Umum, Bank Perkreditan Rakyat (BPR), dan sektor swasta (tidak termasuk Pemerintah Pusat dan Luar Negeri). Uang primer meliputi uang kartal (berupa uang kartal di masyarakat, dan Kas Bank Umum dan BPR), saldo giro rupiah bank umum pada Bank Indonesia, simpanan sektor swasta domestik, Sertifikat Bank Indonesia (SBI) dan Setifikat Deposito Bank Indonesia (SDBI). Uang kartal adalah uang kertas dan uang logam yang dikeluarkan dan diedarkan oleh Bank Indoneasia (BI) sebagai alat pembayaran yang sah. Saldo giro rupiah bank umum pada BI adalah penempatan bank umum dalam bentuk giro rupiah pada BI. SBI adalah surat berharga dalam mata uang rupiah yang diterbitkan oleh BI sebagai pengakuan utang berjangka waktu pendek. Sementara SDBI adalah surat berharga dalam mata uang rupiah yang diterbitkan oleh BI sebagai pengakuan utang berjangka waktu pendek yang dapat diperdagangkan hanya antar bank.

Faktor-faktor yang mempengaruhi uang primer, diantaranya: a. Tagihan kepada bukan penduduk

Tagihan kepada bukan penduduk adalah tagihan Bank Indonesia kepada bukan penduduk. Bukan penduduk adalah orang, badan hukum, atau badan lainnya yang tidak berdomisili di Indonesia, berdomisili atau berencana


(40)

40

berdomisili di Indonesia kurang dari 1 (satu) tahun, termasuk staf diplomatik asing di Indonesia

b. Kredit Likuiditas

Kredit Likuiditas adalah kredit yang diberikan Bank Indonesia kepada bank umum, yang digunakan untuk membiayai proyek-proyek nasabahnya, khususnya proyek-proyek yang berkaitan dengan program pemerintah. Contohnya adalah Kredit Usaha Tani (KUT), Kredit Koperasi, pengadaan pangan dan gula, dan investasi.

c. Tagihan kepada Bank Umum dan BPR

Tagihan kepada Bank Umum dan BPR adalah tagihan Bank Indonesia pada bank umum dan BPR baik dalam rupiah maupun valuta asing.

Perubahan nilai beberapa variabel pada data uang primer ini sejalan dengan perkembangan waktu. Dalam perubahannya, sering terjadi korelasi yang kuat antar variabel independen. Hubungan antar variabel-variabel independen inilah yang dikenal dengan multikolinearitas.

Pada data uang primer, uang primer sebagai variabel dependen (Y) sedangkan faktor-faktor yang mempengaruhi uang primer sebagai variabel independen (X). Perubahan nilai dari faktor-faktor yang mempengaruhi uang primer (variabel independen) akan menyebabkan perubahan nilai uang primer (variabel dependen). Kredit likuiditas biasanya cenderung menambah uang primer karena mengurangi deposito pemerintah pada Bank Indonesia (Agung Pribadi, 2011). Kenaikan kredit likuiditas akan diikuti naiknya tagihan kepada bank umum dan BPR.


(41)

41

Dalam kasus ini, diduga terjadi pelanggaran asumsi multikolinearitas diantara variabel-variabel independennya, yaitu variabel kredit likuiditas dan tagihan kepada bank umum dan BPR. Adanya multikolinearitas mengakibatkan estimator metode kuadrat terkecil menjadi tidak efisien. Oleh karena itu, masalah multikolinearitas dianggap sebagai suatu kelemahan pada estimator kuadrat terkecil.

I. Koefisien Korelasi Ganda

Koefisien korelasi ganda digunakan untuk menentukan hubungan dua atau lebih variabel independen dengan satu variabel dependen secara bersamaan. Koefisien korelasi untuk data sampel dinotasikan dengan “ ”, sedangkan koefisien korelasi untuk data populasi dinotasikan dengan “ ”. Untuk mengetahui apakah koefisien korelasi ganda berarti atau tidak, maka dilakukan uji keberartian koefisien korelasi ganda (Sudjana, 2005) dengan menggunakan uji F sebagai berikut:

a. Hipotesis:

(koefisien korelasi tidak berarti) (koefisien korelasi berarti) b. Taraf Nyata:

c. Statistik Uji:

adalah koefisien korelasi determinasi

adalah banyaknya pengamatan

adalah banyaknya variabel independen d. Kriteria Keputusan:

ditolak jika e. Hitungan


(42)

80

DAFTAR PUSTAKA

Agung Pribadi, dkk. (2011). Jumlah Uang Beredar. Diakses dari http://apihnes-pribadi.blogspot.co.id/2013_10_01_archive.html pada tanggal 15 Oktober 2015, Jam 00.35 WIB

Alzaber. (1998). Kombinasi Estimator Regresi Ridge dan Estimator Kudrat Terkecil Restriksi. Tesis. Universitas Gadjah Mada.

Anton, Howard. (2000). Dasar-dasarAljabar Linear. Jilid 2. Batam: Interaksara. Arnita. (2013). Pengantar Statistika. Bandung: Citrapustaka Media Perintis. Berger, J. O. (1980). Statistical Decesion Theory. New York: Springer Verlag. Cullen, Charles G. (1993). Aljabar Linear dan Penerapannya. Jakarta: Gramedia

Pustaka Utama.

Danang Sunyoto.(2010). Uji Khi Kuadrat & Regresi Untuk Penelitian. Edisi Pertama. Yogyakarta: Graha Ilmu.

Draper, N. and Smith, H.(1985). Applied Regression Analysis. New York: John Wiley &Sons.

Dumairy. (2012). Matematika Terapan Untuk Bisnis Dan Ekonomi. Yogyakarta: BPFE Yogyakarta.

El-Dereny, M. & Rashwan, N.I. (2011).Solving Multicolinearity Problem Using Ridge Regression Models. Int. J. Contemp. Math. Sciences, Vol. 6, Hlm. 585-600.

Estira Woro Astrini. (2013). Analisis Regresi Ridge Dua Tahap untuk Permasalahan Multikolinearitas. Skripsi. Universitas Gadjah Mada.

Graybill, F.A., (1976). Theory and Aplication of Linear Model. Duxbury Press North Scitute. Masschusetts.

Greene, William H. (2012). Econometric Analysis Seven Edition. New York: Prentice Hall

Gujarati, Damodar N. (2003). Basic Econometric Forth Edition. New York: Mc Graw-Hall


(43)

81

Hoerl, A.E. and Kennarrd, R.W.(1970).Ridge Regression: Biased Estimation for Nonorthogonal Problems.Technometrics, 12. 55-67.

Kurtner, Michael H. Et al. (2005). Applied Linear Statistical Models Fifth Edition. New York: Mc Graw-Hill.

Leon, Steven J. (2001). Aljabar Linear dan Aplikasinya. Jakarta: Penerbit Erlangga.

Montgomery, douglas C., Elizabeth A. Peck, G. Geoffrey Vining. (2006). Introduction to Linear Regression Analysis Fourth Edition. New York: John Willey and Sons

Mudrajad Kuncoro. (2001). Metode Kuantitatif: Teori dan Aplikasi untuk Bisnis dan Ekonomi. Yogyakarta: AMP YKPN.

Najarian, S., Arashi, M. & Kibria, B.M. (2013): A Simulation Study on Some Restricted Ridge Regression Estimators, Communications in Statistics - Simulation and Computation 42:4, 871-890.

Nanang Pradipta. (2009). Model Regresi Ridge untuk Mengatasi Model Regresi Linear Berganda yang Mengandung Multikolinearitas. Skripsi. Universitas Sumatera Utara.

Sarkar, Nityananda. (1992). A new estimator combining the ridge regression and therestricted least squares methods of estimation, Communications in Statistics - Theory and Methods, 21:7, 1987-2000.

Searle. (1971). Linear Model. New York: John Wiley.

Sembiring, R.K. (1995). Analisis Regresi. Bandung: Institut Teknologi Bandung. Soemartini. (2008). Penyelesaian Multikolinearitas Melalui Metode Ridge

Regression. Skripsi. Universitas Padjajaran, Jatinangor. Sudjana. (2005). Metode Statistika. Bandung: Tarsito

Toutenbuerg, H .(1982). Prior Information In Linear Model. New York: John Wiley & Sons.


(1)

38

pada tahun 1970. Pada dasarnya metode ini juga merupakan metode kuadrat terkecil. Perbedaannya adalah bahwa pada metode ridge regression, nilai variabel independennya ditransformasikan dahulu melalui prosedur centering and rescaling.

Dengan menggunakan pengganda Lagrange, akan dicari estimator regresi ridge dengan mencari nilai ̂ yang meminimumkan fungsi tujuan ( ̂ ) ( ̂ ) dengan kendala ̂ ̂ , yang ekuivalen dengan meminimumkan :

( ̂ )( ̂ ) ̂ ̂ (2.61) ̂ ̂ ̂ ̂ ̂ ̂

dengan :

= Pengganda lagrange, = Konstanta positif,

= Variabel dependen transformasi, = Variabel independen transformasi

Karena ̂ merupakan skalar atau matiks berukuran 1 x 1, maka dengan menggunakan sifat transpose matriks diperoleh transpose dari matriks ̂ adalah ̂ ̂ , sehingga persamaan (2.61) menjadi

̂ ̂ ̂ ̂ ̂ (2.62) Nilai fungsi G akan minimum jika

̂ , persamaan (2.62) jika diturunkan terhadap ̂ akan menjadi :

̂ ̂ ̂ ̂ ̂ ̂


(2)

39

Jadi ̂ merupakan estimator regresi ridge.

H. Uang Primer

Uang primer adalah uang yang dikeluarkan oleh bank sentral (Bank Indonesia) yang selanjutnya uang tersebut didistribusikan kepada Bank Umum, Bank Perkreditan Rakyat (BPR), dan sektor swasta (tidak termasuk Pemerintah Pusat dan Luar Negeri). Uang primer meliputi uang kartal (berupa uang kartal di masyarakat, dan Kas Bank Umum dan BPR), saldo giro rupiah bank umum pada Bank Indonesia, simpanan sektor swasta domestik, Sertifikat Bank Indonesia (SBI) dan Setifikat Deposito Bank Indonesia (SDBI). Uang kartal adalah uang kertas dan uang logam yang dikeluarkan dan diedarkan oleh Bank Indoneasia (BI) sebagai alat pembayaran yang sah. Saldo giro rupiah bank umum pada BI adalah penempatan bank umum dalam bentuk giro rupiah pada BI. SBI adalah surat berharga dalam mata uang rupiah yang diterbitkan oleh BI sebagai pengakuan utang berjangka waktu pendek. Sementara SDBI adalah surat berharga dalam mata uang rupiah yang diterbitkan oleh BI sebagai pengakuan utang berjangka waktu pendek yang dapat diperdagangkan hanya antar bank.

Faktor-faktor yang mempengaruhi uang primer, diantaranya: a. Tagihan kepada bukan penduduk

Tagihan kepada bukan penduduk adalah tagihan Bank Indonesia kepada bukan penduduk. Bukan penduduk adalah orang, badan hukum, atau badan lainnya yang tidak berdomisili di Indonesia, berdomisili atau berencana


(3)

40

berdomisili di Indonesia kurang dari 1 (satu) tahun, termasuk staf diplomatik asing di Indonesia

b. Kredit Likuiditas

Kredit Likuiditas adalah kredit yang diberikan Bank Indonesia kepada bank umum, yang digunakan untuk membiayai proyek-proyek nasabahnya, khususnya proyek-proyek yang berkaitan dengan program pemerintah. Contohnya adalah Kredit Usaha Tani (KUT), Kredit Koperasi, pengadaan pangan dan gula, dan investasi.

c. Tagihan kepada Bank Umum dan BPR

Tagihan kepada Bank Umum dan BPR adalah tagihan Bank Indonesia pada bank umum dan BPR baik dalam rupiah maupun valuta asing.

Perubahan nilai beberapa variabel pada data uang primer ini sejalan dengan perkembangan waktu. Dalam perubahannya, sering terjadi korelasi yang kuat antar variabel independen. Hubungan antar variabel-variabel independen inilah yang dikenal dengan multikolinearitas.

Pada data uang primer, uang primer sebagai variabel dependen (Y) sedangkan faktor-faktor yang mempengaruhi uang primer sebagai variabel independen (X). Perubahan nilai dari faktor-faktor yang mempengaruhi uang primer (variabel independen) akan menyebabkan perubahan nilai uang primer (variabel dependen). Kredit likuiditas biasanya cenderung menambah uang primer karena mengurangi deposito pemerintah pada Bank Indonesia (Agung Pribadi, 2011). Kenaikan kredit likuiditas akan diikuti naiknya tagihan kepada bank umum dan BPR.


(4)

41

Dalam kasus ini, diduga terjadi pelanggaran asumsi multikolinearitas diantara variabel-variabel independennya, yaitu variabel kredit likuiditas dan tagihan kepada bank umum dan BPR. Adanya multikolinearitas mengakibatkan estimator metode kuadrat terkecil menjadi tidak efisien. Oleh karena itu, masalah multikolinearitas dianggap sebagai suatu kelemahan pada estimator kuadrat terkecil.

I. Koefisien Korelasi Ganda

Koefisien korelasi ganda digunakan untuk menentukan hubungan dua atau lebih variabel independen dengan satu variabel dependen secara bersamaan. Koefisien korelasi untuk data sampel dinotasikan dengan “ ”, sedangkan koefisien korelasi untuk data populasi dinotasikan dengan “ ”. Untuk mengetahui apakah koefisien korelasi ganda berarti atau tidak, maka dilakukan uji keberartian koefisien korelasi ganda (Sudjana, 2005) dengan menggunakan uji F sebagai berikut:

a. Hipotesis:

(koefisien korelasi tidak berarti) (koefisien korelasi berarti) b. Taraf Nyata:

c. Statistik Uji:

adalah koefisien korelasi determinasi

adalah banyaknya pengamatan

adalah banyaknya variabel independen d. Kriteria Keputusan:

ditolak jika e. Hitungan


(5)

80

DAFTAR PUSTAKA

Agung Pribadi, dkk. (2011). Jumlah Uang Beredar. Diakses dari http://apihnes-pribadi.blogspot.co.id/2013_10_01_archive.html pada tanggal 15 Oktober 2015, Jam 00.35 WIB

Alzaber. (1998). Kombinasi Estimator Regresi Ridge dan Estimator Kudrat Terkecil Restriksi. Tesis. Universitas Gadjah Mada.

Anton, Howard. (2000). Dasar-dasarAljabar Linear. Jilid 2. Batam: Interaksara. Arnita. (2013). Pengantar Statistika. Bandung: Citrapustaka Media Perintis. Berger, J. O. (1980). Statistical Decesion Theory. New York: Springer Verlag. Cullen, Charles G. (1993). Aljabar Linear dan Penerapannya. Jakarta: Gramedia

Pustaka Utama.

Danang Sunyoto.(2010). Uji Khi Kuadrat & Regresi Untuk Penelitian. Edisi Pertama. Yogyakarta: Graha Ilmu.

Draper, N. and Smith, H.(1985). Applied Regression Analysis. New York: John Wiley &Sons.

Dumairy. (2012). Matematika Terapan Untuk Bisnis Dan Ekonomi. Yogyakarta: BPFE Yogyakarta.

El-Dereny, M. & Rashwan, N.I. (2011).Solving Multicolinearity Problem Using Ridge Regression Models. Int. J. Contemp. Math. Sciences, Vol. 6, Hlm. 585-600.

Estira Woro Astrini. (2013). Analisis Regresi Ridge Dua Tahap untuk Permasalahan Multikolinearitas. Skripsi. Universitas Gadjah Mada.

Graybill, F.A., (1976). Theory and Aplication of Linear Model. Duxbury Press North Scitute. Masschusetts.

Greene, William H. (2012). Econometric Analysis Seven Edition. New York: Prentice Hall

Gujarati, Damodar N. (2003). Basic Econometric Forth Edition. New York: Mc Graw-Hall


(6)

81

Hoerl, A.E. and Kennarrd, R.W.(1970).Ridge Regression: Biased Estimation for Nonorthogonal Problems.Technometrics, 12. 55-67.

Kurtner, Michael H. Et al. (2005). Applied Linear Statistical Models Fifth Edition. New York: Mc Graw-Hill.

Leon, Steven J. (2001). Aljabar Linear dan Aplikasinya. Jakarta: Penerbit Erlangga.

Montgomery, douglas C., Elizabeth A. Peck, G. Geoffrey Vining. (2006). Introduction to Linear Regression Analysis Fourth Edition. New York: John Willey and Sons

Mudrajad Kuncoro. (2001). Metode Kuantitatif: Teori dan Aplikasi untuk Bisnis dan Ekonomi. Yogyakarta: AMP YKPN.

Najarian, S., Arashi, M. & Kibria, B.M. (2013): A Simulation Study on Some Restricted Ridge Regression Estimators, Communications in Statistics - Simulation and Computation 42:4, 871-890.

Nanang Pradipta. (2009). Model Regresi Ridge untuk Mengatasi Model Regresi Linear Berganda yang Mengandung Multikolinearitas. Skripsi. Universitas Sumatera Utara.

Sarkar, Nityananda. (1992). A new estimator combining the ridge regression and therestricted least squares methods of estimation, Communications in Statistics - Theory and Methods, 21:7, 1987-2000.

Searle. (1971). Linear Model. New York: John Wiley.

Sembiring, R.K. (1995). Analisis Regresi. Bandung: Institut Teknologi Bandung. Soemartini. (2008). Penyelesaian Multikolinearitas Melalui Metode Ridge

Regression. Skripsi. Universitas Padjajaran, Jatinangor. Sudjana. (2005). Metode Statistika. Bandung: Tarsito

Toutenbuerg, H .(1982). Prior Information In Linear Model. New York: John Wiley & Sons.