BAB II LANDASAN TEORI 2.1 Aljabar Matriks 2.1.1 Definisi - Analisis Heteroskedastisitas Pada Regresi Linier Berganda Dan Cara Mengatasinya

BAB II LANDASAN TEORI

2.1 Aljabar Matriks

2.1.1 Definisi Matriks

  Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda “[ ]” atau “( )”. Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut : Atau juga dapat ditulis :

  A

  = [ ] i = 1, 2,…, m ; j = 1, 2,…, n

  Determinan Matriks

  Determinan adalah semua hasil perkalian elementer yang bertanda dari suatu matriks A dan dinyatakan dengan det (A). Misalkan A = [ ] adalah matriks nxn. Fungsi determinan dari A ditulis dengan det (A) atau |A|. Secara matematiknya ditulis : Dengan merupakan himpunan S = {1, 2, …, n}.

  Teorema

  Jika A = [ ] adalah matriks nxn yang mengandung sebaris bilangan nol, maka det(A) = 0.

  Teorema

  Jika A adalah matriks segitiga nxn, maka det(A) adalah hasil kali elemen

  • – elemen pada diagonal utama, yaitu

  Teorema Jika A adalah sebarang matriks kuadrat, maka . Invers Matriks

  Misalkan A matriks nxn disebut non singular (invertible) jika terdapat matriks B maka

  AB = BA = I

  Matriks B disebut invers dari A jika tidak terdapat matriks B maka matriks A disebut singular (non-invertible).

  Secara umum invers matriks A adalah :

  Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan adalah kofaktor elemen-elemen Sehingga dapat ditulis dalam bentuk matriks sebagai berikut : dengan :

  Sifat

  • – sifat invers : a.

  adalah non singular dan Jika A adalah matriks non singular, maka b.

  Jika A dan B adalah matriks non singular, maka AB adalah non singular dan

2.2 Regresi Linier Berganda

  • – Dalam menentukan nilai variabel tidak bebas (Y), perlu diperhatikan variabel variabel bebas (X) yang mempengaruhinya terlebih dahulu, dengan demikian harus diketahui hubungan antara satu variabel tidak bebas (Dependent Variable) dengan beberapa variabel lain yang bebas (Independent Variable). Untuk meramalkan Y, apabila semua variabel bebas diketahui, maka dapat dipergunakan model persamaan regresi linier berganda sebagai berikut:

  Y     X   X   X    X   (2.1) 1 1 i 2 2 i 3 3 i k ki i ...

  dimana: Y = variabel tidak bebas

  X , 1 i X ,..., 2 i ki X = variabel bebas

  k

  1 ... 3 2 1 2 1 3 2 1 3 33 23 13 2 32 22 12 1 31 21 11 3 2 1 Dengan k < n yang berarti banyak observasi harus lebih banyak dari pada banyak variabel bebas, akan diperoleh: (2.2) atau

    

       ...

  ... ...

  1 ... ... ...

  ...

  1 ...

  1 ...

  Salah satu metode estimasi parameter untuk regresi linier berganda adalah

  X X

  

Ordinary Least Square (OLS). Konsep dari metode OLS adalah menaksir parameter

  regresi dengan meminimumkan jumlah kuadrat dari error. Tujuan OLS adalah meminimumkan jumlah kuadrat error yaitu:

  S

  =

    n i i 1 2

  

  = 2 2 2 2 1 ... n

  X X Y Y Y Y

  X X

    

         

  ,..., , 2 1

  = parameter koefisien regresi variabel bebas  = intersep yaitu titik potong antara regresi dengan sumbu tegak y bila x= 0 k = Jumlah variabel bebas pada observasi ke-i i = Banyak pengamatan i

   = Variabel kesalahan ke-i Apabila dinyatakan dalam bentuk matriks

         

         

          

         

         

  X X

          

         

  n k kn n n n k k k n

  X X

  X X

  X X

  X X

       

  • –nya adalah

  X T T T    2

  maka,

  w dz dy  , T T w dz dy  , z dw dy  ,dan T T z dw dy

  Sehingga didapatkan hasil turunan jumlah kuadrat error sebagai berikut:

  

   S

  = T T T T T

  X X

  X X y

  X ) (

  2

       =  

  X X

  X X y

  = 

  , dengan aturan penurunan skalar berikut: Misalkan z dan w adalah vektor vektor berordo mx1, sehingga y =z T

  X X y

  X T T

  2

  2  

  (2.5) dan hasil estimasi parameter  didapatkan dengan menyamakan hasil turunan jumlah kuadrat error dengan nol, sehingga pada saat hasil turunan jumlah kuadrat error disamakan dengan nol parameter  menjadi 

  ˆ

  , dan diperoleh: ˆ

  2  2   

  X X y

  X T T y

  X X

  X T T

  2 ˆ

  2 

  w adalah skalar,

  

  =

  =

           

       

  2 2 2 2 1 2 2 2 2 1 ...

  ... n n

    

     =

    T =

     

   

  X y X y T  

  =

     

   

  X y X y T T   ) (

     

  (2.4) Untuk mengestimasi parameter regresi ) (  maka jumlah kuadrat error harus diminimumkan (Supranto, 2009: 241 -242), hal tersebut bisa diperoleh dengan melakukan turunan pertama terhadap ) (

   

  X y X y T T T   =    

  

X

X y

  X X y y y T T T T T T   

  Karena 

  X y T

  adalah scalar, maka matriks transpose

    y

  X X y T T T T

     (2.3)

  Jadi

  S

  =   

  X X y X y y T T T T T   2

  

  

    

             

  )) adalah yang terendah, maka bisa diperlihatkan sebagai berikut:

  ˆ

  adalah penaksir OLS yang paling baik (Best Estimator) dalam arti taksiran variansi parameter (Var( 

  

ˆ

  (2.7) Untuk dapat menunjukkan bahwa 

  X 1 ) (

  E E E Cov      ˆ ˆ ˆ ˆ ˆ

  X X

    T T

   

  X 1 1 ) ( ) (  

  X X

  X X

       T

   

    T T T T

  ˆ (

    

           

  k k E E E E E E

  ˆ ( 2 2 1 1 2 2 1 1 k k

  ( )

  ) ˆ

  ( )

   

  ( ) ˆ

  ( ) ˆ

  ) ˆ

   

   

         

            

  X X

  X X T T 1 ) (

  ˆ

     

     

  

   

  X E E T T 1 ˆ

  X X

    y

  adalah estimasi linier tak bias dari 

  X X

  ˆ

  (2.6) Akan ditunjukan bahwa 

  

  X T T 1 ) (

  X X

  = y

  E y

  X T T 1

  X X

  Dengan mensubtitusi persamaan (2.2) ke dalam persamaan (2.5) didapat: 

    

      

  X T T 1 ) (

  X X

  = y

  ˆ

  ˆ adalah estimasi linier tak bias dari  .

    

  dari sini terbukti bahwa 

  

  

  

  X X T T 1

  X X

  

  

  2

  ˆ ˆ ˆ ˆ ˆ 

  

  EEE   EE

  (   ) (   ) (   ) (   ) (   ) 1 1 1 1 2 2 1 1 k k2

  ˆ ˆ ˆ ˆ ˆ

  EEE   EE

  (   ) (   ) (   ) (   ) (   ) 1 1 2 2 2 2 2 2 k k

   

   

       2

  ˆ ˆ ˆ ˆ ˆ

  EEEE   E

  (   ) (   ) (   ) (   ) (   )  1 1 k k 2 2 k k k k

   

  ˆ ˆ ˆ ˆ ˆ 

  

  Var CovCov

  (  ) (  ,  ) (  ,  ) 1 1 2 1 k

   ˆ ˆ ˆ ˆ ˆ

  Cov VarCov

  (  ,  ) (  ) (  ,  ) 1 2 2 2 k

   

   

      

   ˆ ˆ ˆ ˆ ˆ

  Cov ( , ) Cov ( , )  Var ( )

        1 k 2 k k

   Jelas terlihat bahwa variansi adalah anggota dari diagonal utama, sedangkan kovarian adalah unsur

  • –unsur diluar diagonal utama. Kovariansi tersebut bisa dituliskan dalam notasi matriks sebagai berikut: T

    ˆ ˆ ˆ ˆ ˆ

      

  CovEEE          

    T   ˆ ˆ  E      

        1 1 T T T T T   

    E  

  X X X     

  X X X       

      

T

 T T T T1  1

    E

  X X X

  X X X  

         

    T T T T   1 1 E

  X X

  X X

  X X   

            T T T T1  1

  X X

  X E

  X X

  X

  

        T T T1  1

  X X

  X V

  X X

  X   

  (2.8)

     

  Dengan

  V    adalah matriks diagonal. Pada saat variansi error bersifat 2 V

  I

  homoskedastisitas, maka bisa ditulis    dengan asumsi tersebut persamaan

   

  menjadi: T T T   1 2 1

  ˆ Var

  X X

  X IX

  X X

    

       

     

   )=0 2.

  ˆ ˆ 

  

  X X Var T

    (2.11)

  Dalam regresi linier berganda, ada beberapa asumsi yang harus dipenuhi agar tahap estimasi yang diperoleh benar dan efektif, bila memenuhi teorema Gauss Markov sebagai berikut (Nachrowi, 2002:123): 1.

  Rata –rata (harapan) variabel  bernilai nol atau E(

  Tidak terdapat korelasi serial atau autokorelasi antar variabel error untuk setiap observasi atau Cov( i  , j  )=0 ; i  j.

  (2.10) dengan variansi taksiran ini diperoleh variansi parameter regresi sebagai berikut:

  3. Memiliki error yang bersifat homoskedastisitas atau Var ( 2 )  

   i i

  X .

  4. Nilai variabel (X) tetap atau nilainya independen terhadap factor error (

   )

  atau Cov(X,  )=0 5. Model regresi dispesifikasi secara benar, dan 6. Tidak ada hubungan linier (kolinieritas) antar variabel –variabel bebas.

  Ada beberapa penyimpangan asumsi dalam regresi linier berganda, yakni: 1.

      1 2

   

  I X

      1 2

  X X

  X X

  X T T T 1 1 2  

     

  I X

  X T 1 2

   

  ˆ

  X X T

   (2.9)

  Apabila variansi error tidak diketahui, maka harus didapat taksirannya, dan untuk taksiran variansi error dilakukan dengan menaksir konstanta variansi error

  ) ˆ ( 2

   sebagai berikut:

  k n n i i  

   1 2 2

  Multikolinieritas

  Istilah ini diciptakan oleh Ragner Frish, yang berarti ada hubungan linier yang sempurna atau eksak diantara variabel-variabel bebas dalam model regresi

2.3 Heteroskedastisitas

  ) (

  Metode pengujian yang bisa digunakan untuk menguji heteroskedastisitas adalah sebagai berikut:

  Unsur heteroskedastisitas menyebabkan hasil dari t-test dan F-test menyesatkan, karena kedua uji tersebut menggunakan besaran variansi taksiran, lebih besarnya variansi taksiran dibanding variansi sebenarnya akan menyebabkan standar taksiran error juga lebih besar, sehingga interval kepercayaan sangat besar pula. (Nachrowi, 2002:133).

  , i=1,2,…,n apabila asumsi ini tidak terpenuhi maka yang terjadi adalah sebaliknya, yakni heteroskedastisitas. Heteroskedastisitas berarti variansi error berbeda dari suatu observasi ke observasi lainnya. Sehingga setiap observasi mempunyai reliabilitas yang berbeda.

   i E

   

  ) adalah harus terdapat variansi yang sama dari setiap error-nya atau homoskedastisitas, secara simbolis 2 2

  2. Heteroskedastisitas Salah satu asumsi dasar yang harus dipenuhi adalah varians error harus konstan (Var ( 2

  Unbiased Estimator

  Salah satu asumsi yang harus dipenuhi agar model bersifat BLUE (Best Linear

   tidak berkorelasi.

  3. Autokorelasi Autokorelasi merupakan gangguan pada fungsi yang berupa korelasi diantara variabel error, ini berarti tidak terpenuhinya asumsi yang menyatakan bahwa nila-nilai variabel

  heteroskedastisitas. Data cross-section cenderung memuat unsur heteroskedastisitas karena pengamatan dilakukan pada individu yang berbeda pada saat yang sama.

  X ), jika tidak konstan, maka terdapat unsur

  )    i i

2.3.1 Teknik Mendeteksi Heteroskedastisitas

  1. Melihat scatter plot (nilai prediksi dependen ZPRED dengan residual SRESID) Metode ini yaitu dengan cara melihat grafik scatterplot antara standardized predicted value (ZPRED) dengan studentized residual (SRESID). Ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi – Y sesungguhnya).

  Dasar pengambilan keputusan yaitu:  Jika ada pola tertentu, seperti titik –titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi heteroskedastisitas.

   Jika tidak ada pola yang jelas, seperti titik –titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

  2. Uji Goldfeld – Quandt Adapun langkah –langkah pada metode ini adalah sebagai berikut: a.

  Urutkan data X berdasarkan nilainya b.

  Bagi data menjadi 2, satu bagian memiliki nilai yang tinggi, bagian lainnya memiliki nilai yang rendah, sisihkan data pada nilai tengah c.

  Lakukan regresi pada masing –masing data d.

  Buatlah rasio RSS(Residual Sum Square =error sum if square) dari

  RSS 2

  regresi kedua terhadap regresi pertama ( ), sehingga didapat

  RSS 1 RSS 2 F hitung = .

  RSS 1

  e. tabel dengan menggunakan derajat kebebasan (degree of Lakukan uji F

  freedom ) sebesar (n-d-2k)/2, dengan:

  n = banyaknya observasi d = banyaknya data atau nilai observasi yang hilang k =banyaknya parameter yang diperkirakan. Dan bila F hitung tabel , maka ada heteroskedastisitas dalam hal lain

  ≥ F tidak ada heteroskedastisitas. Pada Uji Goldfeld

  • –Quant seandainya tidak ada data yang dibuang (d=0) tes masih berlaku tetapi kemampuan untuk mendeteksi adanya heteroskedastisitas agak berkurang.

3. Uji Park

  Untuk pengujian heteroskedastisitas melalui pengujian hipotesis dapat dilakukan dengan uji park.R.E. Park pada tahun 1966 mengemukakan keyakinan bahwa terdapat suatu hubungan fungsional antara ragam galat, yang bersifat heteroskedastisitas dan variabel penjelas, X. Park merumuskan bentuk fungsional itu sebagai berikut:

  Atau: ln di mana adalah bentuk gangguan yang bersifat stokastik.

  Karena pada umumnya tidak diketahui, park mengunakan sebagai variabel proxy, kemudian merumuskan model regesi sebagai berikut: =

  Berdasarkan uji park, kita melakukan pengujian hipotesis tentang parameter dalam model regresinya, apabila koefisien besifat nyata dalam statistik, maka menujukkan hetersokedastisitas dalam data, sebaliknya apabila uji terhadap koefisien bersifat tidak nyata secara statistik, maka menujukan bahwa asumsi homoskedastisitas dari model regresi dapat dipenuhi. Langkah-langkah pengujiannya adalah sebagai berikut: a. Terapkan ordinary least square estimation (0LSE) untuk menaksir model: b. Menerapakan OLSE untuk menaksir ln dengan menggunakan ln .

4. Uji White

  Dalam implementasinya, model ini relative lebih mudah dibandingkan dengan uji

  • –uji lainnya. Perhatikan persamaan berikut:

  Y     x   x   1 1 i i i 2

2

Berdasarkan regresi yang mempunyai tiga variabel bebas diatas, dapat

  dilakukan uji white dengan beberapa tahapan prosedur, yaitu: 2 a.

   ˆ i

  Hasil estimasi dari model diatas akan menghasilkan nilai error, yaitu : b.

  Buat persamaan regresi: 2 2 2

   ˆ     x   x   x   x   x xv i i i i i i i i 1 1 2 2 3 1 4

2

5 1 2 Perhatikan model diatas, uji ini mengasumsikan bahwa varian error merupakan

  • – fungsi yang mempunyai hubungan dengan variabel bebas, kuadrat masing masing variabel bebas, dan interaksi antar variabel bebas.

  c.

  Dengan hipotesis: H : Homoskedastisitas / tidak heteroskedastisitas H 1 : Heteroskedastisitas.

  2 Sampel berukuran n dan koefisien determinasi R yang didapat dari regresi

  akan mengikuti distribusi Chi- Square dengan derajat bebas jumlah variabel bebas atau jumlah koefisien regresi diluar intercept. Dengan demikian, formulasi Uji White adalah sebagai berikut : 2 2

  nR

  ~  2

  2

  d. >  tabel, maka tolak H . Sebaliknya jika Kriteria uji white adalah jika nR

  2 2

   tabel, maka terima H nR < .

2.4 Metode Weight Least Square (WLS)

2 Apabila variansi error (  ) diketahui atau dapat diperkirakan, cara yang paling

  

  mudah untuk mengatasi adanya heteroskedastisitas adalah dengan metode kuadrat terkecil terboboti (Weighted Least Square) yang memberikan hasil bersifat BLUE.

  (Gujarati, 2010: 493).

  Untuk menggambarkan metode ini, akan diberikan model sebagai berikut:

         Y   i i i i k ki i 1 X1 2 X2 3 X ... 

3

X

  Untuk mendapatkan taksiran variansi parameter regresi, diasumsikan untuk sementara 2 bahwa variansi error sebenarnya (  ) untuk setiap observasi diketahui, sehingga

  

  transformasi persamaan yang dihasilkan dari model regresi linier berganda adalah:

  Y

  X X i 1  1 i 2 i i     ... 

     1 2     

      

  Transformasi ini dilakukan dengan membagi baik sisi kiri maupun sisi kanan regresi  i

   ). Sekarang anggaplah dengan akar variansi error ( v  dan v i bisa disebut i

  

  

  

  faktor error yang ditransformasikan, apabila faktor error tersebut bersifat homoskedastisitas, maka bisa diketahui bahwa estimator OLS dari parameter- parameter pada persamaan tersebut bersifat BLUE. Untuk melihat bahwa faktor error

  (v i ) homoskedastisitas bisa dengan cara berikut: 2 2 iv i2

  

  

  Sehingga 2   2 i

  E( v )  E i 2

    

  

    2  

  1 2 E vE (  ) i i

    2

    

  

   