BAB 2 TINJAUAN PUSTAKA 2.1 Regresi Linier - Perbandingan Metode Dua Tahap Durbin Dan Theil-Nagar Dalam Mengatasi Masalah Autokorelasi
BAB 2 TINJAUAN PUSTAKA
2.1 Regresi Linier
Analisis regresi linier merupakan suatu metode yang digunakan untuk menganalisis hubungan antarvariabel. Hubungan tersebut dapat diekspresikan dalam bentuk persamaan yang menghubungkan variabel terikat Y dengan satu atau lebih variabel bebas X , X , …, X Dalam hal hanya terdapat satu variabel bebas,
1 2 k .
maka model yang diperoleh disebut model regresi linier sederhana sedangkan jika variabel bebas yang digunakan lebih dari satu, model yang diperoleh disebut model regresi linier berganda (Nachrowi, 2008). Hubungan yang didapat pada umumnya dinyatakan dalam bentuk persamaan matematik yang menyatakan hubungan fungsional antara variabel-variabel. Penentuan variabel mana yang bebas dan mana yang terikat dalam beberapa hal tidak mudah dapat dilaksanakan. Studi yang cermat, diskusi yang seksama, berbagai pertimbangan, kewajaran masalah yang dihadapi dan pengalaman akan membantu memudahkan penentuan. Variabel yang mudah didapat atau tersedia sering digolongkan ke dalam variabel bebas sedangkan variabel yang terjadi karena variabel bebas itu merupakan variabel terikat (Sudjana, 2005). Secara umum bentuk persamaan regresi linier sederhana dapat dituliskan sebagai berikut
- = (2.1)
1
keterangan: , = parameter model regresi linier
1
= kesalahan pengganggu/error = 1,2, … , . Sekarang, , dan tidak diketahui nilainya dan memang sangat sukar
1
diketahui sebab nilainya berubah untuk setiap observasi Y. Akan tetapi ,
1
selalu tetap dan meskipun kita tidak mungkin mengetahui berapa persis nilainya tanpa memeriksa semua kemungkinan pasangan Y dan X, kita dapat menggunakan informasi di dalam data contoh untuk menghasilkan nilai dugaan (estimate) dan bagi dan . Jadi, kita dapat menuliskan
1
1
= . (2.2) �
- 1
Dalam hal ini , melambangkan nilai ramalan � untuk suatu tertentu bila dan telah ditentukan. Persamaan (2.2) dengan demikian dapat digunakan
1
sebagai persamaan peramal, substitusi untuk suatu nilai akan menghasilkan ramalan bagi nilai tengah atau rataan populasi pada nilai tersebut (Draper & Smith,1992).
Dan secara umum bentuk persamaan regresi linier berganda dapat dituliskan sebagai berikut
- =
- 1
(2.3)
1
2 2 ⋯ +
keterangan: , , , … , = parameter model regresi linier
1
2
= kesalahan pengganggu/error = 1,2, … , .
2.2 Metode Kuadrat Terkecil
Dalam menduga nila-nilai parameter , , … , pada model regresi linier, dapat
1
digunakan suatu metode yang didasarkan pada jumlah kuadrat daripada titik-titik pengamatan dengan garis regresi yang sedang dicari harus sekecil mungkin, ini disebut dengan metode kuadrat terkecil atau OLS (Ordinary Least Square).
2.2.1 Prinsip Metode Kuadrat Terkecil
Perhatikan bentuk persamaan regresi linier sederhana berikut:
- = ,
1
untuk = 1,2, … , , sehingga jumlah kuadrat semua kesalahan pengganggu/error dari garis yang sebenarnya adalah
2
2
= ) . (2.4) = ∑ ∑ ( − −
1 =1 =1
Sebagai nilai dugaan kita akan memilih dan yang memiliki nilai yang jika
1
nilai-nilai itu disubstitusikan ke dalam dan dalam persamaan (2.4), maka
1
akan dihasilkan nilai dan yang paling kecil. Kita dapat menentukan
1
dengan cara mendiferensialkan persamaan (2.4) terhadap dan kemudian terhadap dan kemudian menyamakan hasil pendiferensialan itu dengan nol.
1 Sekarang,
= ) −2 � ( − −
1 =1
(2.5) = ( ). −2 ∑ − −
1 1 =1
Sehingga nilai dugaan dan dapat diperoleh dari
1
) = 0 ∑ ( − −
1 =1
(2.6) ( ) = 0
∑ − −
1 =1
dengan mensubstitusikan , untuk , ketika kita menyamakan persamaan
1
1
(2.5) dengan nol. Dari persamaan (2.6) kita memperoleh = 0
∑ − −
1 ∑ =1 =1
(2.7)
2
= 0 ∑ − ∑ −
1 ∑ =1 =1 =1
atau
(2.8)
- =
1 ∑ ∑ =1 =1
2
- 1 =1 =1 =1
= . (2.9) ∑ ∑ ∑
Kedua persamaan ini disebut persamaan-persamaan normal (Draper & Smith, 1992).
Dari persamaan (2.8) diperoleh:
- =
1 � � =1 =1
= � −
1 � =1 =1
∑
1 ∑
−
=1 =1
=
∑ ∑ =1 =1
= (2.10) −
1
= (2.11) � − 1 �.
Substitusi persamaan (2.10) kedalam persamaan (2.9), diperoleh:
∑ ∑
2 =1 =1
- 1
= ∑ ∑
� − � ∑
1 =1 =1 =1 2 ( ) ∑ ∑ ∑
2 =1 =1 =1
- 1
=
1 ∑ ∑
− 2 =1 =1 ( ∑ ) ∑ ∑
2 =1 =1 =1
1 �∑ − � = ∑ − =1 =1 2 2 ) ∑ −(∑ ∑ −∑ ∑
=1 =1 =1 =1 =1
1
� � =
∑ ∑ −∑ =1 =1 =1
= 2 . (2.12)
1 2 ) ∑ −(∑
=1 =1
Makridakis (1992), suatu cara yang sering dipakai untuk menyatakan persamaan regresi adalah dalam bentuk deviasi dari nilai-nilai tengah dan . Data ditransformasi dengan mensubstitusikan:
- = = − � atau �
- Persamaan regresi, , kemudian menjadi:
= = � � − � atau � �.
- 1
� =
( + + + � � =
1 �)
yang dapat disederhanakan menjadi = + +
�
1 1 � − �.
Tetapi karena, = � −
1 �
= � � −
- 1 � +
1 1 � − � dan = .
(2.13) �
1 Demikian pula, dengan substitusi:
2
2
2
= ) = ) . (2.14) ∑ − � −
1
∑ ( ∑ (
=1 =1 =1 Diferensialkan persamaan (2.14) terhadap kemudian samakan persamaan baru
1 yang didapat dengan nol. 2 ∑
=1
= ( )) −2(∑ −
1 1 =1
2
= ) −2(∑ −
1 ∑ =1 =1
2
0 = + 2 ∑
−2 ∑
1 =1 =1 ∑
=1 = .
(2.15)
1 2 ∑ =1
Gujarati (1988), penduga yang diperoleh tadi dikenal sebagai penduga kuadrat terkecil karena diperoleh dari prinsip kuadrat terkecil. Penduga kuadrat terkecil dan dinyatakan dalam nilai-nilai observasi dari sampel sebanyak n pasang
1
nilai (X ,Y ) dan merupakan penduga tunggal (point estimator), maksudnya dari
i i
suatu sampel tertentu hanya dihitung satu nilai dan satu nilai . Penduga
1
dan tersebut setelah dihitung berdasarkan suatu sampel tertentu akan diperoleh
1
nilai dan yang memungkinkan untuk penggambaran kurva garis regresi
1
yang mempunyai sifat-sifat sebagai berikut: 1.
Garis tersebut melalui rata-rata � dan �. Hal ini jelas ditunjukkan oleh persamaan (2.11) dimana = � −
1 � 2.
Nilai rata-rata Y yang ditaksir ( ��) adalah sama dengan nilai rata-rata pengamatan (Y) Bukti :
= �
- 1
= � −
1 � +
1
= ( � +
1 − �) jumlahkan untuk seluruh nilai sampel
= karena maka ∑
� � +
1 ∑ ( − �) ∑ ( − �) = 0 =1 =1 =1
1
= ∑
� � kalikan
=1
1 �
= �
� =1 =
Jadi, �� �
3.
= 0 Rata-rata kesalahan pengganggu/error adalah nol atau
Bukti : = =
1
− � − − = )
� � ( − −
1 =1 =1
= ) � � ( − ( � −
1 �) −
1 =1
( =
� ( − � −
1 − �)) =1
= � ( − �) −
1 � ( − �) =1 =1
1
= 0 kalikan ∑
=1
1 = 0
� =1 = 0. ̅
2.3 Sifat-Sifat Penduga yang Utama
Menurut Nachrowi (2008), sifat-sifat penduga yang utama yaitu: 1.
Tak Bias Bila b adalah penduga dari
(suatu parameter), maka b dikatakan penduga tak bias jika ( ) = 2. Efisien
Bila ̂ dan ̅ keduanya merupakan penduga tak bias untuk , maka ̂ dikatakan lebih efisien dari
̅ jika ( ̂) ≤ ( ̅) 3. Terbaik dan Tak Bias atau BUE (Best Unbiased Estimator)
Bila ̂ merupakan penduga tak bias untuk , maka ̂ dikatakan sebagai penduga terbaik dan tak bias untuk jika untuk setiap penduga tak bias untuk sebut ̅, berlaku
( ̂) ≤ ( ̅) 4. BLUE (Best Linear Unbiased Estimator) Suatu penduga katakan ̂ dikatakan penduga tak bias linier terbaik (BLUE) dari jika tadi linier, tak bias dan mempunyai varians minimum dalam semua kelas penduga linier tak bias dari
.
2.4 Autokorelasi
Salah satu asumsi penting dari beberapa asumsi model regresi linier klasik adalah kesalahan pengganggu/error dari pengamatan yang berbeda ( , ) bersifat bebas. Dengan kata lain asumsi ini mengharuskan tidak terdapatnya autokorelasi di antara error yang ada dalam fungsi regresi populasi. Asumsi ini secara tegas menyatakan bahwa nilai-nilai error antara periode pengamatan yang satu harus bebas (tidak berkorelasi) dengan periode pengamatan yang lain (Vincent Gaspersz, 1991). Istilah autokorelasi (autocorrelation), menurut Maurice G. Kendall dan William R. Buckland, A Dictionary of Statistical Terms : “ Correlation between members
of series observations ordered in time (as in time-series data), or space (as in
cross-sectional data ) ”. Autokorelasi adalah korelasi di antara anggota seri dari
observasi-observasi yang diurutkan berdasarkan waktu (seperti pada data deret- waktu) atau tempat (seperti pada data cross-section).
Dalam hubungannya dengan persoalan regresi, model regresi linier klasik menganggap bahwa autokorelasi demikian itu tidak terjadi pada error. Dengan simbol dapat dinyatakan sebagai berikut: � � = 0 , ≠ .
Model tersebut menganggap bahwa error yang berhubungan dengan data obsevasi ke- yang berhubungan dengan data tidak akan dipengaruhi oleh error observasi ke-
( , = 1,2, … , ). Akan tetapi jika terdapat ketergantungan antara dan maka dikatakan ada autokorelasi, dengan simbol dapat dinyatakan sebagai berikut: � � ≠ 0 , ≠ .
Autokorelasi merupakan bentuk khusus atau kasus khusus dari korelasi. Autokorelasi berkaitan dengan hubungan di antara nilai-nilai yang berurutan dari variabel yang sama. Dengan demikian terlihat adanya perbedaan pengertian antara autokorelasi dan korelasi, meskipun pada dasarnya sama-sama mengukur derajat keeratan hubungan. Korelasi mengukur derajat keeratan hubungan di antara dua buah variabel yang berbeda, sedangkan autokorelasi mengukur derajat keeratan hubungan di antara nilai-nilai yang berurutan pada variabel yang sama atau pada variabel itu sendiri (Vincent Gaspersz, 1991).
2.4.1 Alasan Terjadinya Autokorelasi
Vincent Gaspersz (1991), terjadinya autokorelasi pada suatu model regresi linier dapat disebabkan oleh beberapa hal berikut:
1. Adanya variabel-variabel bebas yang dihilangkan dari model Seperti diketahui bahwa kebanyakan variabel-variabel dalam bidang ekonomi cenderung memiliki autokorelasi, di mana nilai-nilai dari periode sekarang akan tergantung pada periode sebelumnya. Jika variabel yang memiliki sifat autokorelasi ini dihilangkan atau dikeluarkan dari model atau dipisahkan dari sekumpulan variabel-variabel bebas yang lain, maka jelas hal ini akan berpengaruh yang direfleksikan dalam variabel error
, sehingga nilai-nilai error akan berautokorelasi
2. Adanya kesalahan spesifikasi bentuk matematika dari model Jika kita merumuskan atau menetapkan bentuk matematika yang berbeda dari bentuk hubungan yang sebenarnya, maka nilai error akan menunjukka n autokorelasi 3.
Adanya fenomena cobweb
4. Di dalam regresi deret-waktu, jika model regresi mengikutsertakan tidak hanya nilai-nilai sekarang tetapi juga nilai-nilai pada waktu yang lalu sebagai variabel bebas, maka variabel itu disebut sebagai model distribusi “ lags ” 5. Adanya manipulasi data
Di dalam analisis empirik, data mentah sering dimanipulasi. Sebelum membahas manipulasi data, maka perlu dikemukakan bahwa kata manipulasi tidak berkaitan dengan hal-hal yang negatif seperti memalsukan data, mengarang data, dan sebagainya tetapi manipulasi data yang dimaksudkan disini adalah suatu teknik mengubah data yang berkonotasi positif, dimana teknik mengubah data atau memperkirakan data itu dapat dibenarkan tetapi sering menimbulkan masalah yang berkaitan dengan bentuk gangguan.
2.4.2 Konsekuensi Autokorelasi
Jika semua asumsi model regresi linier klasik dipenuhi, teori Gauss-Markov menyatakan bahwa dalam kelas semua penduga tak bias linier penduga OLS adalah yang terbaik yaitu penduga tersebut mempunyai varians minimum (Gujarati, 1988). Akan tetapi jika suatu model regresi linier menunjukkan adanya autokorelasi maka telah disebutkan sebelumnya bahwa penduga parameter
, , , … , yang diperoleh dengan metode OLS tidak lagi bersifat
1
2 BLUE.Gujarati (1988), jika kita tetap melakukan penerapan OLS dalam situasi
autokorelasi, konsekuensi sebagai berikut terjadi: 1.
Jika kita mengabaikan autokorelasi dalam penduga OLS yang dihitung secara konvensional dan variansnya, penduga tersebut masih tetap tidak efisien. Oleh karena itu, selang keyakinannya menjadi lebar dan pengujian arti (signifikan) kurang kuat
2. Jika kita tidak memperhatikan batas masalah autokorelasi dan terus menerapkan formula OLS klasik (dengan asumsi tidak ada autokorelasi) maka konsekuensinya akan lebih serius karena:
2
2
a.) menduga terlalu rendah (underestimate) Varians error � sebenarnya
2
b.) tidak diduga terlalu rendah, varians dan kesalahan standar OLS Jika nampaknya akan menduga varians terlalu rendah dan juga kesalahan standar yang sebenarnya
c.) Pengujian arti (signifikan) t dan F tidak lagi sah, dan jika diterapkan akan memberikan kesimpulan yang menyesatkan secara serius mengenai arti statistik dari koefisien regresi yang diduga 3.
Meskipun penduga OLS tidak bias yang merupakan sifat penyampelan berulang, tetapi dalam satu sampel tertentu penduga tersebut memberikan gamabaran yang menyimpang dari populasi sebenarnya. Seperti telah dikemukakan dalam batasan masalah di bab sebelumnya bahwa kesalahan pengganggu/error mengikuti persamaan berikut:
- =
(2.16)
−1
keterangan: = kesalahan pengganggu/error pada waktu t
= koefisien autokorelasi dengan nilai −1 ≤ ≤ 1 = kesalahan pengganggu/error pada periode
− 1
−1
= kesalahan pengganggu/error yang mana dalam hal ini diasumsikan memenuhi semua asumsi OLS yaitu:
2 ) = 0, ) = , , ) = 0 , .
( ( ( ≠ 0
- Persamaan (2.16) di atas dikenal sebagai autoregresif derajat-satu yang ditulis sebagai AR(1), disebut autoregresif karena persamaan (2.16) diinterpretasikan sebagai regresi atas dirinya sendiri yang terlambat satu periode dan dinamakan derajat-satu karena hanya dan nilai error pada satu periode sebelumnya ( )
−1 saja yang terlibat.
2.4.3 Uji Durbin-Watson
−1 =2 ∑
2 =2
Vincent Gaspersz (1991), J.Durbin dan G.S.Watson dalam dua artikel yang dimuat dalam majalah ilmiah Biometrika pada tahun 1950 dan 1951 telah mengemukakan uji untuk autokorelasi yang populer dengan nama uji Durbin- Watson. Uji Durbin-Watson dapat digunakan untuk menguji hipotesis berikut:
H : = 0 ; tidak terdapat autokorelasi
H
1 :
≠ 0 ; terdapat autokorelasi Untuk menguji H , dapat digunakan uji Durbin-Watson yang dirumuskan sebagai berikut:
2
=2 −2 ∑− −1
)
2 =2 ∑
−1
∑
- ∑
2 =1 =
= ∑ (
2 =1
(2.17) Adapun beberapa asumsi yang melandasi uji Durbin-Watson ini yaitu: 1.
Uji Durbin-Watson diterapkan untuk model regresi yang mencakup parameter , dengan kata lain dipergunakan untuk model regresi yang mengandung intersep. Jika kita mempunyai model regresi tanpa intersep atau model regresi melalui titik asal maka perlu membangun model regresi dengan intersep untuk menghitung nilai error dari model itu 2. Variabel-variabel bebas adalah nonstokastik, atau bersifat tetap dalam penarikan sampel yang berulang (repeated sampling)
3. Bentuk kesalahan pengganggu/error mengikuti pola autoregresif derajat- pertama dengan bentuk persamaan: =
- 4.
−1
Model regresi tidak mencakup nilai-nilai lag dari variabel terikat sebagai suatu variabel bebas
5. Tidak ada pengamatan yang hilang dalam data, dengan demikian uji
Untuk sampel yang berukuran besar, maka bentuk-bentuk: ∑
2 =2
, ∑
−1
2
=2, ∑
2 =1
akan mendekati hasil yang sama atau memiliki besaran yang hampir serupa atau hampir sama besar. Dengan demikian, kita dapat menulis statistik d dalam pendekatan berikut:
Durbin-Watson hanya dapat diterapkan untuk model regresi yang dibangun berdasarkan data yang lengkap.
≈
−1 ≤ ≤ 1 , maka statistik d akan terletak dalam selang (0,4) sehingga dapat ditulis ≤ ≤ 4.
≈ 4, sebaliknya autokorelasi negatif tersebut akan semakin lemah apabila ≈ 2.
< 4 menunjukkan adanya autokorelasi negatif dimana autokorelasi negatif tersebut akan semakin kuat apabila
≈ 0 , dan sebaliknya autokorelasi positif tesebut akan semakin lemah apabila nilai ≈ 2 3. Jika � = −1 maka = 4, dan dalam keadaan ini menunjukkan adanya autokorelasi negatif sempurna. Dengan demikian, jika 2 <
2. Jika � = 1 maka = 0 , dan dalam keadaan seperti ini menunjukkan adanya autokorelasi positif sempurna. Dengan demikian, jika 0 < < 2 menunjukkan adanya suatu autokorelasi positif di mana autokorelasi tersebut akan semakin kuat bersifat positif apabila nilai
1. Jika tidak terdapat autokorelasi, maka � = 0 maka = 2 sehingga apabila berdasarkan perhitungan diperoleh ≈ 2 maka dapat dinyatakan tidak terdapat autokorelasi dalam fungsi regresi
Dari uraian yang dikemukakan, maka dapat diambil kesimpulan tentang beberapa sifat uji Durbin-Watson antara lain:
sehingga ≈ 2(1 − �) . Oleh karena terdapat suatu batasan bahwa
2 ∑ 2 −1 ∑ 2 −1
∑ −1 ∑ 2 −1
� =
). Dan didefinisikan
∑ −1 ∑ 2 −1
≈ 2(1 −
2
∑ −1
∑ 2 −1
−
Keuntungan dari uji Durbin-Watson ini adalah statistik tersebut didasarkan pada error/residual yang diestimasi, yang secara rutin dihitung pada analisis regresi. Dan kelemahan dari uji ini yaitu jika d jatuh dalam daerah yang meragukan atau daerah ketidaktahuan maka kita tidak dapat menyimpulkan apakah autokorelasi ada atau tidak (Gujarati, 1988). Durbin-Watson telah menetapkan batas atas (d U ) dan batas bawah (d L ) untuk taraf nyata tertentu yang cocok untuk menguji hipotesis tentang ada atau tidak adanya autokorelasi. Mekanisme dari uji Durbin-Watson adalah sebagai berikut, dengan mengasumsikan bahwa asumsi yang mendasari pengujian terpenuhi:
1. Lakukan regresi OLS dan dapatkan nilai error/residual 2.
Hitung nilai d 3. Untuk ukuran sampel tertentu dan jumlah variabel bebas tertentu, tentukan nilai kriteria d L dan d U .
4. Menarik kesimpulan dengan mengikuti aturan pengambilan keputusan pada uji Durbin-Watson yang diberikan pada tabel berikut.
Tabel 2.1. Aturan Pengambilan Keputusan pada Uji Durbin-Watson
Hipotesis Nol (H ) Keputusan Jika
Tidak ada autokorelasi positif Tolak H 0 < d < d L Tidak ada autokorelasi positif Tidak ada keputusan d L ≤ d ≤ d UTidak ada autokorelasi negatif Tolak H 4-d < d < 4
L Tidak ada autokorelasi negatif Tidak ada keputusan 4-d U ≤ d ≤ 4-d L Tidak ada autokorelasi positif atau negatif Terima H d < d < 4-d U U2.4.4 Mengatasi Masalah Autokorelasi
Dengan mengetahui konsekuensi dari autokorelasi khususnya kurangnya efisiensi dari penduga OLS kita perlu untuk mengatasinya. Cara mengatasi autokorelasi tersebut bergantung pada pengetahuan yang dimiliki mengenai sifat alamiah dari interdependensi di antara kesalahan pengganggu/ error yaitu pengetahuan mengenai struktur dari autokorelasi. Sebagai permulaan, perhatikan persamaan regresi linier sederhana berikut:
- = (2.18)
1
dan asumsikan bahwa kesalahan pengganggu/error mengikuti AR(1) yaitu = dimana
- −1
−1 ≤ ≤ 1. Dalam hal ini yang menjadi perhatian yaitu
(1) apabila diketahui dan (2) tidak diketahui. Jika koefisien autokorelasi ( ) diketahui maka masalah autokorelasi dapat diselesaikan dengan mudah. Apabila persamaan (2.18) berlaku pada waktu t maka persamaan tersebut juga berlaku pada waktu (
− 1). Dengan demikian,
= . (2.19) + +
1 −1 −1 −1
Kalikan persamaan (2.19) pada kedua sisinya dengan diperoleh, = + . (2.20) +
1
−1 −1 −1Kurangkan persamaan (2.20) dari persamaan (2.18) ( (
) = (1 ) + (2.21)
1
− −1 − ) + − −1 dimana: = .
−
−1
Persamaan (2.21) dapat diekspresikan sebagai:
∗ ∗ ∗ ∗ ∗
- =
(2.22)
1
dimana:
∗ ∗ ∗ ∗
= (1 = ( ); = ; = ( ).
− ); −
1 1 − −1 −1
Karena diasumsikan bahwa memenuhi semua asumsi metode kuadrat terkecil
- * (OLS), maka kita dapat menerapkan metode OLS pada variabel transformasi Y
- * dan X untuk memperoleh penduga parameter yang bersifat BLUE. Melakukan regresi persamaan (2.22) setara dengan menggunakan metode GLS (GeneralizedLeast Square), metode GLS adalah metode OLS yang diaplikasikan pada model yang telah ditransformasi dan memenuhi asumsi-asumsi klasik. Model regresi persamaan (2.21) dikenal sebagai persamaan beda umum (generalized difference equation). Regresi tersebut melibatkan regresi terhadap bukan dalam bentuk awalnya, tetapi dalam bentuk beda (difference) yang diperoleh dengan mengurangkan sebuah proporsi ( =
) dari nilai sebuah variabel pada waktu lampau dengan nilai pada waktu sekarang. Pada prosedur tersebut, kita kehilangan satu observasi karena observasi pertama tidak memiliki nilai sebelumnya yaitu pada observasi pertama nilai dari dan tidak ada.
−1 −1
Untuk menghindari kehilangan satu observasi tersebut, observasi pertama dari
∗ ∗
2
2 dan = dan = .
ditransformasi sebagai berikut :
1
1
1
1
�1 − �1 − Transformasi ini dikenal sebagai transformasi Prais-Winsten (Gujarati, 2012).
Dan jika koefisien autokorelasi ( ) tidak diketahui kita dapat menggunakan metode Dua Tahap Durbin dan Theil-Nagar berikut dalam menduga nilai
� , kemudian mentransformasikan data asli pengamatan ke persamaan beda umum dengan memasukkan nilai � yang diperoleh.
2.5. Pendugaan
Berdasarkan Metode Dua Tahap Durbin J.Durbin pada tahun 1960 mengemukakan suatu metode yang diyakininya mampu untuk menduga parameter koefisien autokorelasi
. Untuk mengetahui lebih jelas mengenai metode ini, misalkan diketahui persamaan beda umum sebagai berikut: = (1
− ) +
1
( − −1
) +
−1
- . (2.23) Prosedur pendugaan berdasarkan metode Dua Tahap Durbin adalah sebagai berikut: 1.
,
∗
2. Karena pendugaaan parameter pada tahap pertama Dua Tahap Durbin adalah konsisten, nilai error dalam hal ini tidak mempengaruhi sifat asimtotik dari penduga parameter kesalahan pengganggu/errornya. Sifat-sifat dari penduga kuadrat terkecil menunjukkan kesamaan asimtotik
Metode Dua Tahap Durbin memiliki karakteristik sebagai berikut : 1. Parameter dari persamaan (2.23) di atas diduga dengan metode kuadrat terkecil (OLS), tahapan ini merupakan tahap pertama Dua Tahap Durbin
dibangun model regresi menggunakan metode OLS. Prosedur ini dikenal sebagai tahap kedua dari metode Dua Tahap Durbin, dengan demikian usaha mengatasi autokorelasi secara umum adalah membangun persamaan beda umum (Vincent Gaspersz, 1991).
∗
dan
∗
Kemudian berdasarkan variabel transformasi
−1 ).
= ( − �
)
−1
−1
= ( − �
∗
2. Setelah memperoleh nilai � maka transformasikan variabel-variabel asli ke dalam variabel-variabel transformasi berikut :
Pada tahap pertama melakukan pendugaan terhadap model persamaan (2.24), jadi meregresikan terhadap
yang dipergunakan sebagai koefisien penduga parameter autokorelasi dan dianggap sebagai � .
−1
berdasarkan metode OLS kita menduga koefisien regresi dari
−1
,
Meskipun teknik pendugaan semacam ini berbias tetapi tetap konsisten sebagai penduga dengan koefisien kuadrat terkecil dari model regresi biasa yang mengandung variabel tertinggal atau keterlambatan periode, apakah benar atau tidak kesalahan pengganggu/error terdistribusi secara normal. Akhirnya, suatu metode diusulkan untuk suatu model berbeda yang tidak memiliki variabel bebas tertinggal tetapi kesalahan pengganggu/error mempunyai struktur autoregressif. Metode ini terbukti efisien untuk sampel yang besar ( J.Durbin, 1960). Metode tersebut adalah metode Dua Tahap Durbin.
2.6. Pendugaan
Berdasarkan Metode Theil-Nagar Terdapat suatu hubungan antara statistik d Durbin-Watson dengan koefisien autokorelasi
, yang diperkirakan sebagai berikut: . (2.24)
≈ 2(1 − �) atau � ≈ 1 −
2 Hubungan tersebut akan cukup baik apabila ukuran sampel besar, akan tetapi
tidak untuk ukuran sampel kecil. Oleh karena itu Theil-Nagar telah memodifikasi statistik d tersebut, sehingga � berdasarkan statistik d menjadi
2
2 �1− �+
2
(2.25)
2
2 � =
−
keterangan: = banyaknya pengamatan (ukuran sampel) = statistik uji Durbin-Watson = banyaknya parameter yang diduga dalam model regresi.
Setelah memperoleh nilai �, langkah selanjutnya yaitu membangun persamaan beda umum kemudian mentransformasikan variabel-variabel asli ke dalam variabel-variabel transformasi berikut:
∗
= ( ) − �
−1 ∗
= ( ) − �
−1 (Vincent Gaspersz, 1991).