Metode Mengestimasi Parameter
6.3. Metode Mengestimasi Parameter
Salah satu langkah pokok dalam pemodelan statistika adalah mengestimasi parameter yang menjadi kepentingan. Dalam model linier ada dua kelom- pok parameter yang menjadi kepentingan yaitu yang paling penting adalah
UNEJ
parameter efek tetap atau parameter regresi β j (j = 0, 1, 2, ..., k tergantung pada dimensinya) dan biasanya diperlukan juga mengestimasi parameter dis-
persi (misalnya ,σ tergantung pada model linier yang dihadapi). Kadang- Daftar Isi kadang parameter dispersi ini diasumsikan diketahui. Ada dua metode yang
banyak dipakai dalam mengestimasi parameter efek tetap dalam model linier Judul yaitu:
◭◭ ◭ ◮ 1. metode kuadrat terkecil (least square method) dan ◮◮
2. metode likelihood maksimum (maximum likelihood method).
Hal. 172 dari 234
6.3.1. Metode kuadrat terkecil
Cari Halaman
Pada dasarnya parameter yang diestimasi adalah parameter dari garis re- gresi dari model yang mewakili populasi. Estimasi ini diperoleh berdasarkan
Kembali
informasi atau sebaran sampel yang dimiliki. Metode least square, menggu- nakan pendekatan geometris. Secara geometris, garis yang paling mewak-
Layar Penuh
ili sebaran sampel adalah garis yang mempunyai simpangan minimum, atau galat terkecil dengan pencaran data. Untuk memudahkan perhitungan, jarak yang aslinya berupa harga mutlak dari galat, |ǫ Tutup
i | diganti dengan kuadrat galat
tersebut e 2 i .
Keluar
Langkah langkah dalam mengestimasi parameter dari sampel sebanyak n dengan metode kuadrat terkecil adalah:
1. mengubah persamaan model
y i =x i β +ǫ i menjadi ǫ i =x i β
i ; −y UNEJ
2. mencari bentuk kuadrat dan jumlah kuadrat dari kesalahan, yaitu Q = P
n Daftar Isi
i=1 ǫ 2 i ;
3. menghitung penduga parameter dengan mencari minimum dari Q ter-
Judul
hadap β j . Dalam pembicaraan kita di bidang statistika, kalau kita membicaraan ten-
tang maksimum/ minimum suatu fungsi, maka yang menjadi kepentingan kita adalah nilai peubah atau paremeter, yang menyebabkan fungsi itu men-
Hal. 173 dari 234
capai maksimum/ minimum dan bukan nilai maksimum/ atau minimum fungsi tersebut.
Cari Halaman
6.3.2. Metode likelihood maksimum
Kembali
Kalau metode kuadrat terkecil menggunakan pendekatan geometris, maka metode likelihood maksimum menggunakan pendekatan distribusi. Dari data
Layar Penuh
yang dimiliki serta asumsi distribusi yang diberlakukan pada data tersebut kita memperoleh fungsi likelihood dari data tersebut. Jelasnya langkah terse- but dapat diuraikan sebagai berikut. Langkah- langkah dalam mencari pen- Tutup
duga likelihood maksimum adalah seperti berikut ini.
Keluar
1. Tentukan likelihood dari data Y = (Y T
1 ,Y 2 ,···,Y n ) ,yang mempunyai
fungsi kepadatan peluang masing-masing ψ(θ), yaitu
Fungsi likelihood tidak lain adalah fungsi kepadatan probabilitas darai Y , hanya saja nilai y dianggap diketahui (dari data), tetapi parame- Daftar Isi
ternya (θ) yang tidak diketahui.
Judul
2. Tentukan maksimum dari L atau log −L terhadap parameter θ.
6.3.3. Mencari maksimum dengan metode numerik
Hal. 174 dari Pada umumnya maksimum suatu fungsi tidak bisa diperoleh secara anali- 234 tik, oleh karenanya diperlukan pendekatan yang disebut metode numerik.
Mencari maksimum/ minimum suatu fungsi F () pada dasarnya sama dengan
Cari Halaman
mencari nilai nol atau penyelesaian fungsi f (θ) = F ′ (θ) = dF/dθ. Metode nu- merik yang biasa dipakai dalam mencari maksimum likelihood adalah Metode
Kembali
Newton-Raphson yang merupakan metode iteratif. Langkah- langkah pokok dari metode Newton-Raphson ini dapat diuraikan sebagai berikut:
Layar Penuh
1. menentukan nilai awal b 0
2. melakukan iterasi sampai konvergen (sampai kriteria konvergensi ter- Tutup
penuhi)
Keluar Keluar
dimana f () = F ′ ().
Daftar Isi
Apabila peubah atau parameternya berdimensi tinggi, maka fungsi turunan pertamanya berupa vektor (D) sedang turunan keduanya akan berupa ma- Judul
triks yang disebut matriks Hessian (H). Bentuk multivariat dari Newton- ◭◭ ◭ ◮ Raphson ini adalah ◮◮
1 =b 0 −D (b 0 ) H (b 0 )
Hal. 175 dari Lebih khusus lagi, dalam statistika matriks Hessian ini kadang kadang lebih 234 sederhana jika diganti dengan negatif dari nilai harapan nya yang disebut
matriks informasi, dinotasikan I = −E[H]. Persamaan iterasi yang menggu-
Cari Halaman
nakan matriks informasi dikenal dengan metode skoring dari Fisher (Fisher’s scoring) yang ditunjukkan oleh persamaan berikut.
Layar Penuh
Ada tiga hal penting yang harus diperhatikan dalam mengaplikasikan metode numerik (Newton-Raphson maupun Skoring dari Fisher) yaitu:
Tutup
1. algorithma yang dipakai (lengkap atau terpartisi),
Keluar
2. nilai awal dan
3. kriteria konvergensi
Nilai awal untuk b 0 ditentukan sedemikian sehingga pada saat itu b 0 = y. Sedangkan kriteria konvergensi bisa menggunakan maks(|b 1 −b 0 |) , untuk
UNEJ
bilangan positif sangat kecil, misalnya 10 − 3 .Jika parameter yng diestimasi
terdiri atas beberapa unsur, maka ada beberapa cara yang ditempuh dalam
Daftar Isi
mengestimasi dengan menggunakan metode Newton-Raphson yaitu seperti berikut ini.
Judul
1. Mengestimasi secara serempak dengan memperlakukan parameteryang diestimasi sebagai sebuah vektor penduga. Cara ini disebut pendekatan
◭◭ ◭ ◮ algoritma penuh. Cara ini cocok apabila setiap unsur dari vektor pa- ◮◮ rameter mempunyai sifat-sifat (konvergensi) yang relatif sama.
Hal. 176 dari 234
2. Mengelompokkan unsur-unsur parameter yang sejenis. Unsur-unsur se- jenis lalu diberlakukan sebagai suatu vektor. Dengan demikian akan diperoleh lebih dari satu vektor parameter. Masing-masing vektor pa- Cari Halaman rameter yang diestimasi dengan cara multivariate, tetapi pendugaan vektor satu dengan lainnya dilakukan secara selang-seling. Selang sel-
Kembali
ing dapat dilakukan pada setiap iterasi (nested), atau setelah masing- masing konvergen pada kondisi tertentu(zig-zag). Algoritma seperti ini
Layar Penuh
disebut algoritma terpartisi (partitioned algorithm). Pengelompokan biasanya dilakukan berdasarkan parameter regresi (β) dan parameter dispersi (φ) yang biasanya kedua jenis parameter ini mempunyai sifat- Tutup
sifat yang berbeda terutama dilihat dari kecepatan konvergensinya.
Keluar
Pembahasan kedua algoritma di atas (penuh dan terpartisi) dapat dilihat
pada Smyth [ 19 ] dan Smyth [ 20 ].
UNEJ
Daftar Isi
Judul
Hal. 177 dari 234
Cari Halaman
Kembali
Layar Penuh
Tutup
Keluar