Metode Mengestimasi Parameter

6.3. Metode Mengestimasi Parameter

Salah satu langkah pokok dalam pemodelan statistika adalah mengestimasi parameter yang menjadi kepentingan. Dalam model linier ada dua kelom- pok parameter yang menjadi kepentingan yaitu yang paling penting adalah

UNEJ

parameter efek tetap atau parameter regresi β j (j = 0, 1, 2, ..., k tergantung pada dimensinya) dan biasanya diperlukan juga mengestimasi parameter dis-

persi (misalnya ,σ tergantung pada model linier yang dihadapi). Kadang- Daftar Isi kadang parameter dispersi ini diasumsikan diketahui. Ada dua metode yang

banyak dipakai dalam mengestimasi parameter efek tetap dalam model linier Judul yaitu:

◭◭ ◭ ◮ 1. metode kuadrat terkecil (least square method) dan ◮◮

2. metode likelihood maksimum (maximum likelihood method).

Hal. 172 dari 234

6.3.1. Metode kuadrat terkecil

Cari Halaman

Pada dasarnya parameter yang diestimasi adalah parameter dari garis re- gresi dari model yang mewakili populasi. Estimasi ini diperoleh berdasarkan

Kembali

informasi atau sebaran sampel yang dimiliki. Metode least square, menggu- nakan pendekatan geometris. Secara geometris, garis yang paling mewak-

Layar Penuh

ili sebaran sampel adalah garis yang mempunyai simpangan minimum, atau galat terkecil dengan pencaran data. Untuk memudahkan perhitungan, jarak yang aslinya berupa harga mutlak dari galat, |ǫ Tutup

i | diganti dengan kuadrat galat

tersebut e 2 i .

Keluar

Langkah langkah dalam mengestimasi parameter dari sampel sebanyak n dengan metode kuadrat terkecil adalah:

1. mengubah persamaan model

y i =x i β +ǫ i menjadi ǫ i =x i β

i ; −y UNEJ

2. mencari bentuk kuadrat dan jumlah kuadrat dari kesalahan, yaitu Q = P

n Daftar Isi

i=1 ǫ 2 i ;

3. menghitung penduga parameter dengan mencari minimum dari Q ter-

Judul

hadap β j . Dalam pembicaraan kita di bidang statistika, kalau kita membicaraan ten-

tang maksimum/ minimum suatu fungsi, maka yang menjadi kepentingan kita adalah nilai peubah atau paremeter, yang menyebabkan fungsi itu men-

Hal. 173 dari 234

capai maksimum/ minimum dan bukan nilai maksimum/ atau minimum fungsi tersebut.

Cari Halaman

6.3.2. Metode likelihood maksimum

Kembali

Kalau metode kuadrat terkecil menggunakan pendekatan geometris, maka metode likelihood maksimum menggunakan pendekatan distribusi. Dari data

Layar Penuh

yang dimiliki serta asumsi distribusi yang diberlakukan pada data tersebut kita memperoleh fungsi likelihood dari data tersebut. Jelasnya langkah terse- but dapat diuraikan sebagai berikut. Langkah- langkah dalam mencari pen- Tutup

duga likelihood maksimum adalah seperti berikut ini.

Keluar

1. Tentukan likelihood dari data Y = (Y T

1 ,Y 2 ,···,Y n ) ,yang mempunyai

fungsi kepadatan peluang masing-masing ψ(θ), yaitu

Fungsi likelihood tidak lain adalah fungsi kepadatan probabilitas darai Y , hanya saja nilai y dianggap diketahui (dari data), tetapi parame- Daftar Isi

ternya (θ) yang tidak diketahui.

Judul

2. Tentukan maksimum dari L atau log −L terhadap parameter θ.

6.3.3. Mencari maksimum dengan metode numerik

Hal. 174 dari Pada umumnya maksimum suatu fungsi tidak bisa diperoleh secara anali- 234 tik, oleh karenanya diperlukan pendekatan yang disebut metode numerik.

Mencari maksimum/ minimum suatu fungsi F () pada dasarnya sama dengan

Cari Halaman

mencari nilai nol atau penyelesaian fungsi f (θ) = F ′ (θ) = dF/dθ. Metode nu- merik yang biasa dipakai dalam mencari maksimum likelihood adalah Metode

Kembali

Newton-Raphson yang merupakan metode iteratif. Langkah- langkah pokok dari metode Newton-Raphson ini dapat diuraikan sebagai berikut:

Layar Penuh

1. menentukan nilai awal b 0

2. melakukan iterasi sampai konvergen (sampai kriteria konvergensi ter- Tutup

penuhi)

Keluar Keluar

dimana f () = F ′ ().

Daftar Isi

Apabila peubah atau parameternya berdimensi tinggi, maka fungsi turunan pertamanya berupa vektor (D) sedang turunan keduanya akan berupa ma- Judul

triks yang disebut matriks Hessian (H). Bentuk multivariat dari Newton- ◭◭ ◭ ◮ Raphson ini adalah ◮◮

1 =b 0 −D (b 0 ) H (b 0 )

Hal. 175 dari Lebih khusus lagi, dalam statistika matriks Hessian ini kadang kadang lebih 234 sederhana jika diganti dengan negatif dari nilai harapan nya yang disebut

matriks informasi, dinotasikan I = −E[H]. Persamaan iterasi yang menggu-

Cari Halaman

nakan matriks informasi dikenal dengan metode skoring dari Fisher (Fisher’s scoring) yang ditunjukkan oleh persamaan berikut.

Layar Penuh

Ada tiga hal penting yang harus diperhatikan dalam mengaplikasikan metode numerik (Newton-Raphson maupun Skoring dari Fisher) yaitu:

Tutup

1. algorithma yang dipakai (lengkap atau terpartisi),

Keluar

2. nilai awal dan

3. kriteria konvergensi

Nilai awal untuk b 0 ditentukan sedemikian sehingga pada saat itu b 0 = y. Sedangkan kriteria konvergensi bisa menggunakan maks(|b 1 −b 0 |) , untuk

UNEJ

bilangan positif sangat kecil, misalnya 10 − 3 .Jika parameter yng diestimasi

terdiri atas beberapa unsur, maka ada beberapa cara yang ditempuh dalam

Daftar Isi

mengestimasi dengan menggunakan metode Newton-Raphson yaitu seperti berikut ini.

Judul

1. Mengestimasi secara serempak dengan memperlakukan parameteryang diestimasi sebagai sebuah vektor penduga. Cara ini disebut pendekatan

◭◭ ◭ ◮ algoritma penuh. Cara ini cocok apabila setiap unsur dari vektor pa- ◮◮ rameter mempunyai sifat-sifat (konvergensi) yang relatif sama.

Hal. 176 dari 234

2. Mengelompokkan unsur-unsur parameter yang sejenis. Unsur-unsur se- jenis lalu diberlakukan sebagai suatu vektor. Dengan demikian akan diperoleh lebih dari satu vektor parameter. Masing-masing vektor pa- Cari Halaman rameter yang diestimasi dengan cara multivariate, tetapi pendugaan vektor satu dengan lainnya dilakukan secara selang-seling. Selang sel-

Kembali

ing dapat dilakukan pada setiap iterasi (nested), atau setelah masing- masing konvergen pada kondisi tertentu(zig-zag). Algoritma seperti ini

Layar Penuh

disebut algoritma terpartisi (partitioned algorithm). Pengelompokan biasanya dilakukan berdasarkan parameter regresi (β) dan parameter dispersi (φ) yang biasanya kedua jenis parameter ini mempunyai sifat- Tutup

sifat yang berbeda terutama dilihat dari kecepatan konvergensinya.

Keluar

Pembahasan kedua algoritma di atas (penuh dan terpartisi) dapat dilihat

pada Smyth [ 19 ] dan Smyth [ 20 ].

UNEJ

Daftar Isi

Judul

Hal. 177 dari 234

Cari Halaman

Kembali

Layar Penuh

Tutup

Keluar