Estimasi Kesalahan Solusi Inversi Linier

3.3 Estimasi Kesalahan Solusi Inversi Linier

E  e T W e e  [ d  G m T ] W e [ d  G m ] (3.5) Melalui pembobotan data maka pengaruh kesalahan data pada

Pada kasus pembobotan subyektif sebagaimana dicontohkan di atas atau

model atau hasil inversi telah diperhitungkan dan tercermin pada

pembobotan menggunakan standar deviasi data maka matriks W e adalah

persamaan (3.8). Secara statistik kesalahan suatu variabel (input) akan

matriks diagonal dengan elemen diagonal berisi [w i ]=[   2 i ] sehingga

berpropagasi atau "terpetakan" pada kesalahan variabel lain (output) yang

secara lengkap matriks W e adalah:

merupakan fungsi dari variabel input tersebut. Pada penyelesaian masalah inversi linier, kesalahan data akan "terpetakan" menjadi kesalahan

parameter model.

Dari persamaan (2.23) dan (3.8) tampak bahwa estimasi parameter

model atau solusi inversi merupakan fungsi linier dari data. Secara umum

untuk kasus inversi linier yang paling sederhana model sebagai fungsi

atau kombinasi linier dari data tersebut dinyatakan oleh m  A d dimana

Untuk kasus yang lebih umum maka W e bukan berbentuk matriks

diagonal, namun W e  C  1 d dimana matriks C

. Berdasarkan prinsip propagasi kesalahan (error

d disebut sebagai matriks

propagation ) variansi parameter model ke-j dinyatakan oleh:

ko-variansi (covariance) dengan elemen-elemen sebagai berikut:

c i j  r i j  i  j (3.7)  m 2   m j

   d k    A jk  d k (3.9)

Ko-variansi c ij adalah fungsi dari variansi masing-masing data dan

koefisien korelasi  1  r  1 yang menyatakan keterkaitan antara satu dimana d i k j adalah variansi data ke-k dengan j = 1, 2, ... M dan k = 1, 2,

... N. Jelas bahwa A jk adalah komponen matriks A  [ G T G ]  1 G d T .

data dengan lainnya. Jika i = j maka elemen diagonal matriks C adalah

variansi data ke- i atau c i 2 i   i .

Untuk kasus yang lebih umum jika kesalahan data dinyatakan oleh

Solusi permasalahan inversi linier dengan pembobotan data dapat

matriks ko-variansi data C d maka berdasarkan persamaan (3.9) dapat

diperoleh dengan cara yang sama seperti pada penurunan persamaan

dibuktikan bahwa matriks ko-variansi model adalah:

(2.23) dan dapat dibuktikan bahwa hasilnya adalah sebagai berikut:

C m  A C A d T (3.10)

Pada dasarnya matriks ko-variansi model C m dapat dihitung dengan

Persamaan (3.12) menunjukkan secara matematis hal-hal yang

relatif mudah menggunakan persamaan (3.10). Matriks ko-variansi model

telah dibahas secara deskriptif dan ilustratif di atas. Fungsi E(m) dengan

tersebut menyatakan ketidak-pastian atau kesalahan estimasi parameter

daerah minimum yang tajam memiliki kecekungan (turunan ke-dua E

model yang merupakan hasil "pemetaan" atau propagasi kesalahan data. est terhadap m) yang besar dan berkorelasi dengan m = m  m yang

Untuk memberikan ilustrasi mengenai sifat-sifat matriks C m dan

kecil. Sebaliknya, untuk E yang sama maka fungsi E(m) dengan daerah

hubungannya dengan parameter lain terutama distribusi dan kesalahan

minimum yang landai akan memiliki kecekungan yang kecil dan

data, maka selanjutnya ditinjau suatu kasus yang sangat khusus. Jika data est berkorelasi dengan m = m  m yang besar. tidak saling terkorelasi dan memiliki standar deviasi yang sama atau

seragam, yaitu  maka

d I dan substitusinya ke persamaan

Jika fungsi misfit E(m) bervariasi secara tajam di sekitar nilai

E

m E

minimumnya yaitu pada m = m maka model akan terdefinisi dengan baik atau memiliki variansi (m) cukup kecil. Sebaliknya, jika fungsi

misfit tersebut bervariasi secara landai di sekitar nilai minimumnya, maka model akan memiliki variansi yang relatif besar (untuk variasi kesalahan

Gambar 3.2

E yang sama). Hal tersebut secara grafis diperlihatkan pada Gambar 3.2.

Ilustrasi grafis pengaruh kecekungan atau curvature fungsi E(m) terhadap

Variasi atau kecendrungan fungsi misfit E(m) di sekitar nilai

kesalahan estimasi parameter model m.

minimumnya dapat dikuantifikasi sebagai kecekungan atau curvature.

Kecekungan fungsi E(m) ditentukan oleh turunan ke-dua fungsi E terhadap m. Selanjutnya hubungan antara turunan ke-dua dari fungsi

Turunan ke-dua fungsi misfit E terhadap parameter model m dapat

E (m) dengan parameter yang menyatakan kesalahan (ko-variansi) model

dihitung dari persamaan (2.21) atau (2.22) dan hasilnya adalah:

akan diperlihatkan secara matematis. Dengan melakukan ekspansi Taylor

1  2 E est  sampai orde ke-dua

fungsi E(m) di sekitar nilai minimum m = m

 G T  G (3.13) diperoleh hubungan sebagai berikut:

2  m  m est

 E  E ( m )  E ( m est )

Dengan demikian persamaan (3.11) menjadi:

est T  1  E 

est

  m  m  m est

m  m est

 C d [ G G ]

Persamaan (3.14) menunjukkan hubungan antara kecekungan fungsi

E (m) di sekitar nilai minimumnya dengan ko-variansi model, terutama (3.17)

untuk kasus khusus yang ditinjau, yaitu data independen dengan variansi u  G  g C G  g T

konstan.

d Jika data terdistribusi normal dengan standar deviasi seragam  adalah matriks yang disebut sebagai generalized inverse matrix. maka kesalahan prediksi data E merupakan variabel acak (random)

Berdasarkan persamaan (3.16) dan (3.17) jelas bahwa "pemetaan" dengan distibusi  2 (chi-squared) yang memiliki (N – M) derajat

kesalahan data menjadi kesalahan model hanya dikontrol oleh hubungan

antara data dengan parameter model yang dinyatakan oleh matriks kernel. dan variansi 2 

kebebasan. Besaran terwsebut memiliki harga rata-rata E  ( N  M  2 ) d 

E  2 ( N  M )  4 d 2 (penjelasan mengenai distribusi  Dengan demikian, "pemetaan" tersebut tidak bergantung pada besaran dapat dilihat pada buku statistika standar). Standar deviasi dari harga E

numerik (harga) data maupun variansi data. Hal ini berlaku pada kasus dapat digunakan untuk menyatakan variansi data dan substitusinya pada

data tidak saling terkorelasi dan standar deviasi yang seragam maupun persamaan (3.14) menghasilkan:

pada kasus yang lebih umum.

C m   2 d [ G T G ]  1 Fakta bahwa matriks satuan ko-variansi model hanya merupakan

fungsi dari matriks kernel dapat digunakan untuk melakukan analisis 

sebelum pengambilan data dan pemodelan berlangsung (experimental

2 ( N  M )    2  m   m  m est

design ). Sebagai contoh, matriks satuan ko-variansi model pada regresi garis lurus dengan parameter model m = [ a b ] adalah:

Persamaan (3.15) menunjukkan bahwa matriks ko-variansi model

ditentukan oleh variansi data dikalikan dengan suatu ukuran bagaimana

 (3.18) kesalahan data "dipetakan" menjadi kesalahan parameter model. Selain

itu, matriks ko-variansi model juga dapat dinyatakan sebagai perkalian Jelas bahwa matriks ko-variansi model berbanding lurus dengan

antara standar deviasi kesalahan prediksi data E dengan kecekungan determinan matriks T [ G G ] . Pada kasus dimana titik-titik data

fungsi E(m) pada nilai minimumnya. terkonsentrasi dengan nilai z yang berdekatan maka harga denominator

Pada kasus standar deviasi data yang seragam, untuk satu satuan dari determinan menjadi kecil dan variansi parameter model menjadi variansi data maka dapat ditunjukkan bahwa matriks satuan ko-variansi

besar. Sebaliknya, jika titik-titik data tersebar dengan nilai z yang model adalah:

berjauhan maka harga denominator menjadi besar dan variansi parameter

C  1 m  [ G G ] (3.16) Pada contoh tersebut di atas, tingkat kesalahan data yang sama

model menjadi kecil. Hal tersebut diilustrasikan pada Gambar 3.3.

Meskipun data saling terkorelasi sehingga bentuk matriks ko-variansi dapat menghasilkan tingkat kesalahan model yang berbeda bergantung data lebih kompleks, matriks ko-variansi data tetap dapat dinormalisasi

pada geometri atau distribusi data yang tercermin pada matriks kernel.

Informasi semacam ini dapat digunakan untuk mendisain eksperimen berhubungan dengan matriks satuan ko-variansi model melalui

sehingga diperoleh matriks satuan ko-variansi data C d yang

atau pengukuran sehingga diperoleh data yang menghasilkan parameter persamaan yang identik dengan persamaan (3.11) berikut:

model dengan tingkat kesalahan yang kecil.

Operasi matriks generalized inverse pada data pengamatan

menghasilkan estimasi paramater model yang merupakan solusi inversi

linier, atau g m  G  d . Selanjutnya dapat diperkirakan sejauhmana model yang dihasilkan dapat menghasilkan respons model yang cocok

est

dengan data. Dengan melakukan substitusi estimasi parameter model tersebut ke persamaan d  G m sehingga menghasilkan data prediksi

d pre maka diperoleh persamaan

Gambar 3.3 N adalah matriks (N × N) yang disebut sebagai matriks resolusi data

Regresi garis lurus dari satu set data dengan tingkat kesalahan sama. Distribusi data pada sumbu-z yang berbeda menghasilkan tingkat

(data resolution matrix), dimana N adalah jumlah data. Matriks tersebut kesalahan model yang berbeda.

menyatakan sejauhmana data prediksi cocok dengan data pengamatan. Pada dasarnya data d pada persamaan (3.19) adalah data

pengamatan atau d 3.4 Matriks Resolusi Data obs . Data prediksi merupakan kombinasi linier dari data observasi dengan koefisien yang dinyatakan oleh elemen-elemen

Solusi permasalahan inversi linier d  G m sebagaimana telah

baris dari matriks N sesuai persamaan berikut:

dibahas secara umum dapat dinyatakan dalam bentuk m  A d dimana

[ N G ] G adalah matriks yang bukan merupakan fungsi dari

  N i j d j  ...  N i i  1 d i  1  N i i d i  N i i  1 d i obs  1  ... (3.20)

data d. Hal tersebut menunjukkan bahwa estimasi parameter model

dikontrol oleh matriks A yang beroperasi pada data d. Dengan demikian Jika elemen vektor data d berurutan secara natural (misalnya sesuai

matriks A sangat penting, selain vektor model m sebagai solusi inversi. dengan urutan besarnya variabel bebas z pada kasus T = a + b z) maka

Dengan mempelajari karakteristik matriks A diharapkan kita dapat

interpretasi matriks resolusi data menjadi sederhana, yaitu:

memperoleh informasi mengenai sifat atau karakteristik permasalahan inversi dan solusinya.

 Jika N  (matriks identitas) maka I d pre  d obs dan kesalahan

prediksi sama dengan nol atau resolusi sempurna.

Matriks A sering disebut sebagai generalized inverse matrix dan

G  diberi simbol g karena dapat meng-"inversi" persamaan linier

 Jika N  namun elemen-elemen terbesar terkonsentrasi atau I

G  . Bentuk sebenarnya dari matriks g bergantung pada mendominasi di sekitar diagonal maka diperoleh resolusi yang baik. permasalahan yang ditinjau. Pada kasus yang sejauh ini telah dibahas

 Jika N  dan harga-harga suatu baris dari matriks I N hampir

bentuk matriks tersebut adalah g G  

[ T G G ] 1  G T . Matriks generalized

merata maka diperoleh resolusi yang buruk. inverse tidak sama dengan invers matriks biasa karena G  g bukan

Elemen diagonal dari matriks N sering disebut sebagai data importance matriks identitas atau matriks satuan.

matriks bujur-sangkar dan perkalian G  g G tidak selalu menghasilkan

yang menyatakan "kesetaraan" antara data prediksi dan data observasi.

Sebagaimana halnya matriks ko-variansi model yang hanya Model terresolusi dengan baik jika elemen diagonal dari matriks R bergantung pada matriks kernel, matriks resolusi data N juga hanya

dominan. Setiap baris dari matriks R menggambarkan sejauhmana merupakan fungsi dari matriks kernel G yang mengandung informasi

model dapat terresolusi dan bagaimana korelasi antar parameter model. mengenai geometri data. Dengan demikian matriks resolusi data dapat

Sebagaimana matriks resolusi data, matriks resolusi model juga hanya digunakan untuk mendesain eksperimen sebelum melakukan pengukuran

merupakan fungsi dari matriks kernel G sehingga perhitungan matriks data yang sebenarnya.

R dapat dilakukan sebelum eksperimen (pengambilan data atau pemodelan inversi) dilaksanakan. Hal ini juga merupakan instrumen

3.5 Matriks Resolusi Model

penting untuk mendisain suatu eksperimen.

Matriks resolusi data menggambarkan sejauhmana data dapat diprediksi secara independen dari data pengamatan. Hal yang sama dapat 3.6 Resolusi dan Ko-variansi Inversi Linier

dilakukan dengan parameter model. Misalnya kita anggap terdapat suatu Berdasarkan bentuk matriks generalized inverse untuk inversi m true

G  linier yang telah dibahas yaitu g  G T G  1 model sesungguhnya T , yang pada kasus sebenarnya tidak kita [ ] G maka dapat ketahui. Sejauhmana kita dapat meresolusi model tersebut?

disintesakan berbagai kuantitas penting. Dalam hal ini matriks resolusi Model m true

data, matriks resolusi model serta matriks satuan ko-variansi model berasosiasi dengan data pengamatan sesuai dengan

persamaan linier d  G m true

adalah sebagai berikut:

. Substitusi hubungan linier tersebut ke

dalam persamaan g m est  G  d menghasilkan:

g N  G G   G [ G T G ]  1 G T (3.23)

est

T R G G  [ G G ]  1 G G  I (3.24)  G g [ G m true

  g ]  [ G G ] m true  R m true

m  G G [ G G ] 1 G  1  [ G G ] G 

R adalah matriks (M × M) yang disebut sebagai matriks resolusi model (3.25)

(model resolution matrix), dimana M adalah jumlah parameter model.

Jika R  dimana I adalah matriks identitas atau matriks satuan, maka I Metode inversi linier yang telah dibahas berlaku pada kasus dimana setiap elemen parameter model terdefinisi secara unik dan sesuai dengan

jumlah data lebih besar dari pada jumlah parameter model (over- model yang sebenarnya.

determined ). Dalam hal ini data dapat mendefinisikan parameter model Jika matriks resolusi model bukan matriks identitas maka estimasi

dengan baik sehingga secara matematis model ter-resolusi sempurna parameter model merupakan rata-rata berbobot dari parameter model

karena R . I

yang sebenarnya. Analog dengan persamaan (3.20) maka diperoleh:

m pre R

true i

true

i i  1 m i  1  R i i m true i  R

true

i i  1 m i  1   (3.22)

Inversi Linier dengan Informasi Jika jumlah data tepat sama dengan jumlah parameter model (N =

4 "A Priori"

M ) maka permasalahan inversi disebut sebagai even-determined. Solusi

inversi dapat diperoleh langsung dengan inversi matriks kernel yang merupakan matriks bujur-sangkar (square), yaitu:

It is often said that experiments should be made

without preconceived ideas. That is impossible.

1  z 2  z   d 1 (4.1) 

– Jules Henri Poincaré