hanya pada keadaan saat ini dan bukan pada urutan peristiwa yang mendahuluinya. Jenis tertentu ini disebut properti Markov.
Analisis Markov hampir sama dengan decision analysis, bedanya adalah decision analysis
memberikan keputusan berupa rekomendasi sedangkan analisis rantai markov tidak memberikan keputusan berupa rekomendasi. Analisis rantai
markov hanya memberikan informasi probabilitas mengenai situasi keputusan yang dapat membantu proses pengambilan keputusan. Oleh karena itu, analisis
rantai markov bukanlah teknik optimisasi, melainkan teknik deskriptif yang menghasilkan informasi probabilitas pada masa mendatang.
2.1.1 Rantai Markov
Rantai Markov Markov Chain adalah suatu model teoritis yang menerangkan keadaan sebuah sistem pada suatu tahap tertentu. Model Markov menyediakan
cara yang lebih nyaman pemodelan prognosis untuk masalah klinis dengan resiko yang sedang berlangsung untuk memperkirakan perubahan-perubahan pada waktu
yang akan datang Sonnenberg, A.F, 2009. Secara umum, rumus rantai markov adalah sebagai berikut:
| |
Persamaan di atas disebut properti Markov. Jika P tidak bergantung pada n, maka rantai Markov tersebut homogen. Jika kedua probabilitas terkondisi didefinisikan
dengan baik, contoh jika |
. Jika nilai-nilai X
i
membentuk satu set countable S maka S itu disebut ruang keadaan dari rantai. Proses Markov dikategorikan berdasarkan konstan atau tidak konstannya
probabilitas state-transisi dari waktu ke waktu. Dalam jenis yang paling umum dari proses Markov, probabilitas transisi dapat berubah dari waktu ke waktu.
Sebagai contoh, probabilitas transisi untuk transisi dari BAIK untuk MATI terdiri dari dua komponen. Jenis khusus dari proses Markov di mana transisi probabilitas
yang konstan dari waktu ke waktu disebut Rantai Markov.
Universitas Sumatera Utara
Probabilitas yang didapat membuat transisi dari satu state selama satu siklus disebut transisi probabilitas. Proses Markov didefinisikan oleh distribusi
probabilitas antara state yang pertama dan probabilitas bagi individu untuk memungkinkan terjadinya transisi. Untuk model Markov yang terdiri dari n state,
akan ada probabilitas transisi n
2
. Untuk dapat menerapkan rantai markov ke dalam suatu kasus, ada beberapa
syarat yang harus dipenuhi: 1.
Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan 1 satu
2. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam
sistem 3.
Probabilitas transisi konstan sepanjang waktu 4.
Kondisi merupakan kondisi bebas sepanjang waktu
Untuk rumus rantai markov dengan transisi ke-n adalah P
n
. Sementara untuk rumus rantai markov di mana hanya memerlukan sebagian dari seluruh matriks
adalah sebagai berikut:
persamaan 2.1 rumus rantai markov
Di mana x
n
kondisi pada transisi ke-n dan x kondisi pada transisi awal
menggunakan matriks 1 x 3, dan P
n
menggunakan matriks 3 x 3.
2.1.2 Contoh Rantai Markov