Rantai Markov Model Markov

hanya pada keadaan saat ini dan bukan pada urutan peristiwa yang mendahuluinya. Jenis tertentu ini disebut properti Markov. Analisis Markov hampir sama dengan decision analysis, bedanya adalah decision analysis memberikan keputusan berupa rekomendasi sedangkan analisis rantai markov tidak memberikan keputusan berupa rekomendasi. Analisis rantai markov hanya memberikan informasi probabilitas mengenai situasi keputusan yang dapat membantu proses pengambilan keputusan. Oleh karena itu, analisis rantai markov bukanlah teknik optimisasi, melainkan teknik deskriptif yang menghasilkan informasi probabilitas pada masa mendatang.

2.1.1 Rantai Markov

Rantai Markov Markov Chain adalah suatu model teoritis yang menerangkan keadaan sebuah sistem pada suatu tahap tertentu. Model Markov menyediakan cara yang lebih nyaman pemodelan prognosis untuk masalah klinis dengan resiko yang sedang berlangsung untuk memperkirakan perubahan-perubahan pada waktu yang akan datang Sonnenberg, A.F, 2009. Secara umum, rumus rantai markov adalah sebagai berikut: | | Persamaan di atas disebut properti Markov. Jika P tidak bergantung pada n, maka rantai Markov tersebut homogen. Jika kedua probabilitas terkondisi didefinisikan dengan baik, contoh jika | . Jika nilai-nilai X i membentuk satu set countable S maka S itu disebut ruang keadaan dari rantai. Proses Markov dikategorikan berdasarkan konstan atau tidak konstannya probabilitas state-transisi dari waktu ke waktu. Dalam jenis yang paling umum dari proses Markov, probabilitas transisi dapat berubah dari waktu ke waktu. Sebagai contoh, probabilitas transisi untuk transisi dari BAIK untuk MATI terdiri dari dua komponen. Jenis khusus dari proses Markov di mana transisi probabilitas yang konstan dari waktu ke waktu disebut Rantai Markov. Universitas Sumatera Utara Probabilitas yang didapat membuat transisi dari satu state selama satu siklus disebut transisi probabilitas. Proses Markov didefinisikan oleh distribusi probabilitas antara state yang pertama dan probabilitas bagi individu untuk memungkinkan terjadinya transisi. Untuk model Markov yang terdiri dari n state, akan ada probabilitas transisi n 2 . Untuk dapat menerapkan rantai markov ke dalam suatu kasus, ada beberapa syarat yang harus dipenuhi: 1. Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan 1 satu 2. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam sistem 3. Probabilitas transisi konstan sepanjang waktu 4. Kondisi merupakan kondisi bebas sepanjang waktu Untuk rumus rantai markov dengan transisi ke-n adalah P n . Sementara untuk rumus rantai markov di mana hanya memerlukan sebagian dari seluruh matriks adalah sebagai berikut: persamaan 2.1 rumus rantai markov Di mana x n kondisi pada transisi ke-n dan x kondisi pada transisi awal menggunakan matriks 1 x 3, dan P n menggunakan matriks 3 x 3.

2.1.2 Contoh Rantai Markov