12
�[6]. Sehingga � dinamakan ruang parameter atau ruang indeks ∀ � ∈ �, dengan � merupakan parameter bilangan bulat tak negatif yang merepresentasikan karakteristik
terukur yang kita perhatikan pada waktu �.
Himpunan variabel acak
�
pada proses stokastik menggambarkan keadaaan state sistem pada waktu
�. State merupakan posisi atau keadaan yang akan ditentukan klasifikasinya. Misalkan {
�
, � = 0,1,2, … , �} adalah barisan peubah acak
dengan ruang keadaan himpunan bilangan berhingga finite. Jika
�
= �, � ∈ ℤ
+
, maka kita katakan bahwa proses tersebut pada waktu
� berada pada keadaan �.
B. Definisi Proses Markov
Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak dari
proses acak yang dikenal dengan proses Markov[7]. Proses Markov adalah proses stokastik yang mempunyai sifat bahwa jika nilai
�
telah diketahui, maka di mana
� tidak dipengaruhi oleh di mana �. Dengan kata lain, Proses Markov merupakan fenomena dimana kejadian masa datang hanya dipengaruhi oleh masa
sekarang dan tidak dipengaruhi oleh masa lalu.
C. Rantai Markov Diskrit
Analisis rantai Markov Markov Chain Analysis merupakan suatu teknik peluang yang menganalisis pergerakan peluang dari suatu keadaan ke keadaan
13
lainnya. Proses stokastik {
�
∶ � ∈ ℕ} dikatakan sebuah rantai Markov dengan waktu diskrit jika untuk setiap
� ∈ ℕ berlaku[5]: Pr
�+1 �
,
�−1
, … ,
1
= Pr
�+1 �
2.13 Definisi tersebut dapat diinterpretasikan bahwa untuk suatu rantai Markov, sebaran
bersyarat dari sembarang keadaan yang akan datang {
�+1
} dengan syarat keadaan pada masa lalu adalah
{
�−1
, … ,
1
} dan keadaan sekarang adalah {
�
}, adalah bebas terhadap semua keadaan yang lalu dan hanya bergantung dari keadaan sekarang kita
definisikan
�
sebagai kejadian {
1
,
2
, … ,
�
}. Persamaan 2.13 dapat ditulis sebagai berikut[5]:
Pr
�+1
�
�
= Pr
�+1 �
2.14 Kuantitas terpenting yang terkait dengan rantai Markov adalah peluang
bersyarat yang disebut dengan peluang transisi transition probabilities dimana pada kasus rantai Markov homogen persamaannya adalah sebagai berikut:
�
= Pr
+1
= = � 2.15
untuk semua �, , = {1,2, … }. Nilai
�
merupakan elemen dari �1, yaitu elemen
dari matriks peluang transisi satu langkah one-step transition probabilities matrix.
Kita definisikan � 1 = �. Nilai
�
menyatakan peluang bahwa jika proses rantai Markov berada pada keadaan
�, maka keadaan berikutnya ke keadaan setelah satu langkah dan memenuhi syarat-syarat berikut[6]:
a.
�
≥ 0, untuk semua �, = {1, 2, 3, ..., }
b.
�
= 1, untuk semua � = {1, 2, 3, ..., }
14
dimana menyatakan banyaknya keadaan pada rantai Markov dengan jumlah
masing-masing baris pada matriks � sama dengan 1.
1 2 � 1 = � =
1 2
⋮
11 12
1 21
22 2
⋮ ⋮
⋱ ⋮
1 2
Gambar 2.1 Matriks Peluang Transisi Satu Langkah
berukuran m × m
Pada peluang transisi � langkah, yaitu peluang bahwa suatau proses yang
mula-mula berada pada keadaan � akan berpindah pada keadaan setelah � langkah
didefinisikan sebagai[5]:
�
� = Pr
+ �
= = � 2.16
untuk semua �, , , � ∈ ℕ. Nilai
�
� merupakan elemen matriks �� t-step transition probabilities matrices. Berdasarkan persamaan Chapman Kolmogorov
matriks peluang transisi
� langkah dapat ditentukan dengan mengalikan matriks �
sebanyak � kali dengan persamaan sebagai berikut[5]:
� � + = � � . � , untuk semua �, ∈ ℕ 2.17 Persamaan Chapman Kolmogorov mengimplikasikan bahwa
� � = � 1 , untuk semua � ∈ ℕ Sejauh ini, semua peluang yang ditentukan merupakan peluang bersyarat.
Misalnya �� adalah peluang bahwa pada waktu ke � proses berada pada keadaan
dengan syarat keadaan mula-mula adalah �. Pada sebaran tidak bersyarat rantai
Markov, nilai peluang sebaranya ditentukan oleh sebaran peluang pada keadaan awal
15
initial state. Peluang tidak bersyarat unconditional probabilities Pr
�
= dari rantai Markov berada pada keadaan tertentu pada waktu ke
� didefinisakan sebagai vektor baris sebagai berikut[5]:
� � = Pr
�
= 1 , … , Pr
�
= , � ∈ ℕ 2.18
dimana � 1 merupakan peluang pada keadaaan awal initial distribution rantai
Markov. Sehingga, untuk mengetahui peluang keadaan pada waktu � + 1 diperoleh
persamaan[5]:
� � + 1 = � � � 2.19
Sebagai contoh, misalkan peluang besok akan terjadi hujan bergantung pada keadaan cuaca hari ini, serta tidak bergantung pada keadaan cuaca sebelumnya sifat
rantai Markov. Misalkan diberikan peluang transisi satu langkah rantai Markov dengan dua keadaan, dimana keadaan jika cuaca hujan = 1 dan jika cuaca cerah = 2
dengan peluang transisinya ditunjukkan pada tabel berikut:
Tabel 2.1 Peluang Keadaan Cuaca
Hari ke �+1
� Hujan
Cerah Hujan
0,9 0,1
Cerah 0,6
0,4 Tabel di atas menjelaskan bahwa peluang cuaca besok akan hujan sebesar 0,9 dengan
syarat jika cuaca hari ini hujan dan sebesar 0,1 jika cuaca hari ini adalah cerah. Matriks peluang transisi
� untuk memodelkan kondisi di atas adalah:
1 2 � =
1 2
0,9 0,1
0,6 0,4
16
Jika cuaca hari ini � = 1 adalah cerah, maka peluang tidak bersyarat cuaca hari ini
adalah lihat Persamaan 2.18: � 1 = Pr
1
= 1 , Pr
1
= 2 = 0 , 1
dan peluang cuaca untuk � = {2, 3, … }, yaitu peluang cuaca pada hari-hari berikutnya
adalah lihat Persamaan 2.19: � 2 = Pr
2
= 1 , Pr
2
= 2 = � 1 . � = 0,6 , 0,4
� 3 = Pr
3
= 1 , Pr
3
= 2
= � 2 . � = 0,78 , 0,22, dan seterusnya.
Jadi, peluang tidak bersyarat jika cuaca hari ini cerah maka peluang bahwa cuaca 2 hari yang akan datang akan turun hujan sebesar 0,78 dan cuaca akan cerah sebesar
0,22. Pada rantai Markov, setelah proses Markov berjalan dalam jangka yang
panjang � → ∞, peluang yang dihasilkan akan bernilai tetap, dengan kata lain akan
menuju stasioner. Hal ini berarti, proses Markov memiliki peluang yang konvergen ke suatu nilai yang sama, dimana proses tersebut tidak lagi bergantung pada keadaan
awal 1 . Rantai Markov dengan matriks peluang transisi �, dikatakan memiliki
distribusi yang stasioner
� vektor baris dengan elemen tak negatif jika[5]:
�� = � dan �
� �=1
= 1 2.20
Dalam contoh kasus cuaca sebelumnya, perhitungan
� yang stasioner pada rantai
Markov dengan matriks peluang transisi keadaan cuaca � diperoleh dengan
menggunakan Sistem Persamaan Linear SPL sebagai berikut:
17
�
1
= 0,9 �
1
+ 0,6 �
2
dan
�
1
+ �
2
= 1 sehingga diperoleh
�
1
=
6 7
dan �
2
=
1 7
atau dapat ditulis
� =
1 7
6 , 1. Artinya, dalam
jangka panjang, peluang cuaca cerah akan konvergen ke
1 7
dan peluang cuaca hujan konvergen ke
6 7
.
2.5 Poisson Hidden Markov Models PHMMs