BAB 2 LANDASAN TEORI
2.1 Pengantar
Pada bab ini akan diuraikan beberapa landasan teori untuk menunjang penulisan skripsi ini. Uraian ini terdiri dari beberapa bagian yang akan dipaparkan secara
terperinci dan terstruktur yaitu matriks, peluang, peluang kondisional. rumusan rantai markov, distribusi seimbang, peluang steady state, teorema limit pada
proses markov waktu diskrit, persamaan antara distribusi seimbang dan batasan peluang dan proses birth and death.
2.2 Matriks
Definisi 2.2.1
Matriks adalah suatu kumpulan angka-angka sering disebut elemen-elemen yang diusun menurut baris dan kolom sehingga berbentuk empat
persegi panjang dimana panjang dan lebarnya ditentukan oleh banyaknya kolom- kolom dan baris-baris.
P =
disebut elemen, matriks dengan n buah baris dan m kolom dinyatakan dengan A
m x n
= [ , sedangkan matriks square atau matriks bujur sangkar adalah
matriks dimana banyaknya baris sama dengan banyaknya kolom m = n.
Definisi 2.2.2
1. Jika A = [
dan B = [ keduanya adalah matriks berukuran m x n,
maka A + B = [ +
]
2. Jika A = [
matriks berukuran m x n dan k adalah skalar, maka kA =
3. Jika A =
matriks berukuran m x p dan B = [ matriks berukuran p
x n, maka perkalian matriks A x B berlaku apabila jumlah kolom matriks A sama dengan jumlah baris matriks B
Universitas Sumatera Utara
4. Jika A = [
dan B = [ keduanya adalah matriks berukuran m x n,
maka A = B jika
= untuk semua i,j
A ≥ B jika
≥ untuk semua i,j A B jika
untuk semua i,j Demikian halnya untuk A
≤ B dan A B
5. Matriks identitas atau ditulis dengan In, adalah sebuah matriks bujur
sangkar yang mempunyai angka satu sepanjang diagonal utama diagonal dari kiri atas menuju kanan bawah selainnya nol.
In =
2. 3 Peluang
Definisi 2.3.1 Himpunan semua hasil yang mungkin dari suatu percobaan disebut
ruang sampel dan diberi lambing Ω.
Definisi 2.3.2
Himpunan semua bilangan asli yang merupakan range dari semua peubah acak dalam proses stokastik disebut state space.
Definisi 2.3.3 Misalkan C adalah sebuah percobaan random yang memiliki ruang
sampel Ω, suatu fungsi t memetakan setiap c ε Ω satu dan hanya satu ke bilangan
riil disebut peubah acak. Ruang dari T adalah himpunan dari bilangan asli {A = t : t = Tc, c ε Ω}. Atau peubah acak adalah suatu fungsi yang mengubah setiap nilai
anggota ruang sampel menjadi suatu bilangan riil. Secara umum peubah acak terbagi atas 2 :
1. Peubah acak diskrit adalah apabila nilai dari peubah acak adalah bilangan
bulat atau jika banyaknya titik sampel dapat dihitung.
Universitas Sumatera Utara
2. Peubah acak kontinu adalah apabila nilai dari peubah acak adalah pecahan,
bilangan decimal, bilangan riil. Atau jika banyaknya titik sampel dari suatu ruang sampel tidak berhingga banyaknya.
Peluang yaitu suatu nilai untuk mengukur tingkat kemungkinan terjadinya suatu kejadian yang tidak pasti. Misalkan S adalah suatu ruang sampel dari suatu
eksperimen acak dan A adalah ruang kejadiannya. Peluang suatu kejadian A atau ditulis PA dapat didefinisikan secara matematis sebagai berikut :
Dimana nA menyatakan banyaknya anggota dari himpunan A dan nS menyatakan banyaknya anggota ruang sampel.
Sifat penting dari suatu kejadian A atau PA yaitu : 1.
Nilai peluang kejadian A selalu berada pada selang [0,1] atau 0 PA ≤ 1
2. Nilai peluang dari peristiwa yang tidak mungkin terjadi adalah 0 atau P
= 0 3.
Nilai peluang suatu peristiwa yang pasti terjadi adalah satu atau PS = 1
2.3.1 Peluang Bersyarat
Dua kejadian dikatakan mempunyai peluang bersyarat bilamana terjadinya suatu kejadian merupakan persyaratan terjadinya kejadian yang lain. Secara
umum peluang kondisional A jika diketahui B didefinisikan sebagai berikut :
Apabila A dan B adalah kejadian – kejadian yang terdapat dalam ruang sampel dan peluang – peluang kejadian B tidak sama dengan nol, maka peluang
kondisional A jika diketahui kejadian B telah terjadi sebelumnya adalah:
Ini hanya berlaku apabila PB ≠ 0. Karena jika
PB = 0 maka
P tidak terdefinisi untuk keadaan dimana kejadian A dan B adalah
independen, maka dapat dinyatakan :
Universitas Sumatera Utara
Karena =
2.4 Rumusan Rantai Markov
Konsep dasar proses markov adalah state dari sistem atau state transisi, sifat dari proses ini adalah apabila diketahui proses berada dalam suatu keadaan
tertentu, maka peluang berkembangnya proses di masa mendatang hanya tergantung pada keadaan saat ini dan tidak tergantung pada keadaan sebelumnya,
atau dengan kata lain rantai Markov adalah rangkaian proses kejadian dimana peluang bersyarat kejadian yang akan datang tergantung pada kejadian sekarang.
Proses Stokastik ialah suatu himpunan variabel acak {Xt} yang tertentu dalam suatu ruang sampel yang sudah diketahui, dimana t merupakan parameter
waktu indeks dari suatu himpunan T. Kita menyatakan ruang keadaan I dari suatu proses sebagai himpunan harga variable acak Xt yang mungkin. Misalnya,
kalau Xt berupa variabel acak diskrit yang terdiri dari sejumlah harga tak berhingga yang dapat dihitung dalam suatu himpunan bilangan cacah tidak
negatif, maka I = {0,1,2,………}. Dan kalau Xt merupakan variabel acak kontinu yang non
negative, maka, I = { x ; 0 ≤ x ≤ ∞}.
Dalam proses stokastik, istilah variabel acak Xt dapat diartikan sebagai variabel keadaan. Misalnya, kalau t = 1, 2,…….. dalam himpunan
T = {1,2,………}dan Xt = 0,1,…..,N dalam himpunan I = {0,1,2,……….N} maka dalam system persediaan, X1 menggambarkan keadaan tingkat persediaan
pada akhir minggu pertama, X2 menggambarkan keadaan tingkat persediaan pada akhir minggu kedua dan seterusnya.
Karena proses Markov adalah kelas tersendiri dari proses stokastik, maka proses markov dapat dijabarkan dengan definisi berikut :
Definisi 2.4.1
Suatu proses stokastik {Xt} dengan himpunan indeks T dan ruang keadaan I disebut proses Markov bila untuk semua n, n = 0, 1, 2,….dan untuk tiap t
t
1
Universitas Sumatera Utara
t
2
……. t
n
, t = 0, dan harga X
n
sebagai harga khusus variabel acak Xt
n
, terdapat
Ini dapat kita artikan sebagai berikut : 1
Distribusi peluang bersyarat dari Xt
n
untuk harga – harga Xt ,
Xt
1
,……,Xt
n-1
yang sudah diketahui tergantung hanya pada harga Xt
n- 1
, yaitu harga terdekat dan tidak tergantung pada harga – harga Xt ,
Xt
1
,……,Xt
n-2
2 Harga
. disebut “peluang peralihan satu langkah”
dari keadaan X
n-1
pada langkah n-1 kepada keadaan x
n
3 Atau, diketahui keadaan sistem pada saat sekarang, keadaan masa datang
tidak tergantung pada keadaan masa lalu. pada langkah n.
4 Atau cukup mengetahui sejarah proses stokastik pada waktu t
n-1
untuk dapat menurunkan sifat – sifat proses pada waktu t
n
.
Dengan demikian, hukum peluang dari proses Markov seluruhnya teruraikan dengan mengetahui 1 syarat awal yang diberikan oleh
, dan 2 himpunan distribusi peluang bersyarat yang diberikan untuk semua 0
≤ t
m
t
n
, m, n = 0, 1, 2,…… oleh P
yang menentukan “distribusi peluang peralihan” dari proses Markov.
Matriks P disebut Matriks Stokastik apabila memenuhi syarat:
1. 2.
3. dimana:
Universitas Sumatera Utara
= Banyaknya perpindahan dari state i ke state j = Peluang perpindahan dari state i ke state j
= jumlah yang berada pada state awal yaitu state i Identifikasi himpunan distribusi peluang peralihan untuk semua 0
≤ t
m
t
n
untuk suatu proses Markov sebarang adalah sesuatu yang sangat sukar. Meskipun demikian, banyaknya persoalan praktis dapat dirumuskan sebagai
proses Markov dalam hal mana distribusi peluang peralihan adalah fungsi dari selisih t
n
– t
m
dan bebas dari t
n
. Dalam hal ini proses Markov kita sebut mempunyai distribusi peluang peralihan yang “homogen” atau “stasioner”.
Dengan demikian, formula untuk peluang peralihan stasioner satu langkah adalah:
= P 2.3
untuk semua n, n = 1, 2,……. Sifat – sifat homogenitas memperlihatkan kesederhanaan yang luar biasa
kalau kita mengembangkan hukum peluang dari proses, sekalipun dengan keuntungan tambahan ini, penjabaran ciri – ciri statistikal sebarang proses dari
hukum peluangnya, umumnya masih sangat sukar. Akan tetapi, dalam praktek, kita lebih tertarik mempelajari beberapa keadaan khusus. Dua persoalan penting
adalah: 1
Penentuan P {Xt
n
≤ x
n
}, fungsi distribusi peluang tidak bersyarat dari Xt
n
untuk t
n
2 Karakterisasi proses untuk t
di dalam T dan
n
Dengan menggunakan sifat–sifat homogenitas proses, persoalan dapat diselesaikan tanpa kaitan khusus terhadap hukum peluang proses.
yang besar
Akhirnya proses Markov dapat dibedakan sesuai dengan :
Universitas Sumatera Utara
1 Sifat himpunan indeks T parameter diskrit atau parameter kontinu
2 Sifat himpunan keadaan I berharga diskrit atau berharga kontinu
Kalau himpunan keadaan I adalah diskrit, maka proses Markov disebut sebagai rantai Markov.
Tabel 2.1 : Klasifikasi Proses Markov
T I
Diskrit Kontinu
Diskrit Rantai markov
Parameter Diskrit Rantai Markov
Parameter Kontinu
Kontinu Rantai markov
Parameter Diskrit Rantai Markov
Parameter Kontinu
2.5 Distribusi Seimbang