Rantai Markov Markov Chain

2.2.6 Rantai Markov Markov Chain

Dalam bukunya, Siagian 2006, menyatakan bahwa analisis Rantai Markov adalah suatu metode yang mempelajari sifat-sifat suatu variabel pada masa sekarang yang didasarkan pada sifat-sifatnya di masa lalu dalam usaha menaksir sifat-sifat variabel tersebut di masa yang akan datang. Dalam analisis Markov yang dihasilkan adalah suatu informasi probabilistik yang dapat digunakan untuk membantu pembuatan keputusan, jadi analisis ini bukan suatu teknik optimisasi melainkan suatu teknik deskriptif. Menurut Husein Umar 2003, Rantai markov adalah salah satu model riset operasi yang banyak dipakai dalam manajemen operasional. Model ini dapat dikembangkan untuk aplikasi dalam pemasaran. Pada eksibit ini, model ini tidak dapat dipaparkan lagi, tetapi langsung diaplikasikan untuk peramalan market – share dengan dukungan kuisoner sebagai alat pengumpul datanya. Rantai Markov sebenarnya merupakan bentuk khusus dari model probabilitas yang melibatkan waktu dan lebih dikenal sebagai proses stokastik. Rantai Markov merupakan proses stokastik dari variable-variabel acak {X t ;t = 0,1,2,3,…} yang membentuk suatu deret dan memenuhi sifat Markov. Dalam sifat Markov, jika diberikan kejadian-kejadian yang telah berlalu past states X ,X 1 ,X 2 ,….,X t-1 , artinya kejadian yang akan datang future state X t+1 bersifat bebas independen dari kejadian-kejadian yang telah berlalu past state X ,X 1 ,X 2 ,….,X t-1, dan kejadian yang akan datang future state X t+1 hanya bergantung pada kejadian yang sedang berlangsung present state X t . Untuk suatu pengamatan yang prosesnya sampai waktu ke t, maka distribusi nilai proses dari waktu ke t+1 hanya bergantung pada nilai dari proses pada waktu t. Secara umum dituliskan: PX t+1 = i │X = j ,X 1 = j 1 ,…,X t-1 = j t-1 ,X t = j t = PX t+1 = i │X t = j Pengguna Rantai Markov terhadap suatu masalah memerlukan pemahaman tentang tiga keadaan yaitu keadaan awal, keadaan transisi, dan keadaan setimbang. Dari tiga keadaan di atas, keadaan transisi merupakan yang terpenting. Oleh karena itulah asumsi-asumsi dalam Rantai Markov hanya berhubungan dengan keadaan transisi. Asumsi-asumsi dalam Rantai Markov adalah sebagai berikut: a. Jumlah probabilitas transisi keadaan adalah 1 b. Probabilitas transisi tidak berubah selamanya c. Probabilitas transisi hanya tergantung pada status sekarang, bukan periode sebelumnya. Probabilitas mempunyai banyak persamaan seperti kemungkinan, kesempatan dan kecendrungan. Probabilitas menunjukkan kemungkinan terjadinya suatu peristiwa yang bersifat acak. Suatu peristiwa disebut acak jika terjadinya peristiwa tersebut tidak diketahui sebelumnya. Oleh karena itu, probabilitas dapat digunakan sebagai alat ukur terjadinya peristiwa di masa yang akan datang. Nilai probabilitas yang paling kecil adalah 0 yang berarti bahwa peristiwa tersebut pasti tidak akan terjadi. Sedangkan nilai probabilitas yang terbesar adalah 1 yang berarti bahwa peristiwa tersebut pasti akan terjadi. Secara umum, nilai probabilitas suatu peristiwa X adalah: ≤ PX ≤ 1 Analisis ini sangat sering digunakan untuk membantu pembuatan keputusan dalam bisnis dan industri, misalnya dalam masalah ganti merek, masalah hutang- piutang, masalah operasi mesin, analisis pengawasan, dan lain-lain. Sedangkan di bidang pertanian paling banyak digunakan di bagian sosial ekonomi. Sebagai statenya antara lain adalah banyaknya jumlah produksi industri pertanian, lokasi industri pertanian, pertumbuhan ekonomi, pembangunan pertanian, struktur pasar, dan berbagai jenis merek suatu produk pertanian.

2.3 Kerangka Pemikiran