Artikel Teori Perancangan Cerdas.doc

  ARTIKEL

ILMIAH POPULER

  

JEMBATAN SAINS & TEKNOLOGI DENGAN KEIMANAN

PEMBANDING TEORI EVOLUSI

Ajar Permono

08157913863

  

Agustus 2009

TIDAK UNTUK DIPERJUALBELIKAN

DAFTAR ISI

  halaman Sekapur Sirih ………………………………………………………….… 2 Tentang Perancangan Cerdas …………………………………….. 4 Deteksi Perancangan .................................................... 11 Mencari Model matematis ………………………………………….. 13 Pola Flagela E.coli …………………………………………………….. 36 Akhirul Kalam …………………………………………………………… 41 Nara Sumber ……………………………………………………………. 42 Tentang Penulis ……………………………………………………….. 43

SEKAPUR SISRIH

  Pembaca yang budiman, dunia ilmu alam ( natural science) intelligent design) tengah khususnya paham Perancangan Cerdas ( mengalami perkembangan cukup pesat dalam beberapa tahun terakhir ini. Perancangan Cerdas adalah ilmu yang mempelajari informasi tanda-tanda perancangan ( signs of design) pada fenomena atau obyek alam. Dengan demikian obyek alam termasuk pada dasarnya mengandung unsur atau tanda-tanda perancangan atau jejak kreasi kecerdasan alih-alih buah dari proses seleksi alam yang tak terbimibing (merujuk Teori Evolusi). Teori intelligent design) secara filsafati merupakan

  Perancangan Cerdas ( faham yang beroposisi dengan Daewinisme / Teori Evolusi (khususnya Evolusi Makro yang diantaranya menyatakan bahwa ”nenek moyang” manusia adalah kera). Bahwasanya telah banyak analisis kualitatif deskriptif yang menentang Darwinisme (antara lain ilmuwan dari Turki Harun Yahya). Dalam hal ini Teori Perancangan Cerrdas memberi penguatan dari aspek analisis kuantitatif.

  Teori Perancangan Cerdas lebih bernuansa Ilahiah dibanding Teori Evolusi yang cenderung sekuler. Namun demikian perlu diketahui bahwa Teori Perancangan Cerdas berada dalam koridor ilmu alam bukan ilmu agama. Namun begitu rasanya tidak perlu mempersilangkan Teori Perancangan Cerdas dengan faham agama karena sesungguhnya ada keselarasan diantara keduanya. Pengetahuan pendukung Teori Perancangan Cerdas adalah: Biologi (Biokimia dan Biologi Molekuler), Matematika Komputasi, Teori Informasi dan (sedikit) Filasafat. Struktur Teori Perancangan Cerdas cukup kokoh sehingga absah untuk disebut pengetahuan ilmiah (bukan pseudo ilmiah). Di Amerika dan beberapa negara Eropa seperti Inggris, Perancis Teori Perancangan Cerdas sudah diajarkan di bangku sekolah berdampingan dengan Teori Evolusi. Turki juga sudah memulai. Untuk Indonesia , kiranya perlu dipikirkan untuk memasukkan Teori Perancangan Cerdas dalam kurikulum Biologi di SMA dan Ilmu Alamiah Dasar di Universitas sebagai pembanding Teori Evolusi yang sudah diajarkan lebih dahulu.

  Pembaca yang budiman, meskipun sarat dengan perhitungan teknis, sejatinya artikel ini diperuntukkan bagi khalayak umum. Oleh karenanya bagi pembaca yang tidak begitu menggemari matematika, untuk bab Mencari Model Matematis, dipersilahkan membaca ”sekedarnya”. Sungguhpun begitu, besar harapan penulis akan umpan balik para pembaca guna penyempurnaan, terlebih Teori Perancangan Cerdas masih sangat-sangat terbuka untuk dieksplorasi.

  Bagimu Negeri, Agustus 2009 Penulis

  

TENTANG PERANCANGAN CERDAS

  Untuk menganalisis secara ilmiah bahwa suatu obyek alam mengandung tanda-tanda perancangan bukanlah perkara mudah terutama terkait dengan upaya pembuktian secara kuantitatif. Salah satu pendekatan kuantitatif dalam perancangan cerdas adalah melalui complexity specified information, CSI). Informasi Kerumitan Spesifik ( Didalam CSI terdapat teorema Kerumitan Spesifik ( specified complexity). Kerumitan merujuk pada keadaan obyek yang amat rumit ( highly complex) sekaligus amat jarang terjadi (highly improbable), sedangkan spesifik menandakan adanya pola (pattern) tertentu yang berdiri sendiri pada obyek tersebut. Salah satu piranti (sistem) penyeleksi Perancangan Cerdas adalah Explanatory Filter termodifikasi. Obyek alam yang lolos sistem tersebut terindikasi sign of design) sekaligus mengandung tanda-tanda perancangan ( menyanggah kemunculan obyek tersebut buah dari seleksi alam dan mutasi acak secara tak terbimbing (merujuk Teori Evolusi).

  Selama ini pengetahuan deteksi tanda-tanda perancangan secara umum telah diterapkan pada bidang arkeologi dalam kategorisasi artefak apakah sebagi hasil karya (perancangan) manusia atau ”produk alam”. Kemudian pada bidang transmisi sinyal search for extra kode untuk mendeteksi kecerdasan luar angkasa ( terestrial intelligent, SETI). Selain itu juga dibidang forensik yakni untuk mengenali apakah luka/cacat sebagai hasil perbuatan manusia atau kejadian alami. Oleh karenanya menarik dan menantang untuk dilakukan penelitian terhadap obyek lain di alam - seperti makhluk hidup – yang masuk dalam kategori kerumitan spesifik sedimikian sehingga dapat dinotasikan sebagai informasi kerumitan spesifik atau CSI. Salah satu obyek biologi yang sarat dengan informasi kerumitan spesifik atau CSI adalah bakteri Esherichia coli (E.coli berukuran beberapa mikron, 1 mikron adalah seperseribu milimeter). Bakteri tersebut mempunyai flagela (semacam ”ekor”) yang dapat berputar dengan kecepatan hingga puluhan ribu rpm dan dapat berganti arah putaran dalam sekejap. Flagela berfungsi sebagai mesin penggerak laju bakteri dalam mendekati makanan. Bila diamati dengan mikrograf elektron terlihat bahwa flagela mempunyai komponen yang sangat mekanis layaknya mesin penggerak buatan manusia yakni terdapat stator, ring, sambungan dan sebagainya sehingga disebut sebagai Mesin Molekuler (mesin berukuran molekul).

  Pendapat beberapa pakar dan catatan pustaka tentang Perancangan Cerdas antara lain adalah sebagai berikut: perancangan cerdas (intelligent design, ID) adalah suatu faham pemikiran yang menyatakan bahwa beberapa sifat " (Discovery Institute. 2001). Para pendukung perancangan cerdas mengklaim bahwa teori perancangan cerdas sama absahnya atau bahkan lebih bila dibandingkan dengan teori- teori ilmiah saat ini yang terkait dengan (Stephen C. Meyer, 2005).

  Menurut William Dembski – yang dianggap sebagai Michael Jacksonnya Teori Perancangan Cerdas - bahwa perancangan cerdas creationism) yang bukanlah kelanjutan dari faham kreasinisme ( pernah muncul lebih dahulu tapi tidak berkembang lantaran cenderung bersifat dogmatis. Dinyatakan bahwa Perancangan Cerdas mengkhususkan pada deteksi dan perumusan tanda-tanda perancangan ( sign of design) atas obyek alam tanpa mempermasalahkan maksud tujuan dibalik perancangan obyek tersebut sebagaimana domain faham kreasinisme. Namun demikian diakui bahwa perancangan cerdas dapat ditempatkan juga sebagai penyanggahan atas teori evolusi.

  Salah satu upaya agar faham perancangan cerdas dapat lebih diukur, perlu dikembangkan teorema informasi kompleksitas spesifik ( complexity specified information, CSI). Analisis kompleksitas itu sendiri dapat menjadi lebih terukur manakala dituangkan dalam suatu model matematis. Pemilihan atas pendekatan statistik Fisherian dan Bayesian menjadi krusial, tetapi sejauh ini pendekatan Fisherian dipandang lebih sesuai. Teori probabilitas (stokastik) model Fesherian digunakan untuk melakukan analisis matematika terhadap terminologi kerumitan spesifik. Diketahui bahwa spesifikasi merupakan unsur penting dalam pengujian signifikasi statistik. Pendekatan Fisherian tentang hipostesa statistik signifikasi, diantaranya adalah tentang eliminasi suatu hipotesis peluang dimana sampel jatuh dalam pra- spesifikasi daerah penolakan (Dembski, 1998).

  Dalam bidang biologi molekuler salah satu penelitian fenomenal yang dilakukan oleh Michael Behe adalah eksplorasi flagela bakteri Escherichia coli . Dalam penelitian tersebut tergambar bahwa flagela bakteri

  E. coli berbentuk sangat mekanis sebagaimana layaknya kelengkapan mesin penggerak buatan manusia. Pengamatan atas struktur flagela bakteri

  E. coli mengungkap adanya keadaan kerumitan tak-tersederhanakan ( irreducible complexcity). Diartikan bahwa kemunculan seluruh komponen flagela adalah secara bersamaan dalam kesatuan yang tak terpisahkan alih-alih terbentuk melalui proses evolusi. Dengan demikian manakala salah satu komponen dihilangkan maka hilanglah seluruh fungsi flagela. Bakteri

  E. coli merupakan bakteri jenis prokariot penyebab sakit perut atau diare. Bakteri ini mempunyai flagela. Flagela adalah semacam ”ekor” yang berfungsi sebagai lokomotif pergerakan bakteri. Dikatakan semacam ekor oleh karena letaknya bisa diujung atau disamping sel bakteri dengan jumlah bervariasi mulai dari satu, dua, tiga, empat hingga delapan flagela per sel seperti terlihat pada gambar 1.

  Gambar 1. Bakteri E.coli dengan flagela Sumber: Journal PNAS

  Gambar 2. Komponen flegela bakteri E. Coli Sumber: Journal PNAS

  Fenomena perputaran flagela begitu mekanis mirip dengan perputaran mesin atau alat hasil rekayasa oleh manusia. Flagela dapat berputar belasan ribu hingga puluhan ribu rpm dalam pergerakannya untuk memburu makanan. Seperti pada gambar 2 dan gambar 3, komponen flagela terdiri atas tiga bagian utama yakni bagian filamen, bagian sudut ( hook) dan basal body. Bagian filamen terdiri atas filamen dan tip diujungnya. Bagian sudut terdiri atas basal body terdiri atas ring-L, rod, sudut dan sambungan. Bagian ring-P, ring-MS, stator, ring-C dan export apparatus. Masing-masing komponen ini mengandung protein yang berbeda-beda terkait dengan fungsinya masing-masing.

  Gambar 3. Flagela bakteri E.coli Sumber: Jurnal PNAS Gambar 4. Diagram konsep mekanisme motor E.coli Sumber: Darwin Black Box

DETEKSI PERANCANGAN

  Metode deteksi perancangan tertuang dalam skema explanatory filter termodifikasi seperti pada gambar 5.

  Gambar 5. Explanatory Filter termodifikasi MULAI Metode Fisherian High Probable Kebiasaan Intermmediate Probability ‘Kebetulan’ Kerumitan Spesifik Analisis Explanatory Filter Perancangan Biologi Flagela E.coli Model Matematis CSI Flagela E.coli

tidak

tidak tidak Ya Ya Ya ‘Kebetulan’ bahwa suatu obyek manakala probabilitas keberadaanya sangat sering ( highly probable) dikategorikan sebagai produk ‘kebiasaan’ atau ‘hukum alam’. Selanjutnya bila suatu obyek probabilitas kehadirannya lumayan sering ( intermmediate probability) dapat dikategorikan sebagai ‘kebetulan’. Apabila lolos dari filter kedua ini maka yang terakhir obyek diuji melalui filter ketiga yakni kerumitan specified complexity). Obyek yang sukses melewati filter spesifik ( ketiga diartikan sebagai obyek hasil perancangan dengan ciri polanya ( pattern) sangat rumit dan mempunyai bersifat mutual yakni berdiri sendiri. explanatory filter

  Dengan pendekatan statistik Fisherian atas termodifikasi maka dapat diperoleh model matematis kerumitan spesifik yang kemudian pola flagela bakteri E.coli disubstitusikan kedalamnya .

MENCARI MODEL MATEMATIS

  Basis pencarian model matematis adalah turunan atas analisis yang dilakukan oleh William Dembski melalui pendekatan statistik Fisherian dengan modifikasi dibeberapa bagian.

  Pengujian Signifikasi Fisherian

  Pendekatan Fisherian melalui distribusi normal begitu banyak dimanfaatkan dalam statistik terapan diberbagai bidang. Kurva distribusi normal berbentuk seperti gambar 4 dibawah dengan bentuk yang simetris. Kurva mencapai puncak pada saat X= m. Luas daerah di bawah kurva adalah 1; ½ di sisi kanan nilai tengah dan ½ di sisi kiri, dengan persamaan matematis:

  1

  • –1/2[(x-)/]2

  N(X; ,) = e  22 Gambar 4. Kurva Distribusi Normal

  Dalam hal ini X suatu variabel acak dengan harga -< x < dan harga  = 3,14159, harga e = 2,71828, sedangkan  adalah deviasi a a standar. Luasan antara kedua –x dan x merupakan probabilitas yang dinyatakan dengan:

  x a

  P = f(x) dx

  • x

  a

  Sebagaimana perhitungan statistik standar, berikut contoh perhitungan: Diketahui data berdistribusi normal dengan mean m= 55 dan deviasi a standar  =15, berapakah probabilitas daerah penolakan ( x ≤ - x x ≥ x a atau ) ?

  Diambil pada sisi positif dan dicari probabilitas daerah antara a m dengan x ,

  • – P (- x a ≤ x ≥ x a ) = P [0 ≤ Z ≤ = ( x a a

  m) /] = P [0 ≤ Z ≤ = ( x – 55) /15]

  Misalkan harga x a = 85 maka: a ) = P (0 ≤ Z ≤ 2,0) selanjutnya, P ( ≤ x ≥ x P (x ≥ 85) = 0,5 - P (0 ≤ Z ≤ 2,0)

  = 0,5 – 0,4772 (dengan tabel distribusi normal) P (x ≥ x a ) = 0,0288 Daerah penolakan dengan probabilitas 0,0288 untuk beberapa bidang terapan mungkin dianggap cukup kecil. Namun bila dikaitkan dengan terminologi spesifikasi dimana probabilitas kejadian adalah hampir mustahil ( highly improbable) maka besaran probabilitas diatas sangat besar. Inilah problema pendekatan Fisher dimana probabilitas daerah penolakan yang disebut dengan taraf nyata ( signifiance level) dengan simbul α bersifat semu. Dalam praktek statistik sering ditentukan besaran α adalah 5% (0,05) atau 1 % (0,01). Besaran tersebut diduga muncul berdasarkan pengalaman berulang-ulang sehingga bersifat empiris. Meskipun begitu sejatinya penentuan besaran taraf nyata perlu ditopang landasan teori yang memadai, sayangnya seolah-olah hal itu tidak dianggap penting lagi. Untuk daerah penolakan yang menjamin penolakan hipotesis peluang, taraf nyata atau dalam hal ini probabilitas eliminasi peluang haruslah kecil. Persoalannya adalah seberapa kecilkah sedemikian sehingga jika sampel jatuh didalamnya maka hipotesis peluang dapat ditolak secara absah? Taraf nyata α selalu mempunyai angka riil positif kurang dari

  1. Manakala suatu kejadian A jatuh didalam daerah penolakan T), kemudian probailitas daerah penolakan

  (dinyatakan dengan < (P(T/H) < memberi hipotesa peluang (disebut H) diamana α ,

   α maka hipotesis peluang H menjadi ditolak.

  Taraf nyata diumpamakan sebagai batas atas daerah penolakan sehingga daerah penolakan cukup kecil untuk jastifikasi hipotesis peluang (idenya adalah membuat target sedemikian kecil dimana sampel yang jatuh didalamnya difahami bukan karena ’kebetulan’). Daerah penolakan akan mengeliminasi hipotesis peluang manakala even yang terkait dengan hipostesis tersebut jatuh di daerah penolakan. Selanjutnya dalam konteks penentuan spesifikasi melalui pendekatan Fisherian, probabilitas mengacu pada sejumlah peluang suatu even untuk terjadi. Semakin besar peluang even semakin besar probabilitas untuk mendarat di daerah penolakan sehingga semakin besar hipotesis peluang untuk ditolak.

  Berikut contoh pengolahan data yang menunjukkan perbandingan atau perbedaan yang besar probabilitas suatu even dengan even lainnya. Seorang pakar statistik diskenariokan melakukan penelitian bekerjasama dengan sebuah lembaga pemasyarakatan. Percobaan yang dilakukan adalah pelemparan koin bagi tahanan kelas berat sebagai pengganti aktivitas lazimnya di tahanan seperti pendidikan ketrampilan dan sebagainya. Salah seorang tahanan yang divonis kurungan 15 tahun ditugaskan melempar koin setiap 7 detik dan seorang tahanan lainnya mencatat hasil lemparan. Dengan durasi efektif selama 8 jam per hari, maka dalam satu hari tahanan tersebut telah melempar koin sebanyak 3.360 kali. Bila selama satu minggu tugas pelemparan koin tersebut libur saat hari sabtu dan minggu, maka hasil lemparan perminggu adalah 16.800 kali, atau dalam sebulan dihasilkan lemparan sekitar 67.200 kali. Selanjutnya dalam satu tahun akan diperoleh sekitar 806.400 lemparan dan selama 10 tahun dilakukan lemparan koin sebanyak kurang lebih 8 juta kali. Dari lemparan 8 juta kali tersebut ternyata secara probabilitas hanya dapat menghasilkan suatu lemparan pada sisi muka atau belakang sebanyak 22 kali secara 22 berurutan (catatan: 2 adalah sekitar 4 juta yakni setengah dari jumlah total koin yang dilempar). Jadi secara umum akan memerlukan waktu 10 tahun untuk menghasilkan lemparan pada salah satu sisi secara berurutan. Sekarang coba bandingkan probabilitas mendapatkan untuk 30 sisi muka atau belakang secara 30 berurutan membutuhkan 2 atau sekitar 1 milyar lemparan koin. Dengan ketentuan seperti diatas, koin dilempar setiap 7 detik dan seterusnya, maka diperlukan 1.331 tahun. Bagaimana dengan probabilitas munculnya 100 sisi muka atau belakang? Dengan 30 hitungan yang sama akan diperlukan 10 lemparan koin yang berarti 24 memerlukan waktu 1,5 x 10 tahun. Perlunya tahanan menghasilkan

  100 sisi muka atau belakang secara berurutan memerlukan taraf 30 nyata sekitar 1 dalam 10 . Dalam teori Fisher pengujian taraf nyata merupakan even pra-spesifik dengan probabilitasnya begitu kecil yang cukup untuk mengeliminasi hipotesis peluang.

  Kerapatan Probabilitas

  Dalam logika pendekatan Fisher yang kemudian dikembangkan oleh William Dembski dikemukakan bahwa pada pengujian taraf nyata, diperlukan identifikasi pada pola suatu obyek T sebelum kejadian A agar peluang even A absah ditolak karena A jatuh di daerah penolakan T. Hal ini menghindari adanya rekayasa dimana suatu pola (dalam hal ini T) dipaksakan pada even (dalam hal ini A) setelah kejadian. Contoh misalnya seorang pemanah membidik dinding yang lebar, begitu anak panah mengenai dinding, titik di dinding yang tertembus anak panah kemudian dilingkari sebagai target. Oleh karenanya perlu dikenalkan ruang sample S dimana pola dan kejadian dapat diidentifikasi sebelumnya. Untuk ruang sampel S adalah terhingga ( finite) atau tak terhingga (infinite) , pengukuran ini lazim untuk menghitung jumlah elemen dari S. Dengan mencatat netralitas pengukuran yang terhingga akan menghasilkan probabilitas uniform probability). Jika S adalah tak terhitung dan tak merata ( terikat, kemudahan pengukuran ini menjadi probabilitas merata dengan batas yang merupakan bagian dari S. Sekarang mengacu pada kemudahan pengukuran sebagai U. Adanya U untuk mengeliminasi hipotesis peluang adalah memungkinkan probabilitas yang berbentuk P(.|H) direpresentasikan sebagai probabilitas f.dU (produk fungsi non-negatif yang dikenal dengan fungsi kerapatan probabilitas). Huruf ” d” didepan U diperlukan untuk mengevaluasi f terhadap U. Pendekatan Fisheran tentang probabilitas integral pengujian hipotesis kerapatan probabilitas dimaksudkan untuk mengidentifikasi daerah penolakan yang dipakai untuk mengeliminasi peristiwa ’kebetulan’. Dalam hal ini batas maksimum x a diwakili oleh T γ T δ dan batas minimum dengan . Daerah penolakan ini menjadi γ extremal sets (penempatan secara ekstrim) dalam bentuk T = { ωS | f(ω) ≥ γ} dan T δ ω ∈ | f(ω) ≤ δ} γ dan δ angka riil).

  = { S dimana ( T γ terdiri atas semua kemungkinan di ruang sampel S dimana fungsi f nilai minimumnya γ. Demikian juga untuk T δ kerapatan terdiri atas f semua kemungkinan di ruang sampel S dimana fungsi kerapatan nilai maksimumnya adalah δ. Meskipun karakterisasi daerah penolakan sepertinya abstrak, namun pemahamannya sesungguhnya f cukup sederhana. Bahwasanya setiap kerapatan probabilitas berbentuk non-negatif fungsi angka riil didalam S. Bentuk f mungkin dapat disebut sebagai probability landscape (misalkan S sebagi f elevasi landscape yang melewati S). Harga f tidak pesawat dan δ dapat dibawah nol dan T yang terkait dengan tempat tersebut dalam

  S dimana probabilitas landscape yang dibawa oleh f tidak boleh melebihi δ . Sementara T γ yang terkait dengan tempat tersebut landscape yang dibawa oleh f paling dalam S dimana probabilitas γ tidak sama dengan γ. Untuk distribusi normal T adalah daerah dibawah kurva yang terkait dengan maksimum dan adalah T δ adalah daerah tepi. Agar jelasnya diumpamakan S adalah garis riil dimana hipotesis H menggambarkan distribusi normal. Dalam hal ini untuk probabilitas terukur f.dU yang terkait dengan P(.|H), fungsi densitas f mempunyai bentuk yang lebih sederhana dari persamaan sebelumnya.

  1

  • -1/2x2

   f(x) = e  2

  Selanjutnya karena terdapat dua ekor paling tidak ada dua standar deviasi, sehingga P( T δ |H) < 0,0288 (lihat contoh perhitungan sebelumnya). Dengan demikian untuk taraf nyata = 0,0288 dan

  α

  even A jatuh didalam T δ yang berati menolak A melalui hipostesis peluang H. Ini hanya sekedar contoh. Yang lebih penting adalah δ penentuan even A jatuh ke area T . H yang membawa fungsi kerapatan probabilitas f secara otomatis juga membawa T δ yang memberikan taraf nyata α = 0,0288 dan cukup untuk mengeliminasi H manakala sampel A jatuh kedalam T δ . Mengeliminasi peluang ketika sampel jatuh dalam extremal set merupakan tabiat statisik standar. extremal set T δ dimana kerapatan probabilitas

  Lain halnya dengan dapat diberlakukan sebagai daerah penolakan meskipun daerah tersebut tidak secara eksplisit teridentifikasi sebelum percobaan.

  Sebagai contoh dibayangkan sebuah dadu dilempar 6 juta kali. Menurut hipotesis nol untuk dadu dengan probabilitas 1/6 dan bersifat mutual (mata dadu tidak tergantung satu dengan mata dadu lainnya). Mengingat ruang sampel S terdiri atas enam sisi terkait dengan lemparan dadu 6.000.000 kali yang setiap sisi mendarat persis seperti sisi lainnya. Jadi keenam sisi tersebut (1.000.000, 1.000.000, 1.000.000, 1.000.000, 1.000.000, 1.000.000) mewakili hasil pelemparan 6.000.000 kali danberada dalam S. Jelas disini bahwa terdapat ketidakwajaran yang cukup besar untuk mendapatkan satu juta tepat untuk setiap sisi dadu. Analisis yang dilakukan Dembski memungkinakan untuk menangani ketidakwajaran ini. Distribusi probabilitas dimana H mengenalkan S dengan distribusi multinomial dan untuk setiap enam sisi ( x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ), dinyatakan sebagai :

  6.000.000 ! 6.000.000

  1

  2

  3

  4

  5

  6 f (x , x , x , x , x , x ) = ( 1/6) x !x !x !x !x !x !

  1

  

2

  3

  4

  5

  6 Meskipun kombinasi dengan distribusi multinomial begitu rumit,

  posibilitas ruang kelas S (a.l. sejumlah elemen dalam S) dinyatakan f ditentukan tidak sebagai |S| telah ditentukan dengan baik. Fungsi 1 2 3 4 5 6 hanya untuk probabilitas elemen tunggal ( x , x , x , x , x , x ) pada S tetapi juga densitas probabilitas terkait dengan penghitungan U (a.l P (.|H) = f.dU), dan mendapatkan kondisi maksimum 6 sisi dimana setiap sisi dadu tepat 1.000.000 kali. Selanjutnya dicoba γ 1 2 3 4 5 6 1 2 3 4 = x untuk menjadi f (x , x , x , x , x , x ) dimana x = x = x , = x 5 = x 6 = 1.000.000. Kemudian T γ menentukan daerah penolakan sehubungan dengan elemen dalam S dimana f mencapai

  γ. Karena γ adalah harga maksmimun f dan karena setidaknya harga 1 2 3 hanya satu 6 sisi dimana harganya diperoleh (a.l pada x = x = x , = x 4 = x 5 = x 6 = 1,000,000), hal ini mengikuti T γ berisi hanya satu anggota dari S dan probabilitas dari T γ adalah P( T γ |H) = f (1.000.000,

  1.000.000, 1.000.000, 1.000.000, 1.000.000, 1.000.000) yang -17 diperkirakan sekitar 2,475 x 10 . Daerah penolakan ini boleh dikata highly improbable) dan probabilitas menjadi lebih hampir mustahil ( ekstrim dari taraf nyata yang telah ditetapkan. Dengan demikian jika kita mengobservasi tepat 1.000.000 sisi dadu, menurut pendekatan Fisherian dadu dilempar tidak berdasarkan ’kebetulan’ (melainkan ada rekayasa didalamnya). Disini dengan menetapkan ekor pada distribusi normal, deviasi sampel sepertinya menjadi terlalu besar dari perkiraan yang menunjukkan penempatan sampel terlalu kecil. Ini gambaran umum dari pengujian nyata (signifikasi) Fisherian yakni

  T δ sampel yang jatuh di daerah penolakan terdeviasi dengan perkiraan yang terlalu besar malah jatuh di daerah penolakan yang diperkirakan terlalu kecil. Masalah kesesuaian perkiraan yang terlalu kecil mudah ditangani dalam pendekatan Fisher sebagaimana deviasi dari perkiraan yang terlalu besar.

  Kesesuaian data yang keliru merupakan even yang spesifik dimana probabilitasnya tidak lebih dari 1 dalam 100.000 (probabioitas 17 yanhg terlalu besar dibandingkan dengan 1 dalam 10 yang terhitung dalam sampel). Fisher menyimpulkan ini sebagai rekayasa. Untuk melihatnya diberikan peluang hipotesis H, penentuan secara ekstrim T γ dan T δ ditentukan hubungannya dengan fungsi densitas f.dU. Selanjutnya dengan memberikan probabilitas dimana P(.|H) = taraf nyata α dan sampel A jatuh diantara dua extremal sets. Pendekatan Fisher mengeliminasi H menghasilkan bahwa extremal sets mempunyai probabilitas lebih kecil dari . Dalam penggunaan

  α

  keduanya yakni T γ dan T δ untuk mengeliminasi hipostesis peluang H menjadikan begitu spesial terkait penetapan fungsi kerapatan f.dU. Mengapa probabilitas dengan pengukuran probabilitas P(.|H) = tidak membiarkan f sebagai fungsi angka riil yang ditentukan begitu saja ? Jelasnya beberapa pembatasan mesti diterapkan untuk f. Jika f dapat ditentukan semaunya maka untuk suatu subset A pada ruang kelas S, kita dapat menentukan f menjadi indikator fungsi 1 B (dengan B mendefiniskan fungsi sama dengan 1 manakala elemen S adalah dan 0 begitu pula sebaliknya). Untuk setiap f , jika Tγ = {ωS | f(ω) ≥ γ} = B dan setiap bagian dari S menjadi extremal sets untuk beberapa fungsi f. Hal ini memungkinkan pendekatan Fisher untuk

  A mengeliminasi hipotesis peluang apapun. Untuk setiap sampel (dengan probabilitas cukup kecil), ditemukan subset B dari S termasuk A dan hal semacam itu P(A|H) lebih kecil dari taraf nyata berapapun nilainya. Maka untuk f = 1 B and γ = 1, Tγ = B. Akibatnya f secara bebas, H jika pendekatan Fisher mengarah pada penentuan harus selalu ditolak. Jadi batasan apa pada f yang menjadikannya aman dari diskualifikasi hipotesa peluang ?

  Mengulang bahwa pada awalnya bahwa cukup bagi daerah penolakan untuk ditentukan pada awal percobaan. Kemudian daerah penolakan berhubungan dengan fungsi kerapatan probabilitas yang terkait dengan hipotesis peluang juga dipertanyakan efekitifitasnya. f untuk

  Akhirnya sepertinya tidak ada batasan pada fungsi mengeliminasi ’kebetulan’ sehingga tidak mempunyai legitimasi. Tetapi mengapa tanpa adanya batasan sama sekali tidak cukup untuk mengeliminasi ’kebetulan’? Inilah masalahnya bahwa hipotesa perlu dibuat dengan pasti di awal percobaan. Apa yang perlu untuk dicegah kemudian adalah membuat f tergantung atas A. Sebagai alternatif adalah bahwa f perlu indipenden terhadap sampel A. Kembali ke pertanyaan yang masih menggantung: dalam mengeliminasi H,

  T γ T δ bagaimana penentuan secara ekstrim and dalam fungsi kerapatan probabilitas terkait dengan hipotesis peluang H (dimana H membawa pengukuran probabilitas P(.|H) yang dapat mempresentasikan f.dU) ? Jawabannya: tidak ada yang khusus f untuk menjadi fungsi kerapatan probabilitas terkait dengan dengan H kecuali bila f dapat ditentukan secara indipenden terhadap A, even atau sampel yang diobesrvasi.

  Pemampatan

  Sekitar setengah abad silam Andrei Kolmogorov, Chatin dan Solomonof - seperti yang dilansir oleh William Dembski - melakukan penelitian urutan pelemparan koin secara random. Dengan contoh kasus yang nyata, jika kita melempar koin, untuk sisi muka dicatat sebagi ’1’ dan sisi belakang dicatat dengan ’0’. Dengan 100 pelemparan koin urutan hasilnya adalah: (R) 11000011010110001101111111010001100011011001110111 00011001000010111101110110011111010010100101011110 Problem teori algoritma informasi untuk probabilitas adalah bagaimana membedakan urutan ini terkait derajat keacakan. Dengan teori probabilitas saja ternyata tidak mencukupi. Sebagai contoh selain melempar koin (R) hasil pelemparan lain sebagai berikut.

  (N) 1111111111111111111111111111111111111111111111111 1111111111111111111111111111111111111111111111111 Urutan (R) di beri label ”acak” dan (N) dengan ”non-acak”.

  Kolmogorof dkk. ingin mengatakan (R) ”lebih acak” daripada (N). Dengan perhitungan probabilitas sebagaimana biasanya dinyatakan 100 keduanya mempunyai probabilitas yang amat kecil yakni 1 dalam 2 30 atau 1 dalam 10 . Menghadapi masalah ini kemudian dicoba menambahkan teori rekursion yang merupakan bagian logika matematika komputansi yakni adanya string 0 dan 1 sifat randomnya meningkat sebagaimana program komputer pendek. Dengan demikian urutan (N) tidak lagi acak karena menjadi pengulangan ’1’ sebanyak 100 kali, sehingga deskripasi (N) menjadi: kopi ‘11111111111111111111111111111111111111111111111111 11111111111111111111111111111111111111111111111111’ Hasilnya terlihat menjadi lebih panjang. Bandingkan dengan urutan (H) dibawah: (H) 1111111111111111111111111111111111111111111111111 00000000000000000000000000000000000000000000000000 pengulangan ‘1’ kemudian pengulangan ‘0’ sebanyak lima puluh kali. Dengan demikian urutan menjadi: (K) 10101010101010101010101010101010101010101010101010 10101010101010101010101010101010101010101010101010 Dalam hal ini (K) mempunyai deskripsi yang pendek yaitu pengulangan ‘10’ sebanyak lima puluh kali. Urutan (R) disisi lain tidak pendek dan efisien (setidaknya belum ditemukan). Maka informasi algoritma menyatakan derajat keacakan (R) lebih tinggi dibanding urutan (N), (H), dan (K). Karenanya (R) dapat dideskripsikan urutannya sebagaimana dirinya sehingga menjadi: kopi ‘11000011010110001101111111010001100011011001110111 00011001000010111101110110011111010010100101011110’ Deskripsi diatas merupakan deskripsi terpendek dari (R) . Adalah fakta bahwa kombinasi besar (banyak) atas urutan ’0’ dan ’1’ mempunyai deskripsi terpendek sebagimana urutannya sendiri.

Dengan kata lain sebagaian besar urutan adalah acak dalam hal algoritma yang tak termampatkan. Hal tersebut dapat diartikan bahwa kumpulan urutan non-acak mempunyai probabilitas kecil diantara keseluruhan urutan sedemikian sehingga observasi urutan non-acak mempunyai alasan untuk dicari penjelasannya. Oleh karennya perlu dikonsepsi ulang algoritma acak dengan pendekatan Fisherian untuk mengeliminasi ’kebetulan’. Misal terdapat komputer dengan input terpisah dan memori output yang terdiri atas Z bit informasi (katakan jutaan bit). Setiap bit dalam memori output awalnya di set nol. Kemudian setiap urutan awal bit dalam memori bytes seperti karakter ASCII dan input dipecah-pecah dalam banyak diproses dengan program fortran yang mencatat hasilnya pada memori output. Berikutnya ditentukan panjang urutan bit u dalam memori input sebagai Z tanpa nomer yang tidak terinterupsi 0 u. Maka jika u terdiri atas keseluruhan 0 maka punya sebagai akhir panjang 0. Dilain pihak jika u mempunyai 1 dalam lokasi memori terakhir, u mempunyai panjang Z. Dengan perhitungan komputansi, muncul sebuah fungsi ψ (psi) untuk setiap urutan input u. Dengan loop yang tak program fortran jika program berhenti (a.l .karena berakhir), akan keluar output v dalam output memori register. ψ adalah fungsi parsial (a.l. yang tak ditentukan untuk semua urutan Z bit tapi hanya untuk yang dapat diinterpretasi sebagaimana program

  ψ ditentukan fortran yang berhenti ketika dieksekusi). Sekarang mengikuti fungsi f dalam output memori register f (v) untuk v sebagai urutan pouput yang ditentukan sama dengan program terpendek u (a.l urutan input) seperti ψ (u) = v (diingat bahwa u adalah Z minus jumlah yang tak terinterupsi 0 diakhir u); panjang jika tidak ada u yang eksis (a.l jika tidak ada u dimana ψ dipetakan pada v), maka ditentukan f(v) = Z. Fungsi f adalah nilai integer dengan kisaran antara 0 dan Z. Kemudian diberikan bilangan riil δ yang dimasukkan extremal sets (ruang kelas S disini termasuk semua urutan Z bit yang mungkin dalam output register memori): T δ v ∈ S | f(v) ≤ δ}.

  = { δ merupakan integer

  Sebagai kombinasi yang sederhana maka jika δ antara 0 dan Z, kardinalitas T (a.l. sejumlah elemen dalam Tδ) tidak δ+1 lebih besar dari 2 . Jika kita mencatat bahwa kardinalitas T δ dengan δ+1 | T δ | ini berarti | T δ | ≤ 2 . Argumentasi klaim ini jelas: fungsi ψ yang memetakan urutan input ke urutan output. Karena untuk setiap integer δ antara 0 dan Z, ada terutama 1 urutan input dengan panjang 0 , 2 urutan input dengan panjang 1, 4 urutan input dengan δ δ+1 δ+1 panjang 2,..., dan 2 = 2 -1 < 2 . Misalkan sekarang H sebagai hipotesis peluang mengkarakterisasi pelemparan koin. Setiap urutan -Z output v dalam ruang kelas S maka probabilitasnya adalah 2 . δ+1 Selanjutnya karena extremal sets T δ berisi utamanya 2 elemen dari S dan diikuti probabilitas T δ dibatasi H yang terikat sehingga menjadi: δ δ+1 Z δ+1-Z

  P( T |H) ≤ 2 / 2 = 2 Z besar dan δ kecil, probabilitas menjadi sangat kecil, dan

  Untuk tentunya lebih kecil dari setiap taraf nyata yang dapat ditetapkan. Akibatnya untuk urutan dengan program pendek (a.l. program yang panjangnya tidak lebih besar dari δ ), penerapan pendekatan Fisherian pada daerah penolakan akan menjamin penolakan hipotesis peluang H. Dan inilah yang disimpulkan oleh Klomogorof dkk. Mereka bahkan memasukkan bahasa statistik mekanik untuk menggambarkan hasilnya, menyebut urutan acak dengan urutan entropi tinggi dan urutan non-acak dengan urutan entropi rendah. Untuk menyimpulkannya, urutan kumpulan algoritma termampatkan (karenanya non-acak) mempunyai probabilitas diantara keseluruhan urutan, sehingga observasi urutan semacam ini menjadi alasan mencari penjelasan alaih-alih menggunakan terminologi ’kebetulan’.

  Pra-spesifikasi

  Ada perbedaan penting antara pra-spesifikasi dan spesifikasi. Spesifikasi adalah pola gambaran even dengan probabilitas yang kecil sehingga tidak dapat dikenakan dengan atribut ’kebetulan’. Pola yang teridentifikasi setelah kejadian suatu even diterapkan untuk mencegah ’kebetulan’ dalam penjelasan even tersebut (daerah penolakan diketengahkan fungsi densitas probabilitas sebagaimana pengelompokan pemampatan bit string seperti dijelaskan sebelumnya). Dengan demikian setelah pola suatu even, beberapa batasan tambahan diperlukan untuk ditempatkan pada pola untuk membuktikan bahwa hal tersebut benar-benar dapat mengeliminasi ’kebetulan’. Sebaliknya, sebelum pola ditempatkan diawal suatu even yakni pra-spesifikasi, hal ini dapat menghambat identifikasi even dalam pola yang mengacu pada kejadian tersebut. Dengan kata lain, dengan pra-spesifikasi pola even tidak bisa dibaca, oleh karenanya pra-spesifikasi tidak cocok untuk pola yang teridentifikasi didepan. Untuk melihat bahwa tempat pra-spesifikasi tidak dibatasi pada pola yang memungkinkan menghilangkan ’kebetulan’, perhatikan string bit berikut: (R) 11000011010110001101111111010001100011011001110111 00011001000010111101110110011111010010100101011110 String diatas diperoleh dengan melempar koin yang dimana 1 untuk sisi muka dan 0 untuk belakang (string ini sudah dipaparkan sebelumnya). Sekarang bayangkan sekenario berikut: andaikan koin dilempar 100 kali dan diobesrvasi urutannya hasilnya sebagaimana (R). Kemudian ada orang lain yang melihatnya dan meminta koin tersebut untuk dibawa pulang. Selanjutnya hari berikutnya orang tersebut datang lagi dan berkata ” luar biasa, semalam saya melempar koin yang anda berikan sebanyak 100 kali dan hasilnya persis sama dengan yang anda lempar kemarin” yakni urutan (R). Dia menjamin tidak ada rekayasa. Apakah orang tersebut dapat dipercaya ? Normalnya kita berpikir bahwa orang tersebut mengada- ada sebab pra-spesifikasi even dengan probabilitas yang amat kecil sulit sekali diperoleh melalui peristiwa ’kebetulan’. highly improbable)

  Untuk suatu even yang hampir mustahil ( terjadi, untuk satu kali kejadian wajar bisa terjadi, namun bila itu sampai dua kali kejadian adalah nyaris mustahil. Sebagai contoh dalam bidang biologi molekuler mengapa para peneliti asal muasal kehidupan cenderung melihat asal-usul kode genetik hanya satu kali terjadi. Meskipun ada banyak variasi, kode genetik sesungguhnya unik. Jadi kode genetik yang hadir dua kali secara tak terbimbing adalah mustahil. Dengan urutan (R) diperlakukan sebagai pra- spesifikasi, peluangnya pada kemungkinan terulangnya kejadian. Akan tetapi pertanyaan yang muncul apakah memungkinkan untuk menghilangkan peluang hipotesa suatu even tanpa kejadian sebelumnya. Pertanyaan ini menjadi penting karena spesifikasi - seperti diindikasikan pada penjelasan sebelumnya- seharusnya menjadi pola yang menyatu dengan perancangan dan karenanya inheren dengan posisi diluar capaian ’kebetulan’. Meskipun demikian urutan (R) tidak berjalan seperti ini. Dapat dijamin, manakala diperlakukan sebagai pra-spesifikasi (R) menolak kejadian ulang sebagai peristiwa ’kebetulan’. Tetapi urutan itu sendiri menunjukkan tidak adanya pola yang menolak kejadian aslinya oleh karena peristiwa ’kebetulan’. Apakah ada pola yang jika menunjukkan adanya even-even akan menolak kejadian aslinya oleh ’kebetulan’ ? Untuk menjawab apakah memang demikian perhatikan urutan berikut (lagi ’1’ sebagai sisi muka koin dan ’0’ sebagi sisi belakang) dengan menempatkan ψR sebagai pseudo-acak:

  ( τR) 01000110110000010100111001011101110000000100100011 01000101011001111000100110101011110011011110111100 Sebagaimana urutan (R) , dibayangkan anda dan orang diatas ketemu lagi. Tetapi kali ini andaikan anda tidak mempunyai pengetahuan sebelumnya tentang τR dan sejauh ini orang tersebut datang ke anda dan mengklaim dia melempar koin secara acak tanpa rekayasa. Apakah anda percaya? Kali ini anda tidak punya pola sebelumnya sebagai pembanding yang akan meyakinkan anda bahwa even diatas tidak terjadi karena ’kebetulan’? Lalu bagaimana

  τR terjadi secara ’kebetulan’ ? Terdapat suatu menentukan pendekatan yang dapat dipakai terkait dengan pengujian statistik untuk keacakan semacam ini. Strategi standar yang lazim dipakai guru statistik adalah dengan membagi kelas dalam dua kelompok. Para siswa kelompok pertama masing-masing diminta melempar koin 100 kali kemudian ditulis hasilnya dan ditunjukkan kepada siswa bagian kedua untuk dibayangkan dalam pikiran mereka. Selanjutnya siswa kelompok kedua diminta masing-masing melempar koin juga 100 kali dan ditulis hasilnya. Selanjutnya sang guru mengumpulkan seluruh hasil dan dibagi dalam dua tumpukan. Pada tumpukan yang pertama sang guru menemukan enam atau tujuh sisi muka atau belakang yang sama secara berurutan. Untuk hasil kelompok kedua ditemukan pengulangan sisi muka atau belakang begitu sering. Sehingga untuk kelompok pertama menghasilkan 50 persen peluang satu lemparan yang akan berbeda dengan lemparan berikutnya. ini sesuai dengan psikologi manusia bahwa perkiraan lemparan kedua akan berbeda sekitar 70 persen. Jika hal diatas diulang tiga atau empat kali orang akan mencoba meniru pelemparan koin dengan pikirannya dan cenderung berpikir inilah saatnya untuk berubah dimana koin yang dilempar secara acak berlangsung apa adanya. Lalu bagaimana satistik sang guru diatas bila dikonfrontasikan dengan urutan (R) dan ( τR) ? Kita tahu bahwa (R) dihasilkan dari suatu ’kebetulan’ karena merepresentasikan urutan pelemparan koin τR)? Apakah akan yang sesungguhnya. Bagaimana dengan ( diatributkan sebagai suatu ’kebetulan’ atau difahami sebagai seseorang yang mencoba meniru suatu ’kebetulan’. Menurut metode sang guru, untuk kedua (R) dan ( τR) dapat dijelaskan sebagai tumpukan urutan yang dianggap acak karena keduanya berisi tujuh pasang pengulangan [tujuh muka pada (R) dan tujuh sisi belakang pada ( τR)]. Apapun yang pertama ditonjolkan akan menjadi perhatian utama bahwa urutan ini benar-benar acak. Ada sekitar 50 pilihan antara sisi muka dan belakang (sebagai lawan 70 pilihan yang diperkirakan dari orang yang menirukan suatu ’kebetulan’). Apalagi frekuensi realtif dari sisi muka dan belakang adalah 50:50. Selanjutnya meskipun ( τR) adalah seluruhnya tetapi acak, untuk melihatnya perlu ditulis ulang urutan dengan membubuhi garis bertikal: ( τR) 0|1|00|01|10|11|000|001|010|011|100|101|110|111|0000|0001|0010|

  0011| 0100|0101|0110|0111|1000|1001|1010|1011|1100|1101|1110|1111|00

  τR) maka akan membuktikan bahwa urutan ini Dengan membagi ( tersusun secara sederhana: angka biner terstruktur naik, diawali dengan biner satu digit (a.l 0 dan1) dilanjutkan biner dua digit (a.l.

  00,01,10 dan 11) terus hingga 100 digit. Urutan ( τR) ketika Z diteruskan akan mempunyai kelengkapan, bila ada kombinasi bit

  • –Z digit akan tampak dalam urutan dengan batasan frekeunsi 2 . Kunci penentuan spesifikasi dan membedakannya dengan pra-spesifikasi difahami secara berbeda antara urutan (R) dan ( τR). Meskipun (R)

  τR) tidak dapat diatributkan bisa muncul karena ’kebetulan’ tetapi ( hasil peristiwa ’kebetulan’.

  Spesifitas

  Perbedaan krusial antara (R) dan ( τR) adalah (τR) menghasilkan sesuatu yang sederhana, mudah digambarkan polanya τR) cukup dengan sedangkan (R) tidak. Untuk menggambarkan ( mencatat bahwa daftar urutan angka biner ini dalam urutan yang meningkat, sebaliknya (R) tidak. Maka apa yang menjadikan pola muncul dengan ( τR) suatu spesifikasi adalah bahwa pola tersebut mudah digambarkan tetapi even tercatat hampir mustahil sehingga sangat sulit dihasilkan oleh peristiwa ’kebetulan’. Ini merupakan kombinasi dari penyederhanaan pola (a.l mudah menggambarkan pola) dan even yang rumit yang memunculkan pola ( τR) sebagai spesifikasi bukannya (R). Karakterisasi intuitif spesifikasi seperti ini perlu lebih diformalkan. Dimulai dengan agen Y yang mencoba menentukan apakah even A yang telah terjadi akibat peristiwa ’kebetulan’ menurut hipotesis H (atau yang ekuivalen menurut