MEDIA BELAJAR LAPISAN ATMOSFER BUMI DI SMPN 17

BAB II II. Teori Dasar terendah dalam proses mengenali II.1 Konsep Jaringan Saraf Tiruan sekelompok obyek pola yang dipelajari. Artificial Neural Network) Jaringan saraf tiruan mempunyai ( Secara biologis jaringan saraf terdiri dari distribusi pararel arsitektur dengan

  neuron-neuron yang saling berhubungan. sejumlah besar simpul mempunyai bobot Neuron merupakan unit struktural dan dan bias tertentu. fungsional dari sistem saraf, mempunyai kemampuan untuk mengadakan respon bila dirangsang dengan intensitas rangsangan cukup kuat. Respon neuron bila dirangsang adalah memulai dan menghantarkan impuls. Jaringan saraf

  Gbr 1 . Model struktur jaringan saraf tiruan.

  tiruan merupakan gabungan sejumlah elemen yang memproses informasi dari Kontruksi jaringan saraf tiruan terdiri

  input sehingga memberikan suatu

  dari : informasi keluaran. Sekelompok obyek

  1. Penentuan Perangkat Jaringan dipelajari oleh sistem belajar dengan

  2. Penentuan Perangkat Simpul tujuan untuk mengenali bentuk pola

  3. Penentuan Sistem Dinamik setiap bentuk tersebut. Proses ini dilakukan dengan cara melatih sistem

  II.1.1 Perangkat Jaringan

  belajar (train neural network) melalui Jaringan saraf tiruan terdiri dari pemberian bobot dan bias pada sejumlah lapisan dan simpul yang hubungan antar simpul. Hasil yang berbeda untuk tiap-tiap layer. Jenis layer dicapai adalah didapatkannya dapat dibedakan menjadi sekelompok bobot dan bias (pada

  1. Input Layer : terdiri dari unit-unit kesalahan minimum yang dicapai) untuk simpul yang berperan sebagai semua pola yang dipelajari, hal ini sesuai

  input proses pengolahan data

  dengan anggapan menemukan energi pada neural network.

  2. II.1.3 Sistem Dinamik Hidden Layer : terdiri dari unit- unit simpul yang dianalogikan Pemberian bobot dan bias bergantung sebagai lapisan tersembunyi dan pada model jaringan saraf tiruan yang berperan sebagai lapisan yang dipilih, tetapi dalam banyak kasus meneruskan respon dari input. pemberian bobot dapat berupa bilangan 3. real yang kecil dan dipilih secara acak. Output Layer : terdiri dari unit- unit simpul yang berperan Pelatihan (train) terhadap jaringan memberikan solusi dari data adalah satu hal yang terpenting dalam

  

input. neural network. Train neural network

  menentukan bagaimana cara

II.1.2 Perangkat Simpul mengadaptasi nilai-nilai bobot dan bias

  Tingkat aktivasi dari simpul (node) dalam usaha untuk mengoptimalkan dapat berharga diskrit yaitu 0 dan 1, atau kerja suatu jaringan dalam mengenali kontinu yaitu antara 0 dan 1. Hal suatu bentuk atau pola, dan menghitung tersebut bergantung dari penerapan besar nilai bobot (weight adjustment) fungsi aktivasi itu sendiri. Jika dan bias selama proses berlangsung. menggunakan fungsi ‘hard limitting’ , Salah satu yang perlu diperhatikan maka tingkat aktivasinya bernilai 0 (atau adalah perhitungan kesalahan (error)

  • 1) dan 1. Apabila menggunakan fungsi pada jaringan dengan berubahnya nilai

  sigmoid maka tingkat aktivasinya bobot dan bias. Pada perubahan nilai

  terbatas pada daerah antara 0 dan 1. Pada bobot neural network perlu diketahui tugas akhir kali ini lebih banyak tingkat aktivasi yang terjadi dengan menggunakan fungsi sigmoid terutama tingkat aktivasi yang diinginkan. Tingkat

  logsig. contoh fungsi sigmoid dengan aktivasi dari input tidak perlu dihitung

  fungsi aktivasi logsig yaitu : tetapi yang perlu dihitung adalah tingkat aktivasi dari hidden dan output layer.

  Sebagai contoh, dari untuk fungsi

  sigmoid tingkat aktivasi dari unit i(ai)

  adalah

  1

  (2.1)

  a = i ( W p b ) + − ∑ − ij i i

  1 e Dimana pi adalah masukan dari unit i, W adalah nilai bobot pada hubungan

  ij

  dari unit i ke j, dan bj adalah nilai bias pada unit j.

II.1.4 Pengelompokan Jaringan Saraf Tiruan

  Jaringan saraf tiruan mengelompokan obyek yang diberikan sesuai dengan tingkat aktivasi keluarannya dapat Gbr 3 .

  Single Layer Perceptrons

  dibedakan menjadi : 1.

   Single Layer Perceptrons (SPL) 2.

   Multi Layer Perceptrons (MLP) SLP terdiri dari satu lapisan input MLP adalah jaringan saraf tiruan alur

  dan output. Fungsi aktivasi yang maju dengan sedikitnya ada satu digunakan adalah hard limitting lapisan tersembunyi. Salah satu yaitu unit output akan bernilai satu, masalah dalam membentuk jaringan jika jumlah pemberian bobot input saraf tiruan MLP adalah berapa lebih besar dari nilai bias-nya. banyak unit tersembunyi yang

  Dalam hal pengelompokan suatu memberikan hasil yang optimal pada obyek akan dikelompokan oleh unit j suatu jaringan saraf tiruan. jika memenuhi : ij p i i . Juga

  ∑W ≥ b Jumlah dari unit yang tersembunyi sebaliknya, suatu obyek akan dapat ditentukan secara empirik dikelompokkan pada kelompok yang dengan mengeplot antara hasil lain jika : ij p i < b i .

  ∑W jaringan saraf tiruan dengan jumlah unit tersembunyi tertentu, kemudian dipilih unit tersembunyi dengan hasil latihan terbaik atau dengan kesalahan (error) terkecil. mengenali pola dan diperoleh bobot dan

  bias tiap simpul dengan kesalahan terkecil.

  Kelemahan Backpropagation diantaranya adalah :

  • Backpropagation dapat mengenali pola input yang telah diajarkan tetapi Gbr 4 .

  Multi Layer Perceptrons

  tidak dapat mengenali pola input yang baru.

  Train Neural Network

II.1.5 Model

  • Dalam mengenali pola input yang

  dengan Sistem Backpropagation

  baru, maka pola tersebut harus diajarkan

  Backpropagation adalah salah satu sehingga pola yang lama akan dilupakan.

  program komputasi untuk penerapan Parameter backpropagation :

  neural network yang banyak digunakan

  • Inisiasi bobot untuk memecahkan masalah non-linear

  Memasukan nilai bobot dan nilai serta network multilayer dengan

  bias untuk tiap simpul dengan

  menggeneralisasi persamaan widrow- bilangan acak (random).

  hoff. Metoda ini menggunakan metoda

  • Menghitung tingkat aktivasi penurunan gradien. Backpropagation 1.

  Tingkat aktivasi dari simpul menggunakan pelatihan terbimbing

  input tidak perlu dihitung (train neural network) dan dalam

  2. Menghitung tingkat aktivasi pengaturan jumlah lapisan (layer) mudah dari simpul hidden dan output dilakukan sehingga banyak diterapkan dengan rumus : pada berbagai permasalahan.

  • Untuk simpul hidden

  Backpropagation merupakan sistem

  (2.2)

  train neural network yang dapat

  menghitung tingkat kesalahan dari hasil

  • Untuk simpul output keluarannya, sehingga neural network (2.3) yang digunakan memiliki kesalahan

  dengan :

  terkecil. Neural network harus dilatih

  p : nilai input i

  berulang-ulang dengan pola input yang

  W ij : bobot ke simpul hidden

  sesuai, sehingga neural network dapat

  • Perubahan bobot ke simpul hidden
  • Perubahan bobot ke simpul output
  • Perubahan bobot ke simpul hidden
  • Perubahan bobot ke simpul output
  • Perubahan bobot ke simpul hidden

  k

  ) Σδ

  k

  . W

  ij

  (2.7)

  δ

  k

  = a

  k

  (1 – a

  )(T

  (1 - a

  k

  k

  ) (2.8)

  dengan : η : koefesien pembelajaran (antara 0 dan 1) δ j : gradien error pada unit j δ k

  : gradien error pada unit k T k : harga aktivasi yang diinginkan dari simpul output ke k (target)

  a k : harga aktivasi yang

  diperoleh pada simpul keluaran ke k

  5. Mengulang langkah algoritma diatas sehingga dapat menentukan nilai error terkecil (yang diinginkan).

  II.2 Dekonvolusi

  Dekonvolusi merupakan suatu proses kebalikan dari konvolusi. Dekonvolusi merupakan tahapan preprocessing dalam pengolahan data seismik dan merupakan

  inverse filter. Dekonvolusi adalah suatu

  j

  j

  metode seismik untuk menghilangkan efek wavelet sehingga didapat estimasi reflektifitas bawah permukaan. Dengan kata lain dekonvolusi adalah proses untuk mengkompres wavelet seismik agar dapat memberikan daya pisah terhadap adanya perlapisan batuan dalam

  jk

  b j : nilai bias simpul hidden b k

   : nilai bias simpul output 3.

  Melatih bobot a.

  Penyesuaian bobot : mencari nilai bobot sesuai dengan keluaran yang diinginkan dengan persamaan :

  W ij (t+1) = W ij (t) + ∆W

  ij (2.3)

  W

  jk

  (t+1) = W

  jk

  (t) + ∆W

  (2.4) b. Perhitungan perubahan bobot dengan persamaan :

  = a

  ∆W

  ij =

  ηδ

  j . p i (2.5)

  ∆ W

  jk =

  ηδ

  k . a j (2.6) 4.

  Perhitungan gradient error

  δ

  j

  • Perubahan bobot ke simpul output
    • a
    bumi pada suatu penampang seismik. Prinsip dasar dari analisa dekonvolusi adalah mencari bentuk solusi dari filter

  inverse atau least square inverse filter.

  Dalam penentuan operator filter, sering didefinisikan bentuk output yang diinginkan. Dekonvolusi bertujuan untuk meningkatkan resolusi temporal,

  Gbr 5 . konvolusi

  sehingga data seismik menjadi lebih mudah untuk diinterpretasikan. Pada metoda dekonvolusi konvensional khususnya dekonvolusi spiking input harus berfasa minimum agar memberikan output yang spike dan tanpa

  delay, jika tidak harus menggunakan

  wavelet shaping. Suatu proses dekonvolusi tidak akan menghasilkan suatu bentuk spike yang sempurna selama ada komponen frekuensi tinggi yang hilang pada proses konvolusi antara wavelet dan operator filter. Hal yang sering terjadi adalah operator filter sering berperilaku untuk menambah frekuensi, yang sebetulnya tidak terkandung dalam wavelet dari seismogram yang mengakibatkan spektrum amplitudo hasil dekonvolusi tidak memberikan bentuk yang flat.