Maximum Likelihood Method Metode Kemungkinan Maksimum Membuat Landasan Teori Analisis Data IHSG dengan Model Neuro-GARCH

variabel didistribusikan secara normal atau tidak. Untuk melihat kenormalan residual dapat dilihat pada probabilitas statistik Jarque Bera yang yang ditunjukkan histogram. Formula uji statistik Jarque Bera adalah: 2.11 di mana: = kurtosis = skewness statistik Adapun hipotesis yang digunakan dalam uji normalitas ini adalah: residual tidak berdistribusi normal residual berdistribusi normal Sebagai pengujian terakhir dilakukan pengujian signifikansi parameter. Suatu parameter dikatakan signifikan jika memiliki pengaruh nyata terhadap model. Signifikansi dapat dilihat dari nilai probabilitas yang lebih kecil dari derajat kepercayaan.

2.4. Maximum Likelihood Method Metode Kemungkinan Maksimum

Maximum Likelihood Method atau metode kemungkinan maksimum adalah teknik yang sangat luas dipakai dalam penaksiran suatu parameter distribusi data dan tetap dominan dipakai dalam pengembangan uji -uji yang baru Lehmann, 1986. Berikut penjelasan tentang maximum likelihood method pada persamaan regresi. Jika terdapat sebuah model: 2.12 2.13 2.14 Maka fungsi densitas probabilitas residual yang berdistribusi normal untuk setiap eksperimen adalah: 2.15 2.16 2.17 karena dan maka fungsi densitas 2.17 menjadi: 2.18 dan densitas keseluruhan untuk observasi adalah: 2.19 Fungsi Likelihood-nya adalah: 2.20 2.21 Dengan mensubstitusikan nilai dan maka persamaan 2.21 menjadi: 2.22 Untuk mendapatkan nilai parameter-parameter dan , maka persamaan 2.22 diturunkan terhadap parameter-parameter tersebut satu per satu seperti berikut: 2.23 2.24 dan seterusnya sampai semua nilai parameter diperoleh.

2.5 General Autoregressive Conditional Heteroscedasticity GARCH

Model General Autoregressive Conditional Heteroscedasticity GARCH adalah model yang digunakan dalam peramalan data yang memiliki permasalahan heteroskestisitas tanpa menghilangkan heteroskedastisitas tersebut. Model ini dikembangkan oleh Bollerslev 1986 dari model ARCH yang ditemukan oleh Robert F. Engle 1982. Engle menemukan bahwa varians residual data akan berubah setiap waktu bergantung pada residual periode sebelumnya. Untuk persamaan autoregresi: 2.25 memiliki varians residual berikut: 2.26 atau 2.27 di mana: data periode ke- data periode ke- parameter autoregresi residual pada periode ke- varians dari residual periode ke- komponen konstanta parameter ARCH kuadrat residual periode ke- Persamaan 2.27 adalah model ARCH berorde p atau biasa dinotasikan dengan ARCH p. Sementara itu, Bollerslev mengembangkan model ARCH dengan menemukan bahwa varians residual tidak hanya bergantung dari residual periode lalu tetapi juga bergantung varians residual periode lalu. Untuk persamaan autoregresi: 2.28 memiliki varians residual berikut: 2.29 atau 2.30 di mana: data periode ke- data periode ke- parameter autoregresi = residual pada periode ke- varians dari residual periode ke- komponen konstanta parameter ARCH = kuadrat residual periode ke- = parameter GARCH = varians residual periode ke- Persamaan 2.30 adalah model GARCH berorde p,q atau biasa dinotasikan dengan GARCH p,q. Diketahui bahwa pada model GARCH varians residual tidak hanya bergantung dari residual periode lalu tetapi juga bergantung varians residual periode lalu . Model ini dibangun untuk menghindari orde yang terlalu tinggi pada model ARCH berdasarkan prinsip parsimoni atau memilih model yang paling sederhana. Menurut Tsay 2005 nilai residual dengan persamaan 2.14 dikatakan mengikuti model GARCH p,q jika: 2.31 2.32 dengan Persamaan varians yang memenuhi persamaan GARCH p,q menghubungkan antara varians residual pada waktu ke- dengan varians residual pada waktu sebelumnya. Jika persamaan GARCH ditulis ke dalam operator B Backshift, di mana B dikalikan terhadap dan sebagai koefisien residual dan varian residual sehingga diperoleh: atau 2.33 atau 2.34 maka persamaan 2.31 menjadi: 2.35 atau 2.36 koefisien-koefisien dalam model GARCH p,q harus bernilai positif. Model ARCH didefinisikan sebagai berikut: 2.37 akan diperlihatkan bahwa model GARCH p,q dapat menggantikan model ARCH berorde tak hingga atau ARCH dengan mengurangkan persamaan 2.36 dengan pada sisi kanan dan kiri maka diperoleh sebagai berikut: 2.38 2.39 2.40 2.41 dengan dan , sehingga terbukti bahwa model GARCH p,q dapat menggantikan model ARCH . Model GARCH yang paling sederhana dan paling sering digunakan adalah model GARCH 1,1. Model ini secara umum dinyatakan sebagai berikut Bollerslev,1986: 2.42 dengan dan . Model ARCH dan GARCH tidak dapat diestimasi dengan menggunakan Ordinary Least Square OLS tetapi dengan menggunakan maximum likelihood estimation method atau metode kemungkinan maksimum dalam analisis parameternya.

2.5.1 Langkah-Langkah Pemodelan GARCH

Dalam memodelkan data dengan model GARCH untuk tujuan peramalan langkah- langkah yang dilakukan adalah sebagai berikut: 1. Identifikasi Identifikasi dengan memeriksa data hasil pengamatan apakah sudah stasioner atau belum dengan membuat grafik AC dan PAC. Selain itu kestasioneran data juga akan diuji menggunakan Unit Root Test. Hal ini perlu dilakukan karena untuk membentuk model GARCH diperlukan data yang stasioner. 2. Uji Heteroskedastisitas Pada tahap ini, data sudah dibentuk dalam model autoregresi sehingga uji heteroskedastisitas menggunakan uji Lagrange Multiplier dilakukan terhadap residual dari model autoregresi terbaik yang didapat. Secara spesifik model autoregresi yang digunakan adalah model ARIMA. 3. Estimasi dan Pengujian Parameter Langkah selanjutnya setelah menguji keberadaan efek ARCH atau heteroskedastisitas residual model ARIMA adalah membentuk model GARCH dan mengestimasi parameter model dengan menggunakan metode kemungkinan maksimum atau maximum likelihood method. 4. Uji Pemilihan Model Terbaik Setelah mengestimasi nilai parameter model GARCH, akan dilakukan pemilihan model terbaik dengan melihat nilai AIC dan SIC terkecil. dilakukan uji pemilihan model terbaik. Pengujian yang dilakukan diantaranya adalah uji kelayakan model dan uji signifikansi. Pada uji kelayakan model akan dilihat kenormalan residual model, sedangkan pada uji signifikansi akan dilihat apakah parameter hasil estimasi sudah baik atau mempunyai pengaruh yang nyata terhadap model. 5. Penggunaan Model untuk Peramalan Apabila model sudah memenuhi uji-uji yang dilakukan pada uji pemilihan model terbaik, maka model siap digunakan untuk peramalan.

2.6 Jaringan Saraf Tiruan

Jaringan saraf tiruan JST atau disebut juga dengan neural network NN, adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan saraf manusia. Jaringan saraf tiruan merupakan sistem adaptif yang dapat merubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Secara sederhana, JST adalah sebuah alat pemodelan data statistik non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data. Jaringan saraf merupakan salah satu sistem pemrosesan informasi yang didesain dengan menirukan cara kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses belajar melalui perubahan bobot sinapsisnya. Jaringan saraf tiruan mampu mengenali kegiatan dengan berbasis pada data masa lalu. Data masa lalu akan dipelajari oleh jaringan sehingga mempunyai kemampuan untuk memberi keputusan terhadap data yang belum pernah dipelajari Hermawan, 2006. Siang 2005 mengemukakan bahwa jaringan saraf tiruan adalah sistem informasi yang memiliki karakteristik mirip dengan jaringan saraf tiruan biologi. Jaringan saraf tiruan dibentuk sebagai generalisasi model matematika dari jaringan saraf biologi, dengan asumsi bahwa: a. Pemrosesan informasi terjadi pada banyak elemen sederhana neuron. b. Sinyal dikirimkan di antara neuron-neuron melalui penghubung- penghubung. c. Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal. d. Untuk menemukan output, setiap neuron menggunakan fungsi aktivasi biasanya bukan fungsi linier yang dikenakan pada jumlah input yang diterima. Besarnya output ini selanjutnya dibandingkan dengan suatu batas ambang. Jaringan saraf tiruan ditentukan oleh 3 hal: a. Pola hubungan antar neuron disebut arsitektur jaringan. b. Metode untuk menentukan bobot penghubung disebut metode training learning algoritma. c. Fungsi aktivasi fungsi transfer. Setiap neuron tersebut berfungsi untuk menerima atau mengirim sinyal dari atau ke neuron-neuron lainnya. Pengiriman sinyal disampaikan melalui penghubung. Kekuatan hubungan yang terjadi antara setiap neuron yang saling terhubung dikenal dengan nama bobot. Arsitektur jaringan dan algoritma pelatihan sangat menentukan model- model jaringan saraf tiruan. Arsitektur tersebut gunanya untuk menjelaskan arah perjalanan sinyal atau data di dalam jaringan. Algoritma belajar menjelaskan bagaimana bobot koneksi harus diubah agar pasangan masukan-keluaran yang diinginkan dapat tercapai. Dalam setiap perubahan harga bobot koneksi dapat dilakukan dengan berbagai cara, tergantung pada jenis algoritma pelatihan yang digunakan. Dengan mengatur besarnya nilai bobot ini diharapkan bahwa kinerja jaringan dalam mempelajari berbagai macam pola yang dinyatakan oleh setiap pasangan masukan-keluaran akan meningkat. Sebagai contoh, perhatikan neuron Y pada gambar berikut: x 1 x 2 x 3 Y W 1 W 2 W 3 Gambar 2.1. Sebuah Sel Saraf Tiruan Y menerima input dari neuron x 1 , x 2 , dan x 3 dengan bobot hubungan masing-masing adalah w 1 , w 2 dan w 3 . Ketiga impuls neuron yang ada dijumlahkan net = x 1 w 1 + x 2 w 2 +x 3 w 3 . Besarnya impuls yang diterima oleh Y mengikuti fungsi aktivasi y = fnet. Apabila nilai fungsi akivasi cukup kuat, maka sinyal akan diteruskan. Nilai fungsi aktivasi keluaran model jaringan juga dapat dipakai sebagai dasar untuk merubah bobot.

2.6.1 Arsitektur Jaringan

Arsitektur jaringan saraf tiruan digolongkan menjadi 3 model: 1. Jaringan Layar Tunggal Dalam jaringan ini, sekumpulan input neuron dihubungkan langsung dengan sekumpulan outputnya, seperti gambar berikut ini : Gambar 2.2. Jaringan layar tunggal Pada Gambar 2.2. diperlihatkan bahwa arsitektur jaringan layar tunggal dengan n buah masukan x 1 , x i ,..., x n dan m buah keluaran Y 1 , Y i ,..., Y m . Dalam jaringan ini semua unit input dihubungkan dengan semua unit output. Tidak ada unit input yang dihubungkan dengan unit input lainnya dan unit output pun demikian. 2. Jaringan Layar Jamak Jaringan ini merupakan perluasan dari layar tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain yang sering disebut layar tersembunyi. Layar tersembunyi ini tersebut bisa saja lebih dari satu, sebagai contoh perhatikan Gambar 2.3 dibawah ini: x 1 X i X n Y 1 Y j Y m W 11 W 12 W 1m W 21 W 22 W 2m W n1 W n2 W nm UNIVERSITAS SUMATERA UTARA Gambar 2.3. Jaringan layar jamak Pada Gambar 2.3. diperlihatkan jaringan dengan n buah unit masukan x 1 , x 2 ,..., x n , sebuah layar tersembunyi yang terdiri dari p buah unit z 1 , z 2 ...,z p dan 1 buah unit keluaran. Jaringan layar jamak dapat menyelesaikan masalah yang lebih kompleks dibandingkan dengan layar tunggal, meskipun kadangkala proses pelatihan lebih kompleks dan lama. 3. Jaringan Reccurent Model jaringan recurrent mirip dengan jaringan layar tunggal ataupun ganda. Hanya saja, ada neuron output yang memberikan sinyal pada unit input sering disebut feedback loop. Dengan kata lain sinyal mengalir dua arah, yaitu maju dan mundur.

2.6.2 Fungsi Aktivasi

Siang 2004 menyebutkan bahwa fungsi aktivasi digunakan untuk menentukan keluaran suatu neuron. Dalam jaringan saraf tiruan, argumen fungsi aktivasi adalah net masukan kombinasi linier masukan dan bobotnya. Jika net maka fungsi aktivasinya adalah . V 2 1 X 1 X 2 X n V 11 V 1 2 V 1p V 22 V 2p V n2 V np V n1 Z 2 Z p Z 1 Y W 11 W 11 W 11 UNIVERSITAS SUMATERA UTARA Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut: a. Fungsi Treshold batas ambang 2.43 Dalam beberapa kasus, fungsi threshold yang dibuat tidak berharga 0 atau 1, tapi berharga -1 atau 1 sering dibuat threshold bipolar. 2.44 b. Fungsi Sigmoid 2.45 Fungsi sigmoid sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1 dan dapat digunakan dengan mudah. 2.46 c. Fungsi Identitas 2.47 Fungsi ini sering dipakai apabila diharapkan keluaran jaringan berupa sembarang bilangan riil bukan hanya pada range [0,1] atau [1,-1].

2.6.3 Algoritma Belajar dan Pelatihan

Dalam jaringan saraf tiruan terdapat konsep belajar atau pelatihan sehingga jaringan-jaringan yang dibentuk akan belajar melakukan generalisasi karakteristik tingkah laku objek. Menurut Kusumasewi 2004, pelatihan dilakukan dalam rangka melakukan pengaturan bobot, sehingga pada akhir pelatihan akan diperoleh bobot-bobot yang baik. Dalam menyelesaikan suatu permasalahan, jaringan saraf tiruan memerlukan algoritma belajar atau pelatihan yaitu bagaimana sebuah konfigurasi jaringan dapat dilatih untuk mempelajari data historis yang ada. Dengan pelatihan ini, pengetahuan yang terdapat pada data dapat diserap dan direpresentasikan oleh nilai-nilai bobot koneksinya. Berdasarkan cara modifikasi bobotnya, ada dua macam pelatihan yang dikenal, Siang 2005 yaitu sebagai berikut: 1. Pelatihan Dengan Supervisi Supervised Training Dalam pelatihan dengan supervisi, terdapat sejumlah pasangan data masukan, target, dan keluaran yang dipakai untuk melatih jaringan hingga diperoleh bobot yang diinginkan. Pada setiap pelatihan, suatu masukan diberikan ke jaringan. Jaringan akan memproses dan mengeluarkan keluaran. Selisih antara keluaran jaringan dengan target keluaran yang diinginkan merupakan kesalahan yang terjadi. Jaringan akan memodifikasi bobot sesuai dengan kesalahan tersebut. 2. Pelatihan Tanpa Supervisi unsupervised Training Dalam pelatihannya, perubahan bobot jaringan dilakukan berdasarkan parameter tertentu dan jaringan dimodifikasi menurut ukuran parameter tersebut. Model yang menggunakan pelatihan ini adalah model jaringan kompetitif.

2.6.4 Backpropagation

Backpropagation adalah salah satu metode dari jaringan saraf tiruan yang dapat diaplikasikan dengan baik dalam bidang peramalan forecasting. Backpropagation melatih jaringan untuk mendapatkan keseimbangan antara kemampuan jaringan mengenali pola yang digunakan selama training serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa namun tidak sama dengan pola yang dipakai selama pelatihan Siang, 2005. Menurut Siang 2005 terdapat tiga fase dalam pelatihan Backpropagation yaitu : 1. Fase 1, yaitu propagasi maju Dalam propagasi maju, setiap sinyal masukan dipropagasi dihitung maju ke layar tersembunyi hingga layar keluaran dengan menggunakan fungsi aktivasi yang ditentukan. 2. Fase 2, yaitu propagasi mundur Kesalahan selisih antara keluaran jaringan dengan target yang diinginkan yang terjadi dipropagasi mundur mulai dari garis yang berhubungan langsung dengan unit-unit di layar keluaran. 3. Fase 3, yaitu perubahan bobot Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi. Algoritma pelatihan untuk jaringan dengan satu layar tersembunyi dengan fungsi aktivasi sigmoid biner adalah sebagai berikut : Langkah 1 : Inisialisasi semua bobot dengan bilangan acak kecil. Langkah 2 : Jika kondisi penghentian belum terpenuhi, lakukan langkah 2 sampai langkah 9. Langkah 3 : Untuk setiap pasang data pelatihan lakukan langkah 3 sampai langkah 8. Fase I : Propagasi maju Langkah 4 : Tiap unit masukan menerima sinyal dan meneruskannya ke unit tersembunyi di atasnya. Langkah 5 : Hitung semua keluaran di unit tersembunyi . 2.48 2.49 Langkah 6 : Hitung semua keluaran jaringan di unit 2.50 2.51 Fase II : Propagasi mundur Langkah 7 : Hitung faktor unit keluaran berdasarkan kesalahan disetiap unit keluaran 2.52 merupakan unit kesalahan yang akan diperbaiki dalam perubahan bobot layar di bawahnya langkah 7. Hitung suku perubahan bobot yang akan dipakai nanti untuk merubah bobot dengan laju percepatan Langkah 8 : Hitung faktor unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi 2.53 Faktor unit tersembunyi : 2.54 Hitung suku perubahan bobot yang akan dipakai nanti untuk merubah bobot Fase III : Perubahan bobot Langkah 9 : Hitung semua perubahan Perubahan bobot garis yang menuju unit keluaran: Perubahan bobot garis yang menuju unit tersembunyi : Langkah 10 : Setelah diperoleh bobot yang baru dari hasil perubahan bobot, fase pertama dilakukan kembali kemudian dibandingkan hasil keluaran dengan target apabila hasil keluaran telah sama dengan target dan toleransi error maka proses dihentikan. Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untuk pengenalan pola. Dalam hal ini, hanya propagasi maju langkah 4 dan 5 saja yang dipakai untuk menentukan keluaran jaringan. Dalam beberapa kasus pelatihan yang dilakukan memerlukan iterasi yang banyak sehingga membuat proses pelatihan menjadi lama. Untuk mempercepat iterasi dapat dilakukan dengan p arameter α atau laju pemahaman. Nilai α terletak antara 0 dan 1 0 ≤ α ≤ 1. Jika harga α semakin besar, maka iterasi yang dipakai semakin sedikit. Akan tetapi ji ka harga α terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat. Proses pelatihan yang baik dipengaruhi pada pemilihan bobot awal, karena bobot awal sangat mempengaruhi apakah jaringan mencapai titik minimum lokal atau global, dan seberapa cepat konvergensinya. Oleh karena itu dalam standar Backpropagation, bobot dan bias diisi dengan bilangan acak kecil dan biasanya bobot awal diinisialisasi secara random dengan nilai antara -0,5 sampai 0,5 atau -1 sampai 1 atau interval yang lainnya.

2.6.5 Momentum

Dalam backpropagation, standar perubahan bobot didasarkan atas gradien yang terjadi untuk pola yang dimasukkan saat itu. Modifikasi dilakukan dengan merubah bobot yang didasarkan atas arah gradien pola terakhir dan pola sebelumnya momentum yang dimasukkan. Jadi perhitungannya tidak hanya pola masukan terakhir saja. Momentum ditambahkan untuk menghindari perubahan bobot yang mencolok akibat adanya data yang sangat berbeda dengan data yang lain. Jika beberapa data terakhir yang diberikan ke jaringan memiliki pola serupa berarti arah gradien sudah benar, maka perubahan bobot dilakukan secara cepat. Namun jika data terakhir yang dimasukkan memiliki pola yang berbeda dengan pola sebelumnya, maka perubahan bobot dilakukan secara lambat. Dengan penambahan momentum, bobot baru pada waktu ke t+1 didasarkan atas bobot pada waktu t dan t-1. Disini harus ditambahkan dua variabel yang mencatat besarnya momentum untuk dua iterasi terakhir. Jika μ adalah konstanta 0 ≤ μ ≤ 1 yang menyatakan parameter momentum maka bobot baru dihitung berdasarkan persamaan berikut ini: 2.55 dengan, bobot awal pola kedua hasil itersai pola pertama bobot awal pada iterasi pertama dan 2.56 dengan, bobot awal pola kedua hasil iterasi pola pertama bobot awal pada iterasi pertama

2.6.6 Aplikasi Backpropagation dalam Peramalan

Peramalan adalah salah satu bidang yang paling baik dalam mengaplikasikan metode Backpropagation. Secara umum, masalah peramalan dapat dinyatakan dengan sejumlah data runtun waktu time series x 1 , x 2 ,..., x n . Masalahnya adalah memperkirakan berapa harga x n+1 berdasarkan x 1 , x 2 ,..., x n . Jumlah data dalam satu periode misalnya satu tahun pada suatu kasus dipakai sebagai jumlah masukan dalam Backpropagation. Sebagai targetnya diambil data bulanan pertama setelah periode berakhir. Langkah-langkah membangun struktur jaringan untuk peramalan sebagai berikut: 1. Transformasi Data Dilakukan transformasi data agar kestabilan taburan data dicapai dan juga untuk menyesuaikan nilai data dengan range fungsi aktivasi yang digunakan dalam jaringan. Jika ingin menggunakan fungsi aktivasi sigmoid biner, data harus ditransformasikan dulu karena interval keluaran fungsi aktivasi sigmoid adalah [0.1]. Data bisa ditransformasikan ke interval [0.1]. Tapi akan lebih baik jika ditransformasikan ke interval yang lebih kecil, misalnya pada interval [0,1.0,9], karena mengingat fungsi sigmoid nilainya tidak pernah mencapai 0 ataupun 1. Untuk mentransformasikan data ke interval [0,1.0,9] dilakukan dengan transformasi linier sebagai berikut : Transformasi Linier selang [a.b] 2.57 dengan, nilai setelah transformasi linier nilai data aktual nilai minimum data aktual keseluruhan nilai maksimum data aktual keseluruhan Dengan transformasi ini, maka data terkecil akan menjadi 0,1 dan data terbesar akan menjadi 0,9 Siang, 2005. 2. Pembagian Data Pembagian data dilakukan dengan membagi data penelitian menjadi data pelatihan dan pengujian. Komposisi data pelatihan dan pengujian bisa dilakukan dengan trial and error, namun komposisi data yang sering digunakan adalah sebagai berikut: a. 90 untuk data pelatihan dan 10 untuk data pengujian. b. 80 untuk data pelatihan dan 20 untuk data pengujian. c. 70 untuk data pelatihan dan 30 untuk data pengujian. d. Dan seterusnya Proses pembagian data ini sangat penting, agar jaringan mendapat data pelatihan yang secukupnya. Jika data yang dibagi kurang dalam proses pelatihan maka akan menyebabkan jaringan mungkin tidak dapat mempelajari taburan data dengan baik. Sebaliknya, jika data yang dibagi terlalu banyak untuk proses pelatihan maka akan melambatkan proses pemusatan konvergensi. Masalah overtraining data pelatihan yang berlebihan akan memyebabkan jaringan cenderung untuk menghafal data yang dimasukan daripada mengeneralisasi. 3. Perancang Arsitektur Jaringan Yang Optimum Menentuan jumlah neuron input, neuron lapisan tersembunyi, simpul lapisan tersembunyi berikutnya dan simpul keluaran yang akan digunakan dalam jaringan. Penentuan ini dilakukan dengan trial and error. 4. Pemilihan Koefisien Pemahaman dan Momentum Dalam hal ini pemilihan koefisien pemahaman dan momentum mempunyai peranan yang penting untuk struktur jaringan yang akan dibangun. Dalam membangun jaringan yang akan digunakan dalam peramalan, hasil keputusan yang kurang memuaskan dapat diperbaiki dengan penggunaan koefisien pemahaman dan momentum secara trial and error untuk mendapatkan nilai bobot yang paling optimum agar MSE dan MAD jaringan dapat diperbaiki. 5. Memilih dan Menggunakan Arsitektur Jaringan yang Optimum Tingkat keakuratan ramalannya akan dinilai setelah jaringan dibangun. Jaringan yang optimum dinilai dengan melihat nilai MSE Mean Square Error terkecil. 2.58 di mana: bilangan ramalan nilai aktual pada waktu nilai ramalan pada waktu 6. Pemilihan jaringan optimum dan penggunaannya untuk peramalan Jaringan dengan nilai MSE terkecil dipilih sebagai jaringan yang optimum untuk digunakan dalam peramalan.

2.7 Neuro-GARCH

Model Neuro-GARCH merupakan model kombinasi dari jaringan saraf tiruan Backpropagation dan GARCH. Pada model Neuro-GARCH ini, nilai dari variabel bebas pada model GARCH menjadi input pada jaringan saraf tiruan model Backpropagation dan variabel terikatnya menjadi target. Dengan demikian untuk persamaan autoregresi , dan menjadi input dan menjadi target. Begitu pula untuk persamaan variansi dan menjadi input dan menjadi target. Selanjutnya mengikut pada algoritma jaringan saraf tiruan Backpropagation. Karena pada penelitian ini hanya akan dilakukan peramalan pada IHSG tanpa meramalkan volatilitasnya, maka pada persamaan varians tidak dilakukan peramalan dengan algoritma jaringan saraf tiruan Backpropagation lagi. Indonesia www.idx.co.id yaitu data harian IHSG periode Januari 2013-Februari 2014 Lampiran 1.

3.3.1 Indeks Harga Saham Gabungan

Indeks harga saham merupakan ringkasan pengaruh simultan dan kompleks dari berbagai macam variabel yang berpengaruh, terutama kejadian-kejadian ekonomi. Bahkan saat ini, indeks harga saham tidak banyak menampung kejadian-kejadian ekonomi saja, tetapi juga kejadian-kejadian sosial, politik dan keamanan. Dengan demikian indeks harga saham dapat dijadikan sebagai parameter kesehatan ekonomi suatu negara dan sebagai dasar melakukan analisis statistik atas kondisi pasar terakhir current market. Pengukuran indeks harga saham memerlukan dua macam waktu, yaitu waktu dasar dan waktu berlaku. Waktu dasar akan dipakai sebagai perbandingan, sedangkan waktu berlaku merupakan waktu di mana kegiatan akan diperbandingkan dengan waktu dasar.

3.3.2 Indeks Harga Sahan Gabungan di Bursa Efek Indonesia BEI

Indeks harga saham gabungan Composite Stock Price Indeksi merupakan suatu nilai yang digunakan untuk mengukur kinerja saham yang tercatat di suatu bursa efek. Indeks harga saham gabungan ini ada yang dikeluarkan oleh bursa efek yang bersangkutan secara resmi dan ada yang dikeluarkan oleh instansi swasta tertentu seperti media massa keuangan dan institusi saham. Pergerakan nilai indeks harga saham gabungan akan menunjukkan perubahan situasi pasar yang terjadi. Pasar yang sedang bergairah atau terjadi transaksi yang aktif, ditunjukkan dengan IHSG yang mengalami kenaikan. Sebaliknya, jika kondisi IHSG mengalami penurunan maka berarti pasar dalam keadaan lemah. Keadaan inilah yang dihindari investor. IHSG dihitung dengan menggunakan semua saham yang tercatat sebagai komponen kalkulasi indeks. Untuk mengetahui besarnya indeks harga saham gabungan, dipergunakan rumus beikut: dengan : Total harga semua saham pada saat berlaku : Total harga semua saham pada waktu dasar.

3.4 Membuat Landasan Teori

Setelah mendapatkan data yang dimaksud, selanjutnya dilakukan pembahasan secara teoritis mengenai metode yang digunakan dalam penelitian berdasarkan hasil studi literatur. Hal ini dilakukan untuk mengetahui bagaimana metode yang digunakan dalam kajian teorinya sebelum digunakan dalam penelitian. Pembahasan ini terdapat dalam tinjauan pustaka.

3.5 Analisis Data IHSG dengan Model Neuro-GARCH

Pada tahap ini dilakukan peramalan data IHSG dengan model Neuro-GARCH yakni dengan menganalisis data menggunakan metode GARCH terlebih dahulu kemudian menggunakan hasil analisisnya sebagai input pada model Backpropagation. Setelah itu dihitung MAPE dari hasil peramalan model. Sebagai alat bantu perhitungan dalam melakukan analisis data dengan model Neuro- GARCH peneliti menggunakan software Eviews 8 pada analisis GARCH dan Matlab 7.0 pada analisis Backpropagation. Adapun langkah-langkah yang dilakukan dalam peramalan data IHSG dengan model Neuro-GARCH adalah sebagai berikut: 1. Peramalan dengan menggunakan model GARCH a. Identifikasi kestasioneran data. b. Membentuk persamaan autoregresi sebagai model awal. c. Pengujian heteroskedatisitas atau efek ARCH pada residual. d. Estimasi parameter model GARCH. e. Uji kelayakan model. f. Peramalan. 2. Peramalan kembali data hasil peramalan model GARCH dengan menggunakan model Backpropagation a. Menetapkan tujuan sistem. b. Menentukan fungsi aktivasi. c. Transformasi data. d. Pembagian data. e. Perancangan arsitektur jaringan yang optimum. f. Penentuan koefisien laju pemahaman dan momentum. g. Pemilihan arsitektur jaringan yang optimum sehingga siap digunakan dalam peramalan.

3.6 Analisis Data IHSG dengan Model Backpropagation