Ruang Lingkup Penelitian Metode Penentuan Sampel Metode Pengumpulan Data Metode Analisis

BAB III METODOLOGI PENELITIAN

A. Ruang Lingkup Penelitian

Ruang lingkup penelitian ini adalah menganalisis tingkat inflasi, BI rate, kurs rupiah, dan jumlah uang beredar, terhadap volume perdagangan saham di Indonesia selama periode Januari 2006 sampai dengan Desember 2009.

B. Metode Penentuan Sampel

Populasi dalam penelitian ini adalah tingkat inflasi, BI Rates, jumlah uang beredar, Kurs Rupiah, dan volume perdagangan saham. Sedangkan sampel dalam penelitian ini adalah data bulanan selama 5 tahun, mulai dari Januari 2006 sampai dengan Desember 2009 dari data tingkat inflasi, BI Rate, jumlah uang yang beredar, nilai tukar rupiah terhadap dolar Amerika, dan volume perdagangan saham perusahaan-perusahaan yang tercatat di Bursa Efek Indonesia.

C. Metode Pengumpulan Data

Seluruh data yang digunakan dalam penelitian ini merupakan data sekunder runtun waktu time series dari bulan Januari 2006 sampai dengan Desember 2009 yang bersumber dari Bank Indonesia, Biro Pusat Statistik, dan Bursa Efek Indonesia. 46

D. Metode Analisis

1. Uji Normalitas Uji normalitas bertujuan untuk menguji apakah dalam model regresi variabel dependent, variabel independent atau keduanya terdistribusi normal atau tidak. Model regresi yang baik adalah yang disribusi datanya normal atau mendekati normal. Untuk menguji apakah data terdisribusi normal atau tidak, dapat dilakukan dengan beberapa cara. Salah satu metode menguji normalitas data adalah dengan melihat grafik Normal Probabilty Plot. Menurut Singgih Santoso 2000: 214 untuk melakukan pengujian normalitas data dapat dilihat dari penyebaran data pada sumbu diagonal dari grafik. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model tersebtu memenuhi asumsi normalitas. Sebaliknya jika data menyebar menjauhi garis diagonal dan atau tidak mengikuti arah garis diagonal, maka model regresi tersebut tidak memenuhi asumsi normalitas. Selain itu untuk menguji normalitas data dapat pula dilakukan dengan Kolmogorov Smirnov. Jika nilai K-S kurang dari nilai tabel atau nilai 2 tailed p lebih besar dari α berarti data adalah normal. Jika nilai K-S lebih dari nilai tabel atau nilai 2 tailed p lebih kecil dari α berarti data tidak normal. 47 2. Uji Asumsi Klasik Dalam penggunaan analisis regresi agar menunjukkan hubungan yang valid atau tidak bias maka perlu pengujian asumsi klasik pada model regresi yang digunakan. Adapun asumsi dasar yang harus dipenuhi antara lain : a. Uji Multikolinearitas Multikolinieritas pertama kali dikemukakan oleh ranger Frish dalam bukunya “Statistical Confluence Analysis By Means Of Complete Regression System”. Frish mengatakan bahwa multikolinier adalah adanya lebih dari satu hubungan linier yang sempurna Suharyadi, 2004:528. Multikolinearitas adalah suatu keadaan dimana satu atau lebih variabel independent terdapat korelasi atau hubungan dengan variabel independent lainnya atau dengan kata lain satu atau lebih variabel independent merupakan satu fungsi linear dari variabel independent lainnya. Artinya bahwa jika di antara peubah-peubah bebas yang digunakan sama sekali tidak berkorelasi satu dengan yang lain bahwa bisa dikatakan tidak terjadi multikolinearitas. Uji Multikoliearitas bertujuan untuk menguji apakah pada model regresi ditemukan ada tidaknya hubungan antara beberapa atau semua variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel ini tidak orthogonal. Variabel orthogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen sama dengan nol. 48 Untuk mendeteksi multikolinearitas pada suatu model dapat dilihat dari nilai tolerance dan VIF Variance Inflation Factor dari masing- masing variabel. Jika nilai tolerance tidak kurang dari 0.1 dan nilai VIF lebih kecil dari 10 berarti tidak terdapat multikolinearitas. b. Uji Autokorelasi Istilah Autokorelasi Autocorrelation menurut Maurice G. Kendall dan William R. Buckland. Autokorelasi merupakan kondisi antara anggota observasi yang disusun menurut urutan waktu Suharyadi, 2004:529. Autokorelasi dapat didefinisikan pula terjadinya korelasi di antara data pengamatan sebelumnya, dengan kata lain bahwa munculnya suatu data dipengaruhi oleh data sebelumnya. Untuk mendeteksi terjadi autokorelasi atau tidak pada model regresi dapat dilakukan dengan uji Durbin Watson, dengan rumus sebagai berikut: ∑ ∑ − = − − = n t t a t t t e e e d 1 2 2 2 1 Menurut Singgih Santoso 2000:218 bila nilai DW terletak diantara -2 d 2 maka dapat dikatakan tidak terjadi autokorelasi baik positif maupun negatif. Secara umum deteksi adanya autokorelasi bisa diambil patokan : 1 Angka DW berada di bawah -2, berarti ada autokorelasi positif. 2 Angka DW berada diantara -2 sampa 2, berarti tidak ada autokorelasi. 3 Angka DW berada di atas 2, berarti ada autokorelasi negatif. 49 c. Uji Heteroskedastisitas Heteroskedastisitas adalah suatu keadaan di mana varian dari faktor pengganggu tidak konstan untuk semua nilai variabel bebas. Uji heteroskedatisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain. Jika residual dari satu pengamatan lain ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model yang baik adalah homoskedastisitas atau tidak terjadi heteroskedastisitas. Untuk memprediksi ada tidaknya heteroskedastisitas pada suatu model regresi dapat dilihat dari pola gambar scatterplot model tersebut. Analisis pada gambar scatterplot yang menyatakan model regresi tidak terdapat heteroskedastisitas jika : 1 Titik-titik data menyebar di atas dan di bawah atau di sekitar angka nol. 2 Titik-titik data tidak mengumpul hanya di atas atau di bawah saja. 3 Penyebaran titik-titik data tidak boleh membentuk pola bergelombang melebar kemudian menyempit dan melebar kembali. 4 Penyebaran titik-titik data sebaiknya tidak berpola. 3. Analisis Regresi Linier Berganda Analisis regresi dalam penelitian ini menjadi alat untuk mengukur bagaimana pengaruh dari variabel independen terhadap variabel dependen. Tujuan dari analisis regresi adalah untuk memprediksi besarnya variabel 50 dependen dengan menggunakan data variabel independen yang sudah diketahui besarnya Santoso, 2000: 163. Untuk mengetahui pengaruh variabel dependen terhadap variabel independen, maka digunakan model regresi berganda dengan persamaan sebagai berikut : Y = a + b 1 X 1 + b 2 X 2 + b 3 X 3 + b 4 X 4 + ε r Dimana : Y = Volume perdagangan saham di Indonesia. a = intercept variabel yang tidak dipengaruhi oleh variabel dependen dan variabel independen b = koefisien regresi dari variabel independen X 1 = Tingkat inflasi yang terjadi di Indonesia X 2 = Bi rates X 3 = Jumlah uang yang beredar M2 di Indonesia. X 4 = Nilai tukar Rupiah terhadap Dolar Amerika ε r = faktor pengganggu 4. Uji Koefisien Determinasi R 2 Koefisien determinasi adalah kemampuan variabel independen menjelaskan variebel dependen terikat. Koefisien determinasi menunjukkan suatu proporsi dari varian yang dapat diterangkan oleh persamaan regresi Regression Of Sum Square, RSS terhadap varian total Total Of Sum Square, TSS. Besarnya koefisien determinasi dirumuskan sebagai berikut : R 2 = TSS RSS 51 R 2 = 2 2 2 2 2 1 1 . . . . Y Y n Y YX b b n + + YX Y a Σ Σ Σ − Σ Σ Σ − Dan untuk menghitung R 2 digunakan rumus sebagai berikut : Nilai R 2 akan berkisar antara 0 sampai dengan 1 Suharyadi, 2004:515. 5. Uji Hipotesis a. Uji F secara simultan Uji F dilakukan untuk melihat kemaknaan dari hasil model regresi tersebut. Bila nilai F hitung lebih besar dari pada F tabel atau tingkat signifikannya lebih kecil dari 5 α : 5 = 0.05 maka hal ini menunjukkan bahwa H o ditolak dan H a diterima, yang berarti bahwa variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen secara simultan. Untuk menentukan F hitung dapat dilakukan dengan rumus : F = k n R k R − − − 1 1 2 2 Dimana: R 2 = koefisien determinasi n = jumlah pengamatan sampel k = jumlah parameter yang diestimasi dalam regresi b. Uji t secara parsial Uji t digunakan untuk menganalisis pengaruh variabel independen terhadap variabel dependen secara parsial, dengan menganggap variabel lain bersifat konstan atau digunkan untuk mengetahui ada atau tidaknya 52 pengaruh yang signifikan antara variabel X dan variabel Y. Bila t hitung lebih besar dari pada t tabel atau nilai signifikan t α : 5 0.05 maka H o ditolak dan H a diterima, yang berarti terdapat pengaruh signifikan secara parsial variabel independen terhadap variabel dependen. t hitung dapat ditentukan dengan rumus sebagai berikut : Sb i bi t hitung β − = 1 β = 0 dengan rumus t hitung Sb b i Dimana : b i = koefisien variabel ke-i β i = parameter ke-i yang dihipotesiskan Sb = kesalahan standar Sb adalah Standard error dari koefisien regresi dengan rumus matematis sebagai berikut : ∑ ∑ − = n x x se Sb 2 2 se adalah standard error sampel yang dirumuskan sebagai berikut : 2 2 − = ∑ n e se Dimana Σ e 2 dapat dirumuskan sebagai berikut : ∑ ∑ ∑ ∑ − − = XY b Y a Y e t 2 53

E. Operasional Variabel