48 dan median pada tempat yang sama. Jika ketiga tendensi sentral tersebut tidak
terletak pada satu tempat, berarti kurva tersebut miring ke kiri atau ke kanan. Ukuran kemiringan puncak kurva ke kiri atau ke kanan tersebut dikenal dengan
nama “kemiringan kurva” atau “kemencengan kurva” skewness. Kemencengan suatu kurva distribusi data dapat bertandapositif ke arah kanan atau bertanda
negatif kearah kiri Situmorang dan Lufti, 2012 : 101.
b. Pendekatan Grafik
PP plot akan membentuk plot antara nilai-nilai teoritis sumbu x melawan nilai- nilai yang didapat dari sampel sumbu y. Apabila plot dari keduanya berbentuk
linier dapat didekati oleh garis lurus, maka hal ini merupakan indikasi bahwa residual menyebar normal. Bila pola-pola titik yang terletak selain di ujung-ujung
plot masih berbentuk linier, meskipun ujung-ujung plot agak menyimpang dari garis lurus, kita dapat mengatakan bahwa sebaran data dalam hal ini residual,
adalah normal Situmorang Lufti, 2012 : 103.
c. Pendekatan Kolmogorov-Smirnov
Alat uji ini digunakan untuk memastikan apakah data sepanjang garis diagonal berdistribusi normal. Hipotesisnya sebagai berikut :
H H
= data residual berdistribusi normal
a
Dengan menggunakan tingkat signifikan α 5. Jika nilai Asymp.Sig 2 tailed taraf nyata α, maka H
= data residual tidak berdistribusi normal
diterima artinya data residual berdistribui normal. Sebaliknya, jika nilai Asym.Sig 2 tailed taraf
nyata α, maka H diterima,
artinya data residual tidak berdistribusi normal.
49
d. Uji Multikolinearitas
Uji ini bertujuan untuk menguji apakah pada model regresi ditemukan adanya korelasi di antara variabel independen. Model regresi yang baik seharusnya tidak
terjadi korelasi diantara variabel independen. Ada dua uji multikolinearitas yang sering digunakan yaitu sebagai berikut Erlinai, 2011 : 103 :
1. VIF Variance Inflating Factor VIF adalah suatu estimasi berapa besar multikolinearitas meningkatkan varian
pada suatu koefisien estimasi sebuah variabel independenpenjelas. VIF yang tinggi menunjukkan bahwa multikolinearitas telah menaikkan sedikit varian pada
koefisien estimasi, akibatnya menurunkan tingkat t. Semakin tinggi nilai VIF suatu variabel tertentu, maka akan semakin tinggi varian koefisien estimasi pada
variabel tersebut dengan asumsi varian error term adalah konstan. Dengan demikian, semakin tinggi VIF, semakin berat dampak pada multikolinearitas.
Pada umumnya jika nilai VIF lebih besar dari 10, maka terjadi multikolineritas yang cukup berat diantara variabel independen.
2. Korelasi diantara Variabel Independen Disamping VIF, cara lain yang dapat digunakan untuk mendeteksi adanya gejala
multikolinearitas suatu model adalah dengan melihat koefisien korelasi sederhana antara variabel-variabel independenpenjelas. Apabila r adalah tinggi nilai
absolutnya, maka ada dua variabel penjelas tertentu berkorelasi dan masalah multikolinearitas ada dalam persamaan tersebut. Koefisien korelasi yang tinggi
ini menunjukkan terjadi gejala multikolinearitas yang berat. Korelasi antar dua variabel penjelas dikatakan memiliki hubungan yang tinggi, beberapa peneliti
50 secara arbiter menentukan 0,8. Dengan demikian, suatu model terdapat gejala
multikolinearitas, jika korelasi diantara variabel independen lebih besar dari 0,8.
2. Uji Heteroskedastisitas
Salah satu asumsi yang penting dari model regresi linear adalah varian residual bersifat homokedastisitas atau bersifat konstan. Umumnya
heterokedastisitas sering terjadi pada model yang menggunakan data cross section silang waktu daripada time series runtut waktu. Hal ini bukan berarti model
yang menggunakan data runtut waktu bebas dari heterokedasitas. Pengujian gejala heterokedastisitas bertujuan untuk melihat apakah dalam
model regresi terjadi ketidaksamaan variabel dari residual satu pengamatan ke pengamatan yang lain. Jika varian dari residual satu pengamatan ke pengamatan
lain tetap, maka disebut homokedastisitas, dan jika berbeda disebut heterokedastisitas. Model regresi yang baik adalah tidak terjadi heterokedastisitas
Erlina, 2011 : 105.
3. Uji Autokorelasi
Uji ini bertujuan untuk melihat apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada
periode t-1. Autokorelasi muncul karena observasi yang berurutan sepanjang tahun yang berkaitan satu dengan yang lainnya. Hal ini sering ditemukan pada
time series Erlina, 2011 : 106. Uji autokorelasi dapat dilakukan dengan menggunakan Uji Statistik Q : Box – Pierce dan Ljung Box. Uji ini digunakan
utuk melihat autokorelasi dengan lag lebih dari dua. Kriteria pengambilan
51 keputusan dalam uji ini adalah jika lag yang signifikan sig 0,05 lebih dari dua
maka tidak terdapat autokorelasi Situmorang dan Lufti, 2012 : 133.
3.8.3 Pengujian Hipotesis
Model regresi yang sudah memenuhi asumsi-asumsi klasik tersebut akan digunakan untuk menganalisis. Suatu perhitungan statistik disebut signifikan
secara statistik apablia nilai uji statistiknya berada dalam daerah kritis daerah dimana H
ditolak. Sebaliknya, disebut tidak signifikan bila uji statistiknya berada dalam daerah dimana H
1. Uji Signifikan Simultan Uji F
diterima. Model pengujian yang dilakukan adalah uji F dan uji t.
Pengujian ini dilakukan untuk mengetahui apakah semua variabel bebas secara bersama-sama atau serempak mempunyai pengaruh yang signifikan
terhadap variabel terikat.Bentuk pengujiannya adalah : 1. H
: b
1
= b
2
= b
3
= b
4
2. H = 0, artinya tidak terdapat pengaruh yang
signifikan secara bersamaan dari tingkat inflasi,sukubungaterhadap harga saham.
a
: minimal satu b
Dengan menggunakan tingkatan α 5, jika nilai sig.F 0,05 maka H
i
≠ 0
R
, artinya terdapat pengaruh yang signifikan secara bersamaan dari tingkat inflasi, suku bunga, dan nilai tukar
terhadap harga saham.
diterima, artinya tidak ada pengaruh yang signifikan secara bersamaan dari variabel bebas terhadap variabel terikat. Sebaliknya, jika nilai sig.F 0,05 maka
H
a
diterima, artinya ada pengaruh yang signifikan secara bersamaan dari
52 variabel bebas terhadap variabel terikat. Pengambilan keputusan juga dapat
dilakukan dengan membandingkan nilai F
hitung
dan nilai F
tabel
1. H . Dimana
kriterianya, yaitu : diterima jika F
hitung
≤ F
tabel
2. H pada α = 5
a
diterima jika F
hitung
F
tabel
2. Uji Signifikansi Parsial uji t
pada α = 5
Pengujian ini dilakukan untuk mengetahui apakah setiap variabel bebas secara parsial mempunyai pengaruh yang signifikan terhadap variabel terikat :
a. b
1
H
= Inflasi
:b
1
Ha : b = 0, artinya tingkat inflasi tidak berpengaruh yang signifikan
terhadap harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
b. b
1
≠ 0, artinya tingkat inflasi berpengaruh yang signifikan terhadap harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
2
H
= Suku Bunga
: b
2
H = 0, artinya suku bunga tidak berpengaruh yang signifikan terhadap
harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
a
: b
c. b
2
≠ 0, artinya suku bunga berpengaruh yang signifikan terhadap harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
3
H
= Nilai Tukar
: b
3
= 0, artinya nilai tukar tidak berpengaruh yang signifikan terhadap harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
53 H
: b
Dengan menggunakan tingkat signifikan α 5, jika nilai sig. t 0,05 H
3
≠ 0, artinya nilai tukar berpengaruh yang signifikan terhadap harga saham perusahaan properti dan real estatdi Bursa Efek Indonesia.
diterima, artinya tidak ada pengaruh yang signifikan variabel bebas terhadap variabel terikat. Sebaliknya, jika sig.t 0,05 H
a
diterima, artinya ada pengaruh yang signfikan antara variabel bebas terhadap variabel terikat. Nilai t
hitung
juga dapat dibandingkan dengan nilai t
tabel
1. H . Kriteria pengambilan keputusannya yaitu :
diterima jika −t
tabel
≤ t
hitung
≤ t
tabel
2. Ha diterima jika t pada α = 5
hitung
t
tabel
atau −t
hitung
≤ −t
tabel
3. Koefisien Determinasi R
pada α = 5
2
Koefisien determinasi adalah koefisien nilai yang menunjukkan besarnya variasi variabel terikat dependent variable yang dipengaruhi oleh variasi
variabel bebas independent variable. Pengukuran besarnya persentase kebenaran dari uji regresi tersebut dapat dilihat melalui nilai koefisien determinasi
multiple R
2
koefisien determinan mengukur proporsi dari variasi yang dapat dijelaskan oleh variabel bebas. Apabila nilai R
2
suatu regresi mendekati satu, maka semakin baik regresi tersebut dan semakin mendekati nol, maka variabel
independen secara keseluruhan tidak bisa menjelaskan variabel dependen. Adjusted R Square ini digunakan untuk melihat berapa besar pengaruh faktor-
faktor yang ditimbulkan oleh variabel-variabel bebas terhadap variabel terikat. Untuk memastikan tipe hubungan antarvariabel dapat dilihat pada table berikut
ini.
54
Tabel 3.1. Hubungan Antarvariabel
Nilai Interpretasi
0,0 – 0.19 Sangat Tidak Erat
0,2 – 0,39 Tidak Erat
0,4 – 0,59 Cukup Erat
0,6 – 0,79 Erat
0,8 – 0,99 Sangat Erat
Sumber : Situmorang dan Lutfi 2012 : 155
55
BAB IV HASIL DAN PEMBAHASAN
4.1 Gambaran Umum Perusahaan 4.1.1 Gambaran Umum Bursa Efek Indonesia