REGRESI NONPARAMETRIK SPLINE KUADRATIK DAN THEIL DALAM MEMODELKAN HUBUNGAN IHSG TERHADAP INFLASI DI INDONESIA.

(1)

1 BAB I PENDAHULUAN

1.1 Latar Belakang Masalah

Analisis regresi merupakan suatu metode yang digunakan untuk menganalisis hubungan antara dua atau lebih variabel. Pada analisis regresi terdapat dua jenis variabel yaitu variabel prediktor dan variabel respons. Andaikan terdapat n pengamatan pasangan dengan Xi adalah variabel

prediktor dan Yi adalah variabel respons, maka hubungan linear antara

variabel prediktor dan variabel respons ditulis sebagai berikut : n

i X

m

Yi = ( i)+εi , =1,2,..., i

ε adalah error random yang diasumsikan independen, m(Xi) adalah fungsi regresi yang tidak diketahui dan akan diestimasi. Menurut Hardle (1990:4) untuk mengestimasi m(Xi) ada dua pendekatan yang dapat digunakan dalam menentukan kurva regresi yaitu pendekatan regresi parametrik dan pendekatan regresi nonparametrik.

Pendekatan yang paling umum dan seringkali digunakan adalah pendekatan regresi parametrik. Pendekatan regresi parametrik digunakan apabila fungsi m(Xi) diketahui berdasarkan pengalaman, informasi sebelumnya atau bentuk kurva regresinya diketahui. Sedangkan pendekatan model regresi nonparamterik digunakan berdasarkan pendekatan yang tidak terikat dengan asumsi bentuk kurva tertentu dan memberikan fleksibilitas yang lebih besar karena dalam regresi nonparametrik tidak ada asumsi tentang


(2)

2

bentuk fungsi m(Xi). Menurut Eubank (1999 : 9) model regresi nonparametrik mempunyai kelebihan yaitu fleksibilitas yang besar untuk menyesuaikan dengan data aslinya daripada model regresi parametrik. Terdapat beberapa teknik estimasi dalam regresi nonparametrik yaitu pendekatan histogram, estimator Spline, estimator kernel, estimator orthogonal, analisis wavelet dan lain-lain.

Regresi Spline salah satu analisis nonparametrik dengan metode smoothing. Tujuan dari smoothing adalah untuk membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Regresi Spline sering digunakan karena regresi ini tidak terikat dengan asumsi bentuk kurva tertentu. Pada pendekatan Spline dilakukan pada segmentasi x untuk membangun fungsi Y dengan membagi pengamatan X i berdasarkan titik-titik X yang disebut knot. Regresi Spline merupakan suatu arah pendekatan ke arah kemulusan kurva yang merupakan model polinomial yang tersegmen, artinya yang memberikan fleksibilitas yang lebih baik dari model polinomial biasa. Regresi Theil merupakan salah satu regresi nonparametrik untuk menaksir koefisien slope garis regeresi dengan cara mencari median slope seluruh pasangan garis dari titik-titik variabel X dan Y, dengan nilai Xi berbeda .

Pada penerapannya regresi nonparametrik Spline dan Theil dapat digunakan untuk memodelkan hubungan Indeks Harga Saham Gabungan (IHSG) terhadap inflasi. IHSG merupakan indeks yang menggunakan semua saham yang tercatat sebagai komponen perhitungan indeks dan merupakan salah satu indeks yang sering diperhatikan investor ketika berinvestasi di bursa


(3)

3

efek indonesia. Indeks adalah ukuran statistik yang digunakan untuk menyatakan perubahan-perubahan dan perbandingan nilai suatu variabel. IHSG merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya.

Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain. Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Data inflasi dan IHSG bulanan merupakan data yang diamati secara berkala menurut urutan waktu, sehingga merupakan data runtun waktu. Penelitian ini untuk menganalisis hubungan antara IHSG dengan Inflasi di Indonesia pada tahun 2010-2015.

1.2 Batasan Masalah

Dalam penelitian ini, pembatasan masalah sangat diperlukan demi menjamin kebebasan dalam mengambil kesimpulan yang diperoleh agar tidak terjadi penyimpangan dari tujuan semula. Berdasarkan pada latar belakang masalah dan kajian-kajian pendukung lain maka pembahasan akan difokuskan pada


(4)

4

regresi nonparametrik Spline kuadratik dan Theil dalam memodelkan hubungan antara IHSG terhadap Inflasi.

1.3 Rumusan Masalah

Berdasarkan latar belakang di atas, maka dapat dirumuskan masalah sebagai berikut :

1. Bagaimana analisis regresi nonparametrik Spline kuadratik? 2. Bagaimana analisis regresi nonparametrik Theil ?

3. Bagaimanakah hubungan antara IHSG terhadap Inflasi menggunakan regresi Spline kuadratik dan Theil?

1.4 Tujuan Penelitian

1. Menjelaskan analisis regresi nonparametrik Spline kuadratik 2. Menjelaskan analisis regresi nonparametrik Theil.

3. Menentukan hubungan antara IHSG terhadap inflasi dengan menggunakan regresi Spline kuadratik dan Theil.

1.5 Manfaat Penelitian

Penulisan skripsi ini diharapkan dapat memberikan manfaat diantaranya: 1. Bagi mahasiswa mampu mengaplikasikan ilmu statistika untuk analisis

regresi Spline kuadratik dan Theil.

2. Bagi perpustakaan Jurusan Pendidikan Matematika UNY, mampu memberikan tulisan atau referensi yang bermanfaat tentang regresi Spline kuadratik dan Theil.


(5)

5

3. Bagi pembaca mampu menambah wacana ilmu pengetahuan yang bermanfaat dan dapat dikembangkan ke tingkat yang lebih lanjut serta memberikan gambaran mengenai hubungan antara IHSG dan Inflasi di Indonesia.


(6)

6 BAB II

LANDASAN TEORI

Pada bab ini akan menjelaskan mengenai beberapa landasan teori untuk menerapkan regresi nonparametrik yaitu regresi nonparametrik Spline kuadratik dan Theil.

2.1 Derivatif

Definisi 2.1 Spiegel (1986 :58 )

Misalkan y= f(x)adalah fungsi dan c berada pada domain f. Derivatif fungsi f pada c dinyatakan dengan f' c( ), maka

x c f x c f c

f x

∆ − ∆ + = ∆→

) ( ) (

lim ) (

' 0 (2.1)

Jika nilai limitnya ada. Teorema 2.2 (Aturan Rantai)

Fungsi f dan g fungsi-fungsi yang mempunyai derivatif, maka fungsi komposisi g

f juga mempunyai derivatif.

Jika y= f(u) dan u=g(x), maka derivatif y=(fg)(x)= f(g(x)) dx

du du dy dx dy

= (2.2)

Bukti :

x u u y x y

∆ ∆ ∆ ∆ = ∆

.


(7)

7 0 . 0 ) lim )( lim ( . lim lim 0 0 0 0 = = ∆ ∆ ∆ = ∆ ∆ ∆ = ∆ → ∆ → ∆ → ∆ → ∆ dx du x u x x u x u x x x x Jadi, ) lim )( lim ( lim 0 0 0 x u u y x y x x x ∆ ∆ ∆∆ = ∆ ∆ → ∆ → ∆ → ∆ Sehingga dx du du dy dx dy ⋅ =

2.2 Integral Tak Wajar

Definisi 2.3 Baisuni.(1986 : 228)

Integral tak wajar adalah suatu integral yang salah satu atau kedua harga limit batas integralnya adalah tak berhingga untuk suatu harga x dalam interval [a,b] sehingga,

− →−∞ = b a b

a f x dx

dx x

f( ) lim ( ) (2.3)

∞ ∞ →

=

b a a b

dx

x

f

dx

x

f

(

)

lim

(

)

(2.4)

Apabila limit di ruas kanan ada dan tak berhingga, maka dikatakan integral tak wajar yang bersangkutan konvergen dan memiliki nilai yang terhingga itu. Jika


(8)

8

tidak, integral tersebut disebut divergen. Jika

∞ −

0

)

(

x

dx

f

dan

0

)

(

x

dx

f

konvergen maka dikatakan

∞ ∞ −

dx

x

f

(

)

konvergen dengan nilai :

∞ ∞ ∞ −

+

=

0 0

)

(

)

(

)

(

x

dx

f

x

dx

f

x

dx

f

(2.5)

2.3 Ekspektasi dan Variansi

Variansi berperan penting dalam analisis regresi spline kuadratik. Oleh karena itu, akan dibahas dasar teori tentang variansi.

Definisi 2.4 Bain (1992 : 67)

Jika X adalah variabel random kontinu dengan fungsi densitas probabilitas f(x) , maka nilai ekspektasi dari X didefinisikan sebagai berikut :

−∞∞

=

xf

x

dx

X

E

(

)

(

)

(2.6)

Jika nilai integral ini ada maka dikatakan konvergen absolut, jika tidak maka dikatakan nilai E(X) tidak ada. Jika X variabel random dengan fungsi densitas probabilitas f(x) , a dan b suatu konstanta, g(x) dan h(x) fungsi real dengan domain elemen dari X maka :

( )

[

ag

X

bh

X

]

aE

[ ]

g

( )

x

bE

[ ]

h

( )

X

E

(

)

+

=

+

Definisi 2.5 Bain (1992:73)

Variansi dari variabel random didefinisikan sebagai :

( )

[

(

)

]

( )

( )

( )

( )

2

(

( )

)

2

2 2 2 , 2 X E X E X E X E X E X E X Var − = = + − = − = µ µ µ µ


(9)

9

Jika X variabel random, a dan b suatu konstanta, maka :

(

)

[

(

)

]

( )

X Var a

X a E b aX Var

2

2 2

=

− =

+ µ

2.4 Jenis Matriks

1. Matriks Bujur Sangkar

Matriks bujur sangkar adalah matriks yang banyak baris dan banyak kolomnya sama. Pada matriks bujur sangkar, elemen-elemen

a

11

,

a

22

,...,

a

nndisebut

sebagai elemen diagonal. Contoh :

   

 

   

  =

nn n

n

n n

a a

a

a a

a

a a

a A

    

 

2 1

2 22

21

1 12

11

(2.7)

dengan banyaknya baris = banyaknya kolom = n 2. Matriks Identitas

Matriks identitas adalah matriks bujur sangkar yang elemen-elemen pada diagonal utama bernilai satu dan elemen luar diagonalnya bernilai 0.

3. Matriks Simetrik

Matriks simetrik adalah matriks bujursangkar yang elemennya simetris secara diagonal, dapat juga dikatakan bahwa matriks simetris adalah matriks yang transposenya sama dengan dirinya sendiri.

4. Matriks Diagonal

Matriks diagonal adalah adalah matriks bujursangkar yang semua elemen di luar diagonal utamanya nol


(10)

10 5. Matriks Skalar

Matriks skalar adalah matriks diagonal yang semua elemennya sama tetapi bukan nol atau satu.

6. Matriks Definit Positif

Matriks A dikatakan definit positif bila matriks A merupakan matriks yang simetrik dan aij >0 ∀ 1≤in

2.5 Operasi Matriks

1. Penjumlahan dan Pengurangan Definisi 2.6 Harville (2008 : 3)

Penjumlahan dua matriks A dan B didefinisikan sebagai jumlahan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

]

B

A

+

=

+

Definisi 2.7 Harville (2008 : 3)

Pengurangan dua matriks A dan B didefinisikan sebagai pengurangan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

] [

A

ij

B

ij

]

B

A

B


(11)

11

Penjumlahan dan pengurangan sembarang dua buah matriks A dan B dapat terjadi jika kedua matriks itu mempunyai ordo (ukuran) yang sama. Jumlah matriks A+B adalah matriks yang diperoleh dengan menjumlahkan elemen-elemen dalam matriks A dengan elemen-elemen yang seletak dalam matriks B. Sedangkan pengurangan matriks A-B adalah matriks yang diperoleh dengan mengurangi elemen-elemen dalam matriks A dengan elemen yang seletak dalam matriks B

2. Perkalian Matriks

Pada operasi perkalian matriks, jumlah kolom dari faktor pertama A harus sama dengan julah baris dari faktor kedua B agar dapat dibentuk hasil kali AB

n m n

r r

m

B

AB

A

×

×

×

=

×

Definisi 2.8 Harville (2008 : 2) tentang perkalian matriks dengan skalar

Pada konteks matriks dan vektor, suatu bilangan real k disebut sebagai skalar. Misalkan A =

[ ]

Aij mempresentasikan matriks A dengan ukuran m x n.

perkalian matriks A dan suatu skalar k didefinisikan sebagai :

[ ] [ ]

Aij kAij

k

kA= =

Definisi 2.9 Harville (2008 : 3) tentang perkalian matriks dengan matriks Perkalian matriks A dan B dapat dilakukan bila banyak kolom pada matriks A sama dengan banyak baris ada matriks B. Misalkan A=

[ ]

Aij berukuran m x

p dan B =

[ ]

Bij berukuran p x n maka C=AB berukuran m x n .

3. Transpose Matriks

Dinamakan transpose matriks A

( )

A′ jika baris-baris pada A ditukar menjadi kolom-kolom pada A′dan sebaliknya.


(12)

12

Definisi 2.10 Rencer and Schaalje (2008 : 7) Transpose dari matriks

[ ]

Aij

A= berukuran m x n didefinisikan sebagai

[ ] [ ]

Aij Aji

A′= ′ = yang berukuruan n x m Beberapa sifat transpose :

1)

( )

A′ ′ = A

2)

(

k1A±k2B

)

′ =k1A′±k2B

3)

( )

kA ′ =kA′, dengan k adalah skalar sebarang 4)

( )

AB ′ =BA

Bukti :

1) Misalkan A=

[ ]

Aij berukuran m x p dan berdasarkan definisi 2.10 maka

[ ]

A

[ ] [ ]

A A A

A′)′= ij ′′ = ji ′ = ij = (

2) Misalkan A=

[ ]

Aij berukuran m x p, B =

[ ]

Bij berukuran m x p . k1 dan k2

adalah skalar, berdasarkan Definisi 2.6 dan Definisi 2.10 diperoleh

(

)

[

] [

] [

]

[

k A k B

]

k A k B

B k A

k B

k A k B

k A k

ji ji

ij ij

ij ij

′ ± ′ = ±

=

′ ±

′ =

′ ±

= ′ ±

2 1

2 1

2 1

2 1

2 1

3) Misalkan A=

[ ]

Aij berukuran m x p , B =

[ ]

Bij berukuran m x p . k adalah skalar. Berdasarkan Definisi 2.8 dan Definisi 2.10 diperoleh

( )

kA ′ =

[ ] [ ] [ ]

kAij ′ = kAji =k Aji =kA

4) Misalkan A=

[ ]

Aij berukuran m x p , B =

[ ]

Bij berukuran m x p . berdasarkan sifat Definisi 2.9 dan Definisi 2.10 diperoleh


(13)

13

( )

AB A B B A BA

p k

ki jk p

k

kj

ik = ′ ′

 

 = ′   

 =

=

=1 1

4. Inverse Matriks

Jika A adalah matriks bujur sangkar, dan jika terdapat suatu matriks B yang ukurannya sama seddmikian sehigga AB = BA = I, maka A disebut invertible (dapat dibalik) dan B disebut sebagai invers dari A. Jika matriks B tidak dapat didefinisikan, maka A dinyatakan sebagai matriks singular.

5. Trace Matriks

Bila A suatu matriks bujur sangkar, maka jumlah unsur diagonal matriks A adalah trace dengan tr(A), sehingga

=

= + + +

= n

i ii

nn a

a a

a A tr

1 22

11 ...

) (

Lambang tr adalah singkatan dari trace dalam bahasa inggris. Jadi tr(In) = n .

2.6 Regresi Linear Sederhana

Analisis Regresi Linear Sederhana merupakan analisis regresi yang melibatkan satu variabel prediktor dan satu variabel respons. Hubungan antara variabel berikut:

i i

i

x

y

=

β

0

+

β

1

+

ε

(2.8)

dengan i

y adalah variabel respons ke-i dengan i = 1.2...n i

x adalah variabel prediktor ke -i dengan i = 1.2...n 0

β adalah konstan yang merupakan perpotongan dengan sumbu y 1

β adalah koefisien regresi i

ε adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ2


(14)

14 2.7 Regresi Nonparametrik

Regresi nonparametrik merupakan metode statistika yang digunakan untuk mengetahui hubungan variabel respons dengan variabel prediktor berpola parametrik seperti linier, kuadratik, kubik dan lainnya yang tidak diketahui bentuk fungsinya sehingga regresi nonparametrik sangat mempertahankan fleksibilitas maksudnya dapat menyesuaikan diri dengan karakteristi data. Oleh karena itu, estimasi kurva regresi dapat dilakukan berdasarkan pendekatan yang tidak terikat pada asumsi bentuk kurva tertentu seperti dalam regresi parametrik. Model regresi nonparametrik secara umum adalah sebagai berikut:

i i i f x

y = ( )+ε , i= 12,...,n (2.9) yi adalah variabel respons, xi adalah variabel prediktor, f(xi) adalah fungsi regresi

i

ε adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ2. Pemilihan fungsi ini biasanya dimotivasi oleh sifat kemulusan (smoothers) yang diasumsikan dimiliki oleh fungsi regresi. Data pengamatan kemudian digunakan untuk mengestimasi fungsi dengan teknik smoothing tertentu.

2.8 Regresi Spline

Regresi Spline adalah regresi nonparametrik yang mendekati ke arah pencocokan data dengan tetap memperhitungkan kemulusan kurva. Regresi ini mempunyai keunggulan dalam mengatasi pola data yang menunjukkan naik atau turun yang tajam dengan melibatkan orde dan kemungkinan beberapa titik knot serta kurva yang dihasilkan relatif mulus. Selanjutnya untuk mendapatkan model Spline yang terbaik maka diperlukan estimator Spline yang optimal. Estimator bergantung pada penetuan orde dan titik knot tersebut. Kriteria yang sering


(15)

15

digunakan agar orde dan titik knot optimal yaitu dengan menggunakan Generalized Cross Validation (GCV).

Berikut penjelasan mengenai orde, titik knot dan GCV 1. Orde

Regresi Spline memungkinkan untuk berbagai macam orde sehingga dapat dibentuk regresi berorde 1 (linear) , orde 2 (kuadratik) , orde 3 (kubik ) sampai orde n tergantung dari pola datanya. Orde yang dimaksud dalam regresi Spline ini adalah orde polinomialnya.

2. Titik Knot

Knot sebagai suatu titik fokus dalam fungsi spline, atau sering disebut parameter penghalus dalam Spline. Regresi Spline pada hakekatnya merupakan pemilihan lokasi titik knot. Untuk mendapatkan titik knot maka dapat dilakukan dengan cara plot data terlebih dahulu. Setelah itu penentuan titik knot ditentukan dari letak intervensi pada plot tersebut.

3. Generalized Cross Validation (GCV)

GCV merupakan suatu metode untuk memilih model berdasarkan ada kemampuan prediksi dari model tersebut. Nilai GCV diperoleh berdasarkan faktor titik knot dalam model regresi Spline. Semakin kecil nilai GCV maka galat pada model Spline juga akan kecil.

Menurut (Eubank : 1988) Spline orde q dengan knot ξ12,...,ξk diberikan dalam fungsi y dengan bentuk :

( )

2.11 n 2,..., 1, = i ) ( ... ) ( ) (

.. 1 1 2 2

2 2 1 0 i q K i K q q i q q i q q i q i i i x x x x x x y ε ξ β ξ β ξ β β β β β + − + + − + − + + + + + = + + + + + +


(16)

16

K i q

K

i jika x

x −ξ )+ , ≥ξ (

dengan (xi

ξ

K)q+ =

K i x jika

, 0

β adalah parameter model, β0 adalah intersep,

β

q+Kadalah slope pada

peubah x dan knot ke-K pada Spline berorde q, x adalah variabel respons, K

ξ adalah knot ke-K

2.9 Estimasi Kuadrat Terkecil.

Terdapat beberapa metode untuk mengestimasi parameter dalam model regresi, salah satunya adalah metode kuadrat terkecil atau Ordinary Least Square. Adapun kelebihan dari metode kuadrat terkecil adalah tidak memerlukan asumsi distribusi sedangkan kekurangan metode ini yaitu sangat sensitif untuk adanya data outlier. Estimasi parameter diperoleh dengan cara meminimalkan jumlah kuadrat error. Akan dicari estimasi koefisien regresi untuk model umum regresi :

ε β

β β

β + + + + +

= x x kxk

Y 0 1 1 2 2 ... Untuk i=1,2,...,n dimiliki model :

i ki k i

i

i x x x

Y01 12 2 +...+β +ε (2.12) dengan E

( )

εi =0; E

( )

εi2 =σ2 ; E

( )

εiεs =0; is

Model di atas dapat dibentuk ke dalam matriks

ε

Xβ

Y = + (2.13)

dengan             = n Y Y Y Y  2 1             = nk n n k k X X X X X X X X X X         2 1 2 22 21 1 12 11 1 1 1


(17)

17             = k β β β β  1 0             = n ε εε ε  2 1

Sehingga dapat juga ditulis sebagai berikut:

            +                         =             n k nk n n k k

n X X X

X X X X X X Y Y Y ε εε β β β            2 1 1 0 2 1 2 22 21 1 12 11 2 1 1 1 1

dari persamaan (2.13) diperoleh

Xβ

Y ε = −

= = n i i S 1 2

ε

Prinsip estimasi kuadrat terkecil adalah meminimumkan jumlah kuadrat galat, sehingga

(

) (

)

(

Y'Xβ

) ( ) ( )

' Xβ' Xβ Xβ Y' Y Y' Xβ Y ' Xβ Y ε ε' + − − = − − =

Matriks Y'Xβ=

(

Y'Xβ

)

' karena berukuran 1x1, maka

(

)

Xβ X' β' Y X' β' Y Y' β ' Xβ Y' Y Y' ε ε' + − = + − = 2 ' 2

Estimasi dari parameter diperoleh dengan menyamadengankan nol hasil dari derivatif atau turunan pertama dari jumlah kuadrat errornya, yaitu :

( ) (

)

( )

(

) (

)

β Xβ X β β Y X β β Y Y β Xβ X β Y X β 2 Y Y β ε ε ∂ ′ ′ ∂ + ∂ ′ ′ ∂ − ∂ ′ ∂ = ∂ ′ ′ + ′ ′ − ′ ∂ = ∂ ′ ∂ 2


(18)

18

( )

2XY 2XXβ

β ε

ε = + ∂′

Hasil ini harus memenuhi

( )

=0

∂′ ∂

βε

ε (2.14)

Penjabaran dari persamaan (2.14) sebagai berikut :

( )

=0

∂′ ∂ β ε ε Y X Xβ X 0 Xβ X Y X ′ = ′ = ′ + ′

−2 2

( )

( )

( )

XX Y β I Y X X X β X X X X 1 1 1 − − − ′ = ′ ′ = ′ ′ ˆ ˆ

βˆOLS =

( )

XX1Y (2.15) Untuk menunjukkan bahwa

ε

ε

minimum, maka hasil derivatif pertama dari jumlah kuadrat error harus diturunkan sekali lagi sehingga menghasilkan derivatif atau turunan kedua, dan nilainya harus lebih besar dari nol.

( )

(

)

(

)

X X Xβ X 2 X β β Xβ X β X β Y β β ε ε ′ = ′ + ′ − ∂∂ =     ∂′ + ′ ′ ′ − ′ ∂ ∂∂ = ∂ ′ ∂ 2 2 2 2 2 Y Y Y

Jaminan bahwa nilai dari εεminimum adalah bahwa turunan ke dua dari εε terhadap β harus bernilai positif. Sehingga nilai εεakan minimum apabila nilai

X X

2 lebih besar dari nol. Karena matriks XXadalah definit positif dengan semua unsur diagonalnya berbentuk kuadrat, maka turunan kedua dari εε terhadap β bernilai positif yang berarti βˆOLS =

( )

XX1Y minimum .


(19)

19 2.10 Outlier

Outlier adalah data yang terletak jauh dari data yang lainnya dalam suatu data. Menurut Barnett (1981) mendefinisikan outlier sebagai pengamatan yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data (dikutip dari Soemartini 2007). Keberadaan dari pencilan akan mengganggu dalam proses menganilisa data. Dalam kaitannya dengan analisis regresi. Outlier dapat menyebabkan hal-hal berikut :

- Resuidual yang besar dari model yang terbentuk - Variansi dari data akan menjadi lebih besar

- Estimasi interval akan memiliki rentang yang lebih besar

Menurut Soemartini (2007) terdapat 3 tipe outlier pada analisis regresi. yaitu sebagai berikut :

1. Vertical Outlier

Merupakan pengamatan terpencil pada variabel dependen Y tetapi tidak terpencil pada variabel independen X. Vertical outlier berpengaruh terhadap estimasi kuadrat terkecil.

2. Good leverage point

Merupakan pengamatan yang terpencil pada variabel X tetapi terletak dekat dengan garis regresi yang berarti bahwa pengamatan xi menjauh tetapi yi

cocok dengan garis regresi. Good leverage point tidak berpengaruh terhadap estimasi kuadrat terkecil, tetapi berpengaruh terhadap inferensi statistik karena dapat menimbulkan standard error


(20)

20 3. Bad leverage point

Merupakan pengamatan yang terpencil pada variabel X dan juga terletak jauh dari garis regresi. Bad leverage lebih berbahaya dibandingkan vertikal outlier, karena memiliki pengaruh yang sangat besar pada regresi linear klasik.

Pada statistik, data outlier harus dilihat terhadap posisi sebaran data lainnya. Metode untuk menetukan batasan dari outlier dalam sebuah analisis antara lain

a. Metode Grafis atau Scatter Plot

Metode ini dilakukan dengan cara memplot data menggunakan beberapa software statistika. Jika terdapat satu atau beberapa data yang jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya outlier. Pencilan akan nampak memisahkan diri dari kumpulan sebagian besar data sehingga kelemahan metode ini adalah keputusan bahwa suatu data merupakan outlier sangat bergantung pada peneliti sendiri. Karena hanya mengandalkan visualisasi grafis. Untuk itu dibutuhkan seseorang yang berpengalaman dalam menginterprestasikan plot tersebut.

b. Box Plot

Metode ini merupakan yang paling umum yakni dengan menggunakan nilai kuartil dan jangkauan. Kuartil 1,2, dan 3 membagi sebuah urutan data menjadi empat bagian. Jangkauan didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3 atau R (Interquatil Range) = Q3-Q1. Data-data outlier dapat ditentukan yaitu nilai yang kurang dari 1.5 x R terhadap kuartil 1 dan


(21)

21

nilai yang lebih dari 1.5 x R terhadap kuartil 3. Rumus kuartil sendriri adalah sebagai berikut :

4 2 ) * ( 1

+ = i n

Q dengan

i = kuartil. 1 untuk kuartil bawah. 2 untuk median. 3 untuk kuartil atas n = jumlah data

Sedangkan ukuran 1 langkah didefinisikan sebagai 1.5 kali dari selisih kuartil atas dan kuartil bawah.

Dibawah ini skema identifikasi outlier menggunakan boxplot

c. Standardized residual Residual ke-i didefinisikan :

eˆ= yˆiyi (2.15) Standardized residual ke-i :

ˆ

,

MSE

e

e

i

is

=

(2.16)

k n

e MSE

n i

− =

=1

2 1 ˆ


(22)

22

MSE adalah rata-rata residual kuadrat. MSE disebut standard error. Standard error merupakan ukuran kebaikan model regresi yang biasa digunakan untuk membandingkan model regresi satu dengan yang lain. Standard error mengukur besarnya variasi model regresi. Semakin kecil nilainya semakin baik model regresi.

d. Cook’s Distance

Metode ini diperkenalkan oleh Cook dengan rumus sebagai berikut :









=

kMSE

e

h

h

D

i

ii ii i

2 2

)

1

(

(2.18)

dengan hii adalah elemen-elemen diagonal dari matrik H dan k adalah

banyaknya variabel respons seperti terlihat pada rumus berikut :

HY

Y

X

X

X

X

Y

X

X

X

X

X

Y

=

=

=

=

− −

'

)

'

(

]

'

)

'

[(

ˆ

ˆ

1 1

β

dengan

'

)

'

(

X

X

1

X

X

H

=

− (2.19)

Sehingga dapat dikatakan outlier apabila nilai cooks distance lebih dari 4/n dengan n adalah jumlah observasi.

2.11 Teknik Smoothing

Teknik smoothing adalah teknik pemulusan yang biasa digunakan untuk menghaluskan suatu data dalam analisis runtun waktu. Untuk melakukan smoothing terhadap suatu data, nilai masa lalu digunakan untuk mendapatkan nilai


(23)

23

yang dihaluskan untuk time series. Tujuan dari smoothing adalah untuk membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Smoothing dari data pengamatan

{

(

X

i

,

Y

i

)

}

ni=1 adalah pendekatan dari rata-rata respons m pada regresi

n

i

X

m

Y

i

=

(

i

)

+

ε

i

,

=

1

,

2

,...,

Jika fungsi regresi m(.) diyakini smooth maka observasi pada titik-titik dekat X akan memuat informasi tentang nilai m(.) pada X, sehingga dengan menggunakan rata-rata lokal ini dapat dipandang sebagai dasar pemikiran dari teknik-teknik smoothing. Secara formal prosedur ini didefinisikan sebagai :

( )

=

n=

( )

i

W

ni

x

y

i

n

x

m

ˆ

1 1

dengan

{

Wni

( )

x,i=1,2,..,n

}

adalah barisan pembobot dan

m

ˆ x

(

)

menyatakan estimator dari m(x). Jika

{

Wni

( )

x ,i=1,2,..,n

}

positif dan untuk semua x,berlaku

( )

1

1

1

=

=

n

i

W

ni

x

y

i

n

maka

m

ˆ x

(

)

adalah estimasi kuadrat terkecil pada titik x. Hal ini dikarenakan

)

(

ˆ x

m

adalah solusi minimum dari

in=

W

ni

( )(

x

y

i

)

n

1

2

1

θ

terhadap

θ

yakni

θ

min

( )(

)

( )

(

( )

)

=

=

=

n

i

i ni n

i

i

ni

W

x

y

m

x

n

y

x

W

n

1

2 1

2

ˆ

1

1

θ

2.12 Autokorelasi

Autokorelasi terjadi akibat adanya hubungan beruntun dari galat model. Maksud dari hubungan beruntun adalah hubungan yang terjadi antara residual pada satu pengamatan dengan pengamatan lain pada variabel yang sama.


(24)

24

Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji autokorelasi.

Definisi 2.11 (Hanke and Winchen, 2005 :60)

Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan koefisien korelasi

( )

γk adalah autokorelasi antara data asli (Yt) dengan (Yt-k) yang

didefinisikan oleh Hanke and Winchen (2005:61)

(

)(

)

(

)

, 0,1,2,..

1

2

1 =

− − −

=

= +

= − k

Y Y

Y Y Y Y

n t t n

k

t t t k

k

γ (2.20)

dengan k

γ = koefisien autokorelasi untuk lag ke k Y = nilai rata-rata variabel Y

t

Y = data asli k

t

Y = data untuk lag ke k 2.13 Kriteria Kelayakan Model

Kelayakan model regresi berkaitan dengan seberapa dekat jarak antara data hasil prediksi dengan data yang sebenarnya. Ada beberapa kriteria berbeda yang digunakan untuk membandingkan kelayakan model antara model regresi Theil dengan regresi Spline. Kriteria tersebut adalah Mean Absolut Deviation (MAD), Mean Square Error (MSE), dan Mean Absolute Precentage Error (MAPE).


(25)

25 1. MAD (Mean Absolute Deviation)

Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan. MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total absolut dari forecast error dibagi dengan data. Atau yang lebih mudah adalah nilai kumulatif absolut error dibagi dengan jumlah observasi. Berikut ini rumus untuk menghitung MAD:

n | e | MAD

n i

t

=

= 1 2. MSE (Mean Squared Error)

Mean squared error biasa disebut juga galat peramalan. Masing-masing kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus untuk menghitung MSE:

n e MSE

n i

=

= 1 2

3. MAPE (Mean Absolute Percentage Error)

MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase kesalahan kuadrat merupakan pengukuran ketelitian dengan cara persentase kesalahan absolute. MAPE dihitung dengan menemukan kesalahan absolut


(26)

26

setiap periode, kemudian membaginya dengan nilai observasi pada periode tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus menghitung MAPE :

n | PE | MAPE

n i

=

= 1 dengan (100)

  

 −

=

i i i i

X F X PE

2.14 Indeks Harga Saham Gabungan

Indeks harga adalah suatu angka yang digunakan untuk melihat perubahan mengenai harga dalam waktu dan tempat yang sama ataupun berlainan. Indeks harga saham merupakan indikator utama yang menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan (IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain.

2.15. Inflasi

Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan


(27)

27

turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono diantaranya :

1) Demand Inflation

Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi ini sering disebut dengan inflasi murni.

2) Cost-Push Inflation

Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya produksi. Inflasi ini ditandai dengan kenaikan harga serta turunnya jumlah produksi. Keadaan ini timbul dimuali dengan adanya penurunan dalam penawaran biaya produksi. Kenaikan produksi terbsebut akan menaikkan harga dan menurunkan jumlah produksi.


(28)

67

DAFTAR PUSTAKA

Akhtar, Hossain. (2005). The Sources and Dynamics of Inflation in Indonesia. Journal of Applied Econometrics and International Development. Vol. 5. Diakses dari http://www.usc.es/economet/reviews/aeid546.pdf. pada tanggal 17 Februari 2015, Jam 12.52 WIB.

Aydin, Dursun. (2013). Smoothing Parameter Selection for Nonparametric Regression Using Smoothing Spline. Journal Of European Journal Of Pure And Applied Mathematics. Vol 6 No. 2. Diakses dari file:///C:/Users/Ulivia/Downloads/1362-4215-1-PB%20(1).pdf. pada tanggal 17 Februari 2015, Jam 13.28 WIB.

Bain, L.J.Enggelhardt, M. (1992). Introduction to Probability and Mathematical Statistics. 2nd. ed. Belmont California.

Baisuni, M. Hasyim. (1986). Kalkulus. Jakarta: UI-Press. Boediono. (1996). Ekonomi Moneter. Yogyakarta: BPFE.

Budiantara, I Nyoman. (1996). Regresi Spline dan Permasalahannya. Tesis. Yogyakarta: UGM.

Daniel, W. (1989). Statistika Nonparametrik Terapan. Jakarta: Gramedia.

Efendi, Tri. (2013). Pemodelan Persamaan Regresi Spline Kuadratik dengan Menentukan Titik – titik knot yang Optimal. Skripsi. Yogyakarta: UGM. Eubank, R.L . (1999). Spline Smoothing and Parametric Regression. 2nd. ed. New

York: Marcel Dekker.

Hanke, J.E. and Winchern, D.W. (2005). Business Forecasting. 8th. ed. Saddle River : Pearson.

Hardle, W. (1990). Applied Non Paramertrik Regression. New York : Cambridge University Press.

Harville, D.A . (2008). Matrix Algebra from a Statistician’s Perspective. New York : Springer.

Hess Ann, Paul Patterson. dkk. (2002). A SAS Macro for Theil Regression . ISSN 0737. Diakses dari http://vista.cira.colostate.edu/improve/Publications/ GrayLit/026_TheilReg/TheilRegressionl.pdf. pada tanggal 4 Februari 2015, Jam 09.15 WIB.


(29)

68

Patra, I Gusti Bagus Y. (2014). Regresi Splines dan Metode Theil dalam Memodelkan Hubungan Kurs Rupiah dengan IHSG. Skripsi. Yogyakarta. UGM.

Purnamasari, Yuni K. (2013). Perbandingan Model Regresi Nonparametrik Spline dan Regresi Nonparametrik Kernel. Skripsi. Yogyakarta: UGM.

Purwani, Estri. (2013). Regresi Splines Bentuk – Terbatas Monoton. Skripsi. Yogyakarta: UGM.

Putra, Tri Dharma. dkk. (2013). Pemodelan Regresi Linear Menggunakan Metode Theil. Jurnal Eksponensial. Vol 4 No.1 Jurusan FMIPA Universitas Mulawarman. Diakses dari http://fmipa.unmul.ac.id/pdf/272. pada tanggal 30 Januari 2015, Jam 10.44 WIB.

Sarti, A. (2013). Regresi Linier Nonparametrik dengan Metode Theil. Jurnal Matematika UNAND. Vol.2 No.3 Jurusan Matematika FMIPA Universitas Andalas Padang. Diakses dari www.journalsain-unand.com/ . pada tangal 30 januari 2015, Jam 11.00 WIB.

Soemartini. (2007). Outlier (Pencilan) . Bandung: FMIPA UNPAD. Spiegel, Murray R. (1986). Statistik Edisi Metrik. Jakarta : Erlangga.

Yudistirangga. (2013). Regresi Spline Polinomial Truncated dan Aplikasinya pada Data Indeks Harga Konsumen Daerah Istimewa Yogyakarta. Skripsi. Yogyakarta : UNY

http://www.bps.go.id/aboutus.php?inflasi=1. diakses pada tanggal 2 februari 2015, Jam 10.23 WIB.

http://finance.yahoo.com/q/hp?s=%5EJKSE&a=00&b=1&c=2010&d=11&e=31& f=2015&g=m. diakses pada tanggal 8 April 2015, Jam 12.43 WIB.


(1)

24

Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji autokorelasi.

Definisi 2.11 (Hanke and Winchen, 2005 :60)

Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan koefisien korelasi

( )

γk adalah autokorelasi antara data asli (Yt) dengan (Yt-k) yang

didefinisikan oleh Hanke and Winchen (2005:61)

(

)(

)

(

)

, 0,1,2,..

1 2 1 = − − − =

= +

= − k

Y Y Y Y Y Y n t t n k

t t t k

k

γ (2.20)

dengan

k

γ = koefisien autokorelasi untuk lag ke k Y = nilai rata-rata variabel Y

t

Y = data asli k

t

Y = data untuk lag ke k

2.13 Kriteria Kelayakan Model

Kelayakan model regresi berkaitan dengan seberapa dekat jarak antara data hasil prediksi dengan data yang sebenarnya. Ada beberapa kriteria berbeda yang digunakan untuk membandingkan kelayakan model antara model regresi Theil dengan regresi Spline. Kriteria tersebut adalah Mean Absolut Deviation (MAD), Mean Square Error (MSE), dan Mean Absolute Precentage Error (MAPE).


(2)

25 1. MAD (Mean Absolute Deviation)

Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan. MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total absolut dari forecast error dibagi dengan data. Atau yang lebih mudah adalah nilai kumulatif absolut error dibagi dengan jumlah observasi. Berikut ini rumus untuk menghitung MAD:

n | e | MAD

n

i t

= = 1

2. MSE (Mean Squared Error)

Mean squared error biasa disebut juga galat peramalan. Masing-masing kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus untuk menghitung MSE:

n e MSE

n

i

= = 1

2

3. MAPE (Mean Absolute Percentage Error)

MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase kesalahan kuadrat merupakan pengukuran ketelitian dengan cara persentase kesalahan absolute. MAPE dihitung dengan menemukan kesalahan absolut


(3)

26

setiap periode, kemudian membaginya dengan nilai observasi pada periode tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus menghitung MAPE :

n | PE | MAPE

n

i

=

= 1 dengan (100)

  

 −

=

i i i i

X F X PE

2.14 Indeks Harga Saham Gabungan

Indeks harga adalah suatu angka yang digunakan untuk melihat perubahan mengenai harga dalam waktu dan tempat yang sama ataupun berlainan. Indeks harga saham merupakan indikator utama yang menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan (IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain.

2.15. Inflasi

Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan


(4)

27

turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono diantaranya :

1) Demand Inflation

Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi ini sering disebut dengan inflasi murni.

2) Cost-Push Inflation

Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya produksi. Inflasi ini ditandai dengan kenaikan harga serta turunnya jumlah produksi. Keadaan ini timbul dimuali dengan adanya penurunan dalam penawaran biaya produksi. Kenaikan produksi terbsebut akan menaikkan harga dan menurunkan jumlah produksi.


(5)

67

DAFTAR PUSTAKA

Akhtar, Hossain. (2005). The Sources and Dynamics of Inflation in Indonesia. Journal of Applied Econometrics and International Development. Vol. 5. Diakses dari http://www.usc.es/economet/reviews/aeid546.pdf. pada tanggal 17 Februari 2015, Jam 12.52 WIB.

Aydin, Dursun. (2013). Smoothing Parameter Selection for Nonparametric Regression Using Smoothing Spline. Journal Of European Journal Of Pure And Applied Mathematics. Vol 6 No. 2. Diakses dari file:///C:/Users/Ulivia/Downloads/1362-4215-1-PB%20(1).pdf. pada tanggal 17 Februari 2015, Jam 13.28 WIB.

Bain, L.J.Enggelhardt, M. (1992). Introduction to Probability and Mathematical Statistics. 2nd. ed. Belmont California.

Baisuni, M. Hasyim. (1986). Kalkulus. Jakarta: UI-Press. Boediono. (1996). Ekonomi Moneter. Yogyakarta: BPFE.

Budiantara, I Nyoman. (1996). Regresi Spline dan Permasalahannya. Tesis. Yogyakarta: UGM.

Daniel, W. (1989). Statistika Nonparametrik Terapan. Jakarta: Gramedia.

Efendi, Tri. (2013). Pemodelan Persamaan Regresi Spline Kuadratik dengan Menentukan Titik – titik knot yang Optimal. Skripsi. Yogyakarta: UGM. Eubank, R.L . (1999). Spline Smoothing and Parametric Regression. 2nd. ed. New

York: Marcel Dekker.

Hanke, J.E. and Winchern, D.W. (2005). Business Forecasting. 8th. ed. Saddle River : Pearson.

Hardle, W. (1990). Applied Non Paramertrik Regression. New York : Cambridge University Press.

Harville, D.A . (2008). Matrix Algebra from a Statistician’s Perspective. New York : Springer.

Hess Ann, Paul Patterson. dkk. (2002). A SAS Macro for Theil Regression . ISSN 0737. Diakses dari http://vista.cira.colostate.edu/improve/Publications/ GrayLit/026_TheilReg/TheilRegressionl.pdf. pada tanggal 4 Februari 2015, Jam 09.15 WIB.


(6)

68

Patra, I Gusti Bagus Y. (2014). Regresi Splines dan Metode Theil dalam Memodelkan Hubungan Kurs Rupiah dengan IHSG. Skripsi. Yogyakarta. UGM.

Purnamasari, Yuni K. (2013). Perbandingan Model Regresi Nonparametrik Spline dan Regresi Nonparametrik Kernel. Skripsi. Yogyakarta: UGM.

Purwani, Estri. (2013). Regresi Splines Bentuk – Terbatas Monoton. Skripsi. Yogyakarta: UGM.

Putra, Tri Dharma. dkk. (2013). Pemodelan Regresi Linear Menggunakan Metode Theil. Jurnal Eksponensial. Vol 4 No.1 Jurusan FMIPA Universitas Mulawarman. Diakses dari http://fmipa.unmul.ac.id/pdf/272. pada tanggal

30 Januari 2015, Jam 10.44 WIB.

Sarti, A. (2013). Regresi Linier Nonparametrik dengan Metode Theil. Jurnal Matematika UNAND. Vol.2 No.3 Jurusan Matematika FMIPA Universitas Andalas Padang. Diakses dari www.journalsain-unand.com/ . pada tangal

30 januari 2015, Jam 11.00 WIB.

Soemartini. (2007). Outlier (Pencilan) . Bandung: FMIPA UNPAD. Spiegel, Murray R. (1986). Statistik Edisi Metrik. Jakarta : Erlangga.

Yudistirangga. (2013). Regresi Spline Polinomial Truncated dan Aplikasinya pada Data Indeks Harga Konsumen Daerah Istimewa Yogyakarta. Skripsi. Yogyakarta : UNY

http://www.bps.go.id/aboutus.php?inflasi=1. diakses pada tanggal 2 februari 2015, Jam 10.23 WIB.

http://finance.yahoo.com/q/hp?s=%5EJKSE&a=00&b=1&c=2010&d=11&e=31& f=2015&g=m. diakses pada tanggal 8 April 2015, Jam 12.43 WIB.