2.5 Regresi
Spline
Menurut Eubank 1988 dalam Tripena 2011, estimasi terhadap adalah
yakni estimator yang mulus. Dengan mempertimbangkan sifat-sifat fungsi
spline
yang merupakan modifikasi dari regresi polinomial, maka untuk mendapatkan model estimasi dari digunakan regresi
spline.
Regresi
spline
adalah suatu pendekatan kearah pengepasan data dengan tetap memperhitungkan kemulusan kurva. Regresi spline memungkinkan untuk
berbagai macam orde sehingga dapat dibentuk regresi spline linier, kuadrat, kubik maupun orde
m
. Regresi
spline
linier biasanya diaplikasikan pada data dengan pola yang masih sederhana sedangkan
spline
kuadrat dan kubik biasanya diaplikasikan pada data dengan pola yang lebih kompleks.
Namun, dalam penyelesaiannya masalah utama menentukan model regresi
spline
terbaik adalah letak titik knot yang optimal. Sasmitoadi 2005 dalam Tripena 2011 menyebutkan bahwa terdapat 2 strategi untuk menyelesaikan
permasalahan yaitu pertama memilih banyaknya knot yang relatif sedikit, sedangkan strategi yang kedua adalah kebalikannya, yakni menggunakan knot
yang relatif banyak.
2.6 Pemilihan Model Regresi
Spline
dengan yang Optimal
Pada pendekatan nonparametrik
fitting
kurva regresi dilakukan dengan memperhatikan peubah dependen
y
secara terbatas di sekitar
x
pada selang tertentu, tidak pada keseluruhan pengamatan
x
. Pada
spline
pendekatan dilakukan pada segmentasi
x
untuk membangun fungsi
s x
dengan membagi pengamatan
x
berdasarkan titik-titik
x
yang disebut knot. Pendekatan ini merupakan
piecewise polynomial
, yaitu polinomial yang memiliki sifat tersegmen pada selang
x
yang terbentuk oleh titik-titik knot Wang dan Yang, 2009, dalam Herawati, 2011 .
Dalam fungsi
spline
terdapat titik knot yang merupakan titik perpaduan yang menunjukkan perubahan perilaku kurva pada selang berbeda, sehingga kurva
terbentuk tersegmen pada titik tersebut Hardle, 1990, dalam Ismi, 2011.
Pemilihan λ pemulus optimal dalam Regresi
spline
pada hakekatnya merupakan pemilihan lokasi titik knot. Pemilihan knot pada Regresi
Spline
dilakukan secara
trial error
. Pemilihan knot ini sangat penting karena fungsi
spline
sangat tergantung pada titik knot Ismi, 2011
Sesuai tujuan dari pendekatan regresi nonparametrik, yakni ingin didapatkan kurva mulus yang mempunyai
λ optimal menggunakan data amatan sebanyak n, maka diperlukan ukuran kerja atas estimator. Ukuran kinerja atas
penduga kurva regresi dapat ditentukan dari
MSE
, fungsi
loss
dan fungsi resiko, serta
GCV
.
MSE
merupakan ukuran kinerja yang paling sederhana, yaitu: 2.6
keterangan:
MSE
=
Mean Square Error
λ =
n
= banyak data
y
= variabel dependen = estimator pemulus
Menurut Wahba 1990 dan Wang 1998 dalam Oktaviana 2011, salah satu metode yang paling banyak dipakai dan disukai karena kelebihan yang
dimilikinya adalah
GCV
. Dibanding metode lain, misal
CV Cross Validation
, metode
GCV
mempunyai sifat optimal asimtotik Wahba, 1990. Sementara menurut Budiantara 2005, dalam Tripena, 2011,
GCV
merupakan modifikasi dari
Cross-Validation CV
adalah metode untuk memilih λ yang meminimumkan. Fungsi
GCV
sebagai berikut: 2.7
keterangan:
GCV
=
Generelized Cross Validation MSE
=
Mean Square Error
λ =
n
= banyak data
tr
=
trace I
= matriks identitas =
bersifat simetris dan idempoten
Kriteria dan
diharapkan memiliki nilai yang minimum, sehingga model regresi
spline
dapat dikatakan memiliki nilai
yang optimal.
2.7 Metode Kuadrat Terkecil