Pemilihan Model Regresi LANDASAN TEORI

2.5 Regresi

Spline Menurut Eubank 1988 dalam Tripena 2011, estimasi terhadap adalah yakni estimator yang mulus. Dengan mempertimbangkan sifat-sifat fungsi spline yang merupakan modifikasi dari regresi polinomial, maka untuk mendapatkan model estimasi dari digunakan regresi spline. Regresi spline adalah suatu pendekatan kearah pengepasan data dengan tetap memperhitungkan kemulusan kurva. Regresi spline memungkinkan untuk berbagai macam orde sehingga dapat dibentuk regresi spline linier, kuadrat, kubik maupun orde m . Regresi spline linier biasanya diaplikasikan pada data dengan pola yang masih sederhana sedangkan spline kuadrat dan kubik biasanya diaplikasikan pada data dengan pola yang lebih kompleks. Namun, dalam penyelesaiannya masalah utama menentukan model regresi spline terbaik adalah letak titik knot yang optimal. Sasmitoadi 2005 dalam Tripena 2011 menyebutkan bahwa terdapat 2 strategi untuk menyelesaikan permasalahan yaitu pertama memilih banyaknya knot yang relatif sedikit, sedangkan strategi yang kedua adalah kebalikannya, yakni menggunakan knot yang relatif banyak.

2.6 Pemilihan Model Regresi

Spline dengan yang Optimal Pada pendekatan nonparametrik fitting kurva regresi dilakukan dengan memperhatikan peubah dependen y secara terbatas di sekitar x pada selang tertentu, tidak pada keseluruhan pengamatan x . Pada spline pendekatan dilakukan pada segmentasi x untuk membangun fungsi s x dengan membagi pengamatan x berdasarkan titik-titik x yang disebut knot. Pendekatan ini merupakan piecewise polynomial , yaitu polinomial yang memiliki sifat tersegmen pada selang x yang terbentuk oleh titik-titik knot Wang dan Yang, 2009, dalam Herawati, 2011 . Dalam fungsi spline terdapat titik knot yang merupakan titik perpaduan yang menunjukkan perubahan perilaku kurva pada selang berbeda, sehingga kurva terbentuk tersegmen pada titik tersebut Hardle, 1990, dalam Ismi, 2011. Pemilihan λ pemulus optimal dalam Regresi spline pada hakekatnya merupakan pemilihan lokasi titik knot. Pemilihan knot pada Regresi Spline dilakukan secara trial error . Pemilihan knot ini sangat penting karena fungsi spline sangat tergantung pada titik knot Ismi, 2011 Sesuai tujuan dari pendekatan regresi nonparametrik, yakni ingin didapatkan kurva mulus yang mempunyai λ optimal menggunakan data amatan sebanyak n, maka diperlukan ukuran kerja atas estimator. Ukuran kinerja atas penduga kurva regresi dapat ditentukan dari MSE , fungsi loss dan fungsi resiko, serta GCV . MSE merupakan ukuran kinerja yang paling sederhana, yaitu: 2.6 keterangan: MSE = Mean Square Error λ = n = banyak data y = variabel dependen = estimator pemulus Menurut Wahba 1990 dan Wang 1998 dalam Oktaviana 2011, salah satu metode yang paling banyak dipakai dan disukai karena kelebihan yang dimilikinya adalah GCV . Dibanding metode lain, misal CV Cross Validation , metode GCV mempunyai sifat optimal asimtotik Wahba, 1990. Sementara menurut Budiantara 2005, dalam Tripena, 2011, GCV merupakan modifikasi dari Cross-Validation CV adalah metode untuk memilih λ yang meminimumkan. Fungsi GCV sebagai berikut: 2.7 keterangan: GCV = Generelized Cross Validation MSE = Mean Square Error λ = n = banyak data tr = trace I = matriks identitas = bersifat simetris dan idempoten Kriteria dan diharapkan memiliki nilai yang minimum, sehingga model regresi spline dapat dikatakan memiliki nilai yang optimal.

2.7 Metode Kuadrat Terkecil