Perbandingan Metode Least Trimmed Squares dan Penaksir M dalam Mengatasi Permasalahan Data Pencilan

(1)

PERMASALAHAN DATA PENCILAN

SKRIPSI

SRI WULANDARI

080803006

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS SUMATERA UTARA

MEDAN

2012


(2)

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENAKSIR M DALAM MENGATASI

PERMASALAHAN DATA PENCILAN

SKRIPSI

Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains

SRI WULANDARI 080803006

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN 2012


(3)

PERSETUJUAN

Judul : PERBANDINGAN METODE LEAST TRIMMED

SQUARES DAN PENAKSIR M DALAM

MENGATASI PERMASALAHAN DATA

PENCILAN

Kategori : SKRIPSI

Nama : SRI WULANDARI

Nomor Induk Mahasiswa : 080803006

Program Studi : SARJANA (S1) MATEMATIKA

Departemen : MATEMATIKA

Fakultas : MATEMATIKA DAN ILMU PENGETAHUAN

ALAM (FMIPA) UNIVERSITAS SUMATERA UTARA

Diluluskan di

Medan, November 2012

Komisi Pembimbing :

Pembimbing 2 Pembimbing 1

Drs. Open Darnius, M.Sc Dr. Sutarman, M.Sc

NIP. 19641014 199103 1 004 NIP. 19631026 199103 1 001

Diketahui/Disetujui oleh

Departemen Matematika FMIPA USU Ketua,

Prof. Dr. Tulus, M.Si


(4)

PERNYATAAN

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENAKSIR M DALAM MENGATASI

PERMASALAHAN DATA PENCILAN

SKRIPSI

Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya

Medan, November 2012

SRI WULANDARI 080803006


(5)

PENGHARGAAN

Puji dan syukur kehadirat Allah SWT yang telah senantiasa memberikan rahmat dan hidayah-Nya sehingga penulis dapat menyelesaikan penyusunan skripsi yang berjudul Perbandingan Metode Least Trimmed Squares dan Penaksir M dalam Mengatasi Permasalahan Data Pencilan ini dengan baik dan lancar.

Penulisan skripsi ini dapat terselesaikan berkat bantuan banyak pihak. Oleh karena itu, dalam kesempatan ini penulis ingin mengucapkan terima kasih sebanyak-banyaknya kepada:

1. Bapak Dr. Sutarman, M.Sc dan Bapak Drs. Open Darnius, M.Sc selaku Dosen Pembimbing yang selalu memotivasi dan membimbing penulis dalam menyelesaikan skripsi ini.

2. Bapak Drs. Faigiziduhu Bu’ulolo, M.Si dan Bapak Drs. Suwarno Ariswoyo, M.Si selaku Dosen Penguji yang telah memberikan kritik dan saran yang membangun terhadap skripsi ini.

3. Bapak Prof. Dr.Tulus.Vordipl.Math.,M.Si.,Ph.D dan Ibu Dra. Mardiningsih, M.Si sebagai Ketua dan Sekretaris Departemen Matematika FMIPA USU. 4. Dr. Sutarman, M.Sc sebagai Dekan Fakultas Matematika dan Ilmu

Pengetahuan Alam Universitas Sumatera Utara.

5. Yang teristimewa kepada kedua orangtua tercinta yaitu Bapak Sutrisno dan Ibu Katiyem dan adik tersayang Fatkhu Rozi serta keluarga dekat tersayang yang

senantiasa memberikan do’a dan motivasi bagi penulis sehingga penulis selalu bersemangat.

6. Para sahabat dan teman-teman yaitu CICILANWIFI (Aci, Uci, Wika dan Fika), Alvi, Ugi, Ikbal, Niar, Fitri, Zuli, Anum, Silvi, dan teman-teman lainnya yang tidak dapat penulis sebutkan satu per satu, serta Kak Siti Hardianti dan Kak Rolina yang selalu memberikan semangat dan bantuan kepada penulis.


(6)

Penulis berharap semoga Allah SWT membalas kebaikan dari semua pihak yang telah banyak membantu dan memotivasi penulis dalam menyelesaikan skripsi ini. Penulis menyadari bahwa penulisan skripsi ini masih memiliki kekurangan dan ketidaksempurnaan. Untuk itu, kritik dan saran yang membangun dari berbagai pihak sangat diharapkan. Penulis berharap semoga skripsi ini dapat bermanfaat dan akhir kata penulis ucapkan terima kasih.

Medan, November 2012 Penulis

SRI WULANDARI 080803006


(7)

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antara variabel. Salah satu metode penaksir parameter dalam model analisis regresi yaitu metode kuadrat terkecil (OLS). Jika terdapat pencilan, metode OLS tidak lagi efisien sehingga metode yang cocok untuk permasalahan pencilan yaitu metode regresi robust. Pencilan adalah data yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data, dapat dideteksi dengan metode grafik dan menentukan nilai Leverage, DfFITS dan Cook’s Distance. Least trimmed squares (LTS) yaitu metode penaksiran parameter regresi robust yang menggunakan konsep pengepasan OLS untuk meminimumkan jumlah kuadrat sisa. Penaksir M yaitu metode dalam mengatasi pencilan dan dapat menggunakan fungsi Huber dalam mengestimasi parameter regresi. Tujuan penelitian ini yaitu membandingkan dua metode regresi robust yakni penaksir LTS dan penaksir M dengan metode OLS dalam mengatasi permasalahan data pencilan. Hasil penelitian yang diperoleh yaitu penaksir LTS merupakan metode paling baik karena mampu mengatasi pencilan dan menghasilkan estimasi koefisien regresi yang baik serta rata-rata kuadrat sisa paling kecil. Penaksir M juga menghasilkan estimasi yang baik dan rata-rata kuadrat sisa lebih kecil daripada metode OLS.

Kata kunci : pencilan, metode kuadrat terkecil, regresi robust, penaksir least trimmed squares, dan penaksir M


(8)

The Comparing of Method Least Trimmed Squares Estimator and M Estimator in Overcoming The Problems of Outlier Data

ABSTRACT

Regression analysis is used to determine the relationship between variables. One of methods for estimating the parameters in model analysis is ordinary least square (OLS). If there are outliers, OLS is not efficient again so the suitable method for problems of outliers is robust regression method. Outlier is data that inconsistent with the pattern and located away from the data center, can be detected with graphical

method and determine the leverage value, DfFITS and Cook’s Distance. Least

trimmed squares (LTS) is an estimating method of robust regression that using a fitting concept of OLS to minimize the sum square error. M estimator is a method to overcome the outliers and can use Huber function in estimating the regression parameter. The purpose of this study is comparing two methods of robust regression, those are LTS and M estimator with ordinary least squares method in overcoming the problems of outlier. The conclutions of it are LTS is the best method because it can overcome the outliers and give a good estimation in coeficient of regression, and so produce the smallest mean square error. Then, M estimator also gives a good estimation and produce smaller mean square error than OLS.

Keywords : outliers,ordinary least square, robust regression, least trimmed squares estimator, and M estimator.


(9)

DAFTAR ISI

Halaman

Persetujuan ii

Pernyataan iii

Penghargaan iv

Abstrak vi

Abstract vii Daftar Isi viii Daftar Tabel x Daftar Gambar xii Daftar Lampiran xiii Bab 1 Pendahuluan 1

1.1Latar Belakang 1

1.2Rumusan Masalah 2

1.3Tujuan Penelitian 3

1.4Batasan Masalah 3

1.5Manfaat Penelitian 3

1.6Metodologi Penelitian 3

1.7Tinjauan Pustaka 4

Bab 2 Landasan teori 6

2.1 Pengertian dan Dampak Pencilan 6

2.1.1 Pengertian Pencilan 6

2.1.2 Dampak Pencilan 7

2.2 Pendeteksian Pencilan 7

2.3 Metode Kuadrat Terkecil 9

2.3 Penaksir Kuadrat Terkecil 10

2.4 Rata-rata Kuadrat Sisa 13

2.5 Regresi Robust 14

2.5.1 Pengertian Regresi Robust 15

2.6 Metode Penaksir Least Trimmed Squares (LTS) 15

2.7 Metode Penaksir M ` 16

Bab 3 Pembahasan Data Asimulasi 19

3.1 Data 19

3.2 Pendeteksian Outlier 23

3.3 Metode Kuadrat Terkecil 29

3.3.1 Rata-rata Kuadrat Sisa untuk Metode OLS 34

3.4 Metode Regresi Robust dengan Penaksir Least Trimmed Squares 39

3.4.1 Rata-rata Kuadrat Sisa untuk Penaksir LTS 45

3.5 Metode Regresi Robust dengan Penaksir M 49


(10)

Bab 4 Kesimpulan dan Saran 58

4.1 Kesimpulan 58

4.2 Saran 58

Daftar Pustaka 60


(11)

DAFTAR TABEL

Halaman Tabel 2.1 Fungsi Obyektif, Fungsi Influence, dan Fungsi Pembobot untuk

Kuadrat Terkecil, Huber, dan Tukey Bisquare 18

Tabel 3.1 Data Bangkitan Awal 20

Tabel 3.2 Data Bangkitan Kedua 21

Tabel 3.3 Data Bangkitan Ketiga 22

Tabel 3.4 Data Bangkitan Kombinasi Data 2 dan Data 3 23

Tabel 3.5 Pendeteksian Pencilan untuk Data 1 dan Data 2 27

Tabel 3.6 Pendeteksian Pencilan untuk Data 3 dan Data 4 28

Tabel 3.7 Perkalian Variabel Bebas dan Variabel Terikat untuk Data 1 30

Tabel 3.8 Perkalian Variabel Bebas dan Variabel Terikat untuk Data 2 31

Tabel 3.9 Perkalian Variabel Bebas dan Variabel Terikat untuk Data 3 32

Tabel 3.10 Perkalian Variabel Bebas dan Variabel Terikat untuk Data 4 33

Tabel 3.11 Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 1 dengan Metode OLS 35

Tabel 3.12 Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 2 dengan Metode OLS 36

Tabel 3.13 Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 3 dengan Metode OLS 37

Tabel 3.14 Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 4 dengan Metode OLS 38

Tabel 3.15 Nilai Sisaan Kuadrat Terurut 40

Tabel 3.16 Perkalian Variabel untuk Data 1 dengan Penaksir LTS 41

Tabel 3.17 Perkalian Variabel untuk Data 2 dengan Penaksir LTS 42

Tabel 3.18 Perkalian Variabel untuk Data 3 dengan Penaksir LTS 43

Tabel 3.19 Perkalian Variabel untuk Data 4 dengan Penaksir LTS 44

Tabel 3.20 Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 1 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS 45

Tabel 3.21 Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 2 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS 46

Tabel 3.22 Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 3 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS 47

Tabel 3.23 Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 4 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS 48

Tabel 3.24 Hasil Perhitungan Koefisien Regresi Iterasi ke-1 50

Tabel 3.25 Hasil Perhitungan Koefisien Regresi Iterasi ke-2 51

Tabel 3.26 Nilai Koefisien Regresi Penaksir M 52

Tabel 3.27 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total untuk Data 1 Menggunakan Penaksir M 53

Tabel 3.28 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total untuk Data 2 Menggunakan Penaksir M 54

Tabel 3.29 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total untuk Data 3 Menggunakan Penaksir M 55


(12)

Tabel 3.30 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total untuk

Data 4 Menggunakan Penaksir M 56


(13)

DAFTAR GAMBAR

Halaman

Gambar 2.1 Skema Identifikasi Data Pencilan dengan IQR atau Box Plot 8

Gambar 2.2 Kriteria Pengambilan Keputusan Adanya Pencilan atau Tidak 9

Gambar 3.1 Scatterplot Data Bangkitan Awal 24

Gambar 3.2 Scatterplot Data Bangkitan Kedua 24

Gambar 3.3 Data Bangkitan Ketiga 25


(14)

DAFTAR LAMPIRAN

Halaman Lampiran A : Program Macro MINITAB Regrei Robuet dengan Pembobot

Fungsi Huber (dengan r=1) 62 Lampiran B : Hasil Output dengan Program Macro MINITAB Data 1 64 Lampiran C : Hasil Output dengan Program Macro MINITAB Data 2 68 Lampiran D : Hasil Output dengan Program Macro MINITAB Data 3 72 Lampiran E : Hasil Output dengan Program Macro MINITAB Data 4 76


(15)

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antara variabel. Salah satu metode penaksir parameter dalam model analisis regresi yaitu metode kuadrat terkecil (OLS). Jika terdapat pencilan, metode OLS tidak lagi efisien sehingga metode yang cocok untuk permasalahan pencilan yaitu metode regresi robust. Pencilan adalah data yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data, dapat dideteksi dengan metode grafik dan menentukan nilai Leverage, DfFITS dan Cook’s Distance. Least trimmed squares (LTS) yaitu metode penaksiran parameter regresi robust yang menggunakan konsep pengepasan OLS untuk meminimumkan jumlah kuadrat sisa. Penaksir M yaitu metode dalam mengatasi pencilan dan dapat menggunakan fungsi Huber dalam mengestimasi parameter regresi. Tujuan penelitian ini yaitu membandingkan dua metode regresi robust yakni penaksir LTS dan penaksir M dengan metode OLS dalam mengatasi permasalahan data pencilan. Hasil penelitian yang diperoleh yaitu penaksir LTS merupakan metode paling baik karena mampu mengatasi pencilan dan menghasilkan estimasi koefisien regresi yang baik serta rata-rata kuadrat sisa paling kecil. Penaksir M juga menghasilkan estimasi yang baik dan rata-rata kuadrat sisa lebih kecil daripada metode OLS.

Kata kunci : pencilan, metode kuadrat terkecil, regresi robust, penaksir least trimmed squares, dan penaksir M


(16)

The Comparing of Method Least Trimmed Squares Estimator and M Estimator in Overcoming The Problems of Outlier Data

ABSTRACT

Regression analysis is used to determine the relationship between variables. One of methods for estimating the parameters in model analysis is ordinary least square (OLS). If there are outliers, OLS is not efficient again so the suitable method for problems of outliers is robust regression method. Outlier is data that inconsistent with the pattern and located away from the data center, can be detected with graphical

method and determine the leverage value, DfFITS and Cook’s Distance. Least

trimmed squares (LTS) is an estimating method of robust regression that using a fitting concept of OLS to minimize the sum square error. M estimator is a method to overcome the outliers and can use Huber function in estimating the regression parameter. The purpose of this study is comparing two methods of robust regression, those are LTS and M estimator with ordinary least squares method in overcoming the problems of outlier. The conclutions of it are LTS is the best method because it can overcome the outliers and give a good estimation in coeficient of regression, and so produce the smallest mean square error. Then, M estimator also gives a good estimation and produce smaller mean square error than OLS.

Keywords : outliers,ordinary least square, robust regression, least trimmed squares estimator, and M estimator.


(17)

BAB 1

PENDAHULUAN

1.1. Latar Belakang

Regresi robust diperkenalkan oleh Andrews (1972) dan merupakan metode regresi yang digunakan ketika distribusi error tidak normal dan atau adanya beberapa outlier yang berpengaruh pada model (Ryan, 1997). Metode ini merupakan alat penting untuk menganalisis data yang dipengaruhi oleh outlier (pencilan) sehingga dihasilkan model yang robust atau resistance terhadap outlier. (Barnett dan lewis, 1994) menyebutkan bahwa outlier merupakan objek yang secara numerik berbeda dengan data lainnya. Selain itu, (Hair, et al, 1995) juga menyatakan bahwa outlier adalah data yang muncul memiliki karakteristik unik yang terlihat sangat jauh berbeda dari observasi lainnya dan muncul dalam bentuk nilai ekstrim baik untuk sebuah variabel tunggal ataupun variabel kombinasi. Definisi lain dari outlier adalah objek yang terletak jauh atau berbeda jauh dari pola distribusinya (Moore dan McCabe, 1999).

Salah satu asumsi penting dalam analisis regresi yang berkaitan dengan inferensia model adalah asumsi sebaran normal. Asumsi normalitas seringkali dilanggar saat data mengandung pencilan. Jika terdapat pencilan dalam data, maka bentuk sebaran data tidak lagi simetris tetapi cenderung menjulur ke arah pencilan sehingga melanggar asumsi normalitas. Dalam hal ini, analisis regresi robust merupakan metode yang cocok digunakan.

Di dalam regresi robust banyak metode yang bisa digunakan, seperti : Least Median Squares (LMS) yaitu metode penduga parameter regresi robust dengan meminimumkan median dari kuadrat sisaan. Least Trimmed Squares (LTS) yaitu


(18)

suatu metode pendugaan parameter regresi robust untuk meminimumkan jumlah kuadrat h residual (fungsi objektif), penaksir M (M–Estimator) adalah penduga parameter regresi robust untuk meminimumkan fungsi galat, dsb.

Dalam mengatasi permasalahan data yang mengandung pencilan, metode-metode penduga regresi robust tersebut memiliki kelebihan dan kelemahan masing-masing. Regresi robust dengan metode pendugaan parameter LTS lebih efisien dibanding LMS, karena LTS memiliki fungsi objektif yang lebih smooth (halus) sehingga akan lebih sensitif terhadap efek lokal dan mempunyai nilai breakdown yang paling tinggi (Yaffee, 2002). Sedangkan S–Estimator tidak selalu lebih baik dari LTS dan LMS, terutama untuk data yang sedikit. Akan tetapi jika data banyak, kadang S– Estimator lebih baik dari LTS dan LMS (Rousseeuw dan Leory, 1987). Secara umum, metode LMS sangat efisien dibanding metode M dalam menaksir koefisien garis jika data mengandung outlier, dan secara khusus, jika model linier kurang sesuai dengan data meskipun data mengandung outlier maka metode LMS menjadi tidak efisien dibanding metode M dalam menaksir koefisien regresi (Sugiarti, 2010).

Dari uraian di atas, maka dalam penelitian tugas akhir ini peneliti akan membandingkan metode regresi robust yaitu metode Least Trimmed Squares dan penaksir M dalam mengatasi permasalahan data pencilan.

1.2. Rumusan Masalah

Adanya Pencilan akan mengganggu persamaan regresi linier. Sejauh ini belum ada informasi tentang hasil perbandingan antara dua penaksir regresi robust yakni penaksir LTS dan penaksir M. Oleh karena itu, akan dibandingkan dua penaksir dalam regresi robust untuk mengatasi pencilan sekaligus mendapatkan sejauh mana perbedaan regresi robust dengan persamaan regresi liniernya.


(19)

1.3. Tujuan Penelitian

Tujuan dari penelitian adalah membanding dua metode regresi robust yakni metode LTS (Least Trimmed Squares) dengan metode penaksir M (M–Estimator) untuk menentukan metode mana yang lebih baik pada kasus permasalahan data pencilan (outlier).

1.4. Batasan Masalah

Masalah dalam penelitian ini dibatasi pada data sekunder yang berhubungan dengan masalah pencilan (outlier), kemudian metode regresi robust yang digunakan yaitu LTS dan M-Estimator.

1.5. Manfaat Penelitian

Kontribusi yang diberikan dari penelitian ini yaitu diharapkan semoga penelitian ini dapat menambah dan meningkatkan wawasan dalam penerapan ilmu statistika dengan metode regresi robust dalam mengatasi permasalahan pencilan, dapat mempermudah pembaca dalam menambah ilmu pengetahuan mengenai metode regresi robust dan sebagai referensi baik di departemen maupun di perpustakaan, serta membantu para peneliti yang melakukan penelitian mengenai permasalahan pencilan (outlier).

1.6. Metodologi Penelitian

Metode penelitian yang digunakan adalah study literature yaitu mempelajari buku-buku, jurnal-jurnal dan bahan-bahan literatur yang berhubungan dengan penelitian, kemudian dianalisis dan dibandingkan.


(20)

Adapun langkah-langkahnya sebagai berikut :

a. Mengambil data dari hasil pengamatan team marketing di sebuah Bank.

b. Menguji data kemudian menggunakan dua metode regresi robust yakni penaksir least trimmed squares dan penaksir M untuk mengatasi outlier.

c. Mengolah data menggunakan bantuan software.

d. Membandingkan hasil penyelesaian dan pengolahan data antara kedua metode. e. Menyimpulkan hasil perbandingan.

1.7. Tinjauan Pustaka

Metode regresi robust terus berkembang dan banyak digunakan dalam meneliti berbagai permalasahan, seperti : pengoptimalan kekuatan torque pada lampu TL yaitu menggunakan metode penduga parameter LTS, dengan alasan terdapat pencilan pada

data kekuatan torque (Akbar dan Maftukhah, 2007).

Pada penelitian Sugiarti (2010) mengenai tingkat efisiensi penaksir M terhadap penaksir LMS dalam menaksir koefisien garis regresi, menyebutkan bahwa efisiensi dari dua penaksir tersebut adalah rasio dari ukuran sampel yang diperlukan untuk mendapatkan keakuratan yang sama. Dalam penelitian tersebut, juga disimpulkan bahwa secara umum metode LMS memberikan penaksir koefisien garis regresi yang tidak jauh berbeda dengan metode M. Dalam hal data tidak mengandung outlier, metode LMS kurang efisien dibanding metode M dalam menaksir koefisien garis regresi, namun metode LMS sangat efisien dibanding metode M dalam menaksir koefisien garis regresi jika data mengandung outlier. Secara khusus, jika model tidak sesuai dengan data meskipun data mengandung outlier maka metode LMS menjadi tidak efisien dibanding metode M dalam menaksir koefisien garis regresi.

Selanjutnya, (Ardiyanti, 2011) menyebutkan dalam penelitiannya bahwa proses analisis tingkat keefektifan Estimasi-M dan Estimasi-MM dimulai dengan menggunakan metode kuadrat terkecil, identifikasi outlier, dan analisis dua metode robust yakni Estimasi-M dan Estimasi-MM. Apabila standar eror yang dihasilkan


(21)

metode regresi robust lebih kecil dari OLS, maka regresi robust dapat menganalisis data tanpa membuang outlier dan menghasilkan estimasi yang resisten terhadap outlier. Dalam penelitiannya menyimpulkan bahwa baik Estimasi-M maupun Estimasi-MM mempunyai keefektifan yang sama dalam mengatasi outlier pada OLS, karena keduanya dapat mengecilkan standar eror yang dihasilkan outlier.


(22)

BAB 2

LANDASAN TEORI

Pada bab ini akan diuraikan beberapa konsep dan metode yang menjadi dasar penulisan tugas akhir ini. Beberapa konsep dan metode tersebut ialah pencilan, tata cara mendeteksi pencilan, metode OLS, menentukan rata-rata kuadrat terkecil dan penaksir dalam regresi robust yakni penaksir Least Trimmed Squares dan penaksir M.

2.1. Pengertian dan Dampak Pencilan

2.1.1. Pengertian Pencilan

Keberagaman data di satu sisi sangat dibutuhkan dalam analisis statistika, namun di sisi lain keberagaman data menyebabkan adanya nilai pengamatan yang berbeda dengan nilai pengamatan lainnya. Penyebabnya dapat dikarenakan adanya kesalahan pada pengamatan, pencatatan, maupun kesalahan yang lain. Data yang berbeda inilah yang disebut data pencilan.

Menurut Sembiring (1995), secara umum pencilan adalah data yang tidak mengikuti pola umum model. Pencilan juga dapat diartikan sebagai suatu keanehan atau keganjilan pada data amatan yang menunjukkan ketidaksesuaian dengan sisa data tersebut. Selain itu, (Barnett dan lewis, 1994) menyebutkan bahwa outlier merupakan objek yang secara numerik berbeda dengan data lainnya. (Hair, dkk, 1995) juga menyatakan bahwa pencilan adalah data yang muncul memiliki karakteristik unik yang terlihat sangat jauh berbeda dari observasi lainnya dan muncul dalam bentuk


(23)

nilai ekstrim baik untuk sebuah variabel tunggal ataupun variabel kombinasi. Definisi lain dari outlier adalah objek yang terletak jauh atau berbeda jauh dari pola distribusinya (Moore dan McCabe, 1999).

2.1.2. Dampak Pencilan

Keberadaan data pencilan akan mengganggu proses analisis data dan harus dihindari sehingga dalam statistik ruang, data tersebut akan dievaluasi apakah data pencilan perlu dihilangkan atau tidak. Pencilan dapat menyebabkan munculnya nilai mean dan standard deviasi yang tidak konsisten dengan mayoritas data. Selain itu, estimasi koefisien garis regresi yang diperoleh tidak tepat, dan pada beberapa analisa inferensia dapat menyebabkan kesalahan dalam pengambilan keputusan dan kesimpulan.

2.2. Pendeteksian Pencilan

Beberapa metode dan nilai yang dapat digunakan untuk mendeteksi ada atau tidak adanya pencilan ialah sebagai berikut :

1. Metode Grafik

Metode grafik merupakan salah satu cara pendeteksian pencilan yang mudah dipahami karena menampilkan data secara grafis (gambar) tanpa melibatkan perhitungan yang rumit. Namun, kelemahan metode ini yaitu yang menentukan data tersebut sebagai pencilan atau tidak tergantung pada kebijakan (judgement) peneliti, karena metode ini hanya mengandalkan visualisasi gambar. Pendeteksian pencilan dengan metode grafik diantaranya ialah :

a. Diagram Pencar (Scatter Plot)

Metode ini dilakukan dengan cara memplot data dengan observasi ke-i (i = 1,2, …, n). Selain itu, setelah diperoleh model regresi maka dapat dilakukan dengan cara memplot


(24)

antara residual (e) dengan nilai prediksi Y ̂ . Jika terdapat satu atau beberapa data yang terletak jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya pencilan.

b. Boxplot

Metode boxplot merupakan metode yang paling umum yaitu dengan menggunakan nilai kuartil dan jangkauan. Jangkauan (IQR, Interquartile Range) didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3, atau IQR = Q3 – Q1. Pendeteksian pencilan dapat ditentukan jika nilai yang kurang dari 1.5*IQR terhadap kuartil 1 dan nilai yang lebih dari 1.5*IQR terhadap kuartil 3.

Gambar 2.1. Skema Identifikasi Data Pencilan dengan IQR atau Box Plot

2. Leverage Values, DfFITS, Cook’s Distance, dan DfBETA(s)

Cara mendeteksi pencilan dapat juga dengan menentukan nilai Leverage, DfFITS,

Cook’s Distance, dan DfBETA(s). Definisi dari masing-masing nilai tersebut ialah sebagai berikut :


(25)

a. Leverage Values; menampilkan nilai leverage (pengaruh) terpusat.

b. DfFITS atau Standardized DfFIT; menampilkan nilai perubahan dalam harga yang diprediksi bilamana case tertentu dikeluarkan dan sudah distandarkan.

c. Cook’s Distance; menampilkan nilai jarak Cook

d. DfBETA(s); menampilkan nilai perubahan koefisien regresi sebagai hasil perubahan yang disebabkan oleh pengeluaran case tertentu. Digunakan untuk mendeteksi pencilan pada variabel bebas.

Ketentuan dalam pendeteksian pencilan dengan nilai-nilai tersebut adalah :

Gambar 2.2. Kriteria Pengambilan Keputusan Adanya Pencilan atau Tidak

Keterangan :

n = jumlah observasi (sampel) p = jumlah parameter.

2.3. Metode Kuadrat Terkecil

Secara umum, analisis regresi digunakan untuk mengetahui hubungan antara variabel terikat (Y) dengan satu atau lebih variabel bebas (X). Dalam analisis regresi, akan diperoleh bentuk dan pola hubungan yang ada dan juga dapat dilakukan prediksi terhadap nilai variabel yang sudah diketahui. Salah satu metode yang sering digunakan untuk mendapatkan nilai-nilai penduga (penaksir) parameter dalam pemodelan regresi yaitu metode kuadrat terkecil (Cahyawati, 2009). Metode penaksir

{

}


(26)

ini digunakan untuk menentukan persamaan linier estimasi dengan cara meminimumkan jumlah kuadrat sisa.

Analisis regresi yang digunakan untuk satu variabel terikat (Y) dan satu variabel bebas (X) disebut regresi linier sederhana. Model regresi linier sederhana dapat dituliskan dalam persamaan berikut :

(2.1)

Keterangan :

i = 1, 2, ...,n

Yi = variabel terikat

Xi = variabel bebas

= koefisien regresi = koefisien regresi = sisaan

Nilai dan adalah parameter regresi yang akan diestimasi.

Model penaksir regresi linier sederhana untuk persamaan (2.1) adalah sebagai berikut :

̂ ̂ ̂ (2.2)

dengan

̂ = nilai Yi yang diestimasi

̂ ̂ = penaksir parameter = variabel bebas

2.4. Penaksir Kuadrat Terkecil


(27)

“Pada model regresi sederhana, penaksir kuadrat terkecil ̂ dan ̂ tidak bias dan mempunyai nilai varians yang minimum diantara semua penaksir linier yang tidak

bias”.

( ̂ ) ( ̂ )

dengan ̂ disebut penduga (penaksir).

Dari persamaan regresi linier sederhana (2.1), nilai residu (sisaan) ke-i pada model merupakan selisih antara data sebenarnya dengan data dugaan, yaitu :

̂ (2.3)

̂ ̂ (2.4) Prinsip dasar metode kuadrat terkecil adalah meminimumkan jumlah kuadrat sisaan yang dinyatakan sebagai berikut :

Minimum ∑ (2.5)

Sehingga :

= ∑ [ ̂]

= ∑ [ ̂ ̂ ]

= ∑ [ ̂ ̂ ] (2.6)

dengan

= data sebenarnya ̂ = data dugaan

̂ , ̂ = penaksir parameter = sisaan kuadrat

Andaikan ∑ dinotasikan dengan Q dan Q merupakan fungsi dari nilai ̂ dan ̂ sehingga nilai-nilai Q dapat ditentukan dengan menurunkan persamaan (2.6) terhadap


(28)

̂ dan ̂ kemudian menyamakan tiap turunannya dengan nol, diperolehlah nilai sebagai berikut :

∑ [ ̂ ̂ ]

̂ ∑

̂ ∑

∑ ̂ ̂

̂ ∑ ∑( ̂ ̂ )

̂

∑ ( ̂

̂

)

(2.7)

dan

̂ ∑ ∑( ̂ ̂ )

̂

∑ ( ̂

̂

)

(2.8)

Dari persamaan (2.7) maka akan dicari nilai ̂ sebagai berikut :

̂ ̂ ∑

̂ ∑ ̂ ∑


(29)

Selanjutnya, dari persamaan (2.8), akan dicari nilai ̂ sebagai berikut :

̂ ∑ ̂ ∑

[∑ ̂ ∑ ] ∑

̂ ∑

∑ ∑ ̂ [∑ ] ̂ ∑

̂ [∑ ] ̂ ∑

̂

[

]

maka diperolehlah ̂ yaitu :

̂ ∑

∑ ∑

2.5 . Rata-rata Kuadrat Sisa

Rata-rata kuadrat sisa S2 adalah salah satu cara untuk menentukan kecocokan model, jika semakin kecil rata-rata kuadrat sisa yang dihasilkan maka semakin baik model tersebut (Sembiring, 1995). Cara ini diperoleh dengan menghitung banyaknya parameter dalam model melalui pembagian dengan derajat kebebasannya. Rata-rata kuadrat sisa dapat ditentukan dengan rumus berikut :


(30)

dengan

JKS = Jumlah kuadrat sisa JKT = Jumlah kuadrat total ∑ ̅

JKR = Jumlah kuadrat regresi ( ̂ ̅)

n = Banyak sampel p = Banyak parameter

= Data sebenarnya ̂= Data dugaan

̅= Rata-rata data sebenarnya

2.6. Regresi Robust

Menurut Rousseeuw dan Leroy (1987), analisis regresi dan regresi robust memiliki tujuan yang sama namun proses keduanya berlawanan. Dalam analisis regresi, langkah pertama yang dilakukan yaitu menghapus pencilan kemudian mencocokkan data yang sudah bagus dengan menggunakan metode kuadrat terkecil, sedangkan regresi robust langkah pertama yang dilakukan yaitu mencocokkan model regresi dengan sebagian besar data, kemudian mengatasi titik–titik pencilan yang memiliki nilai residu yang besar sebagai solusi robust tersebut.

2.6.1. Pengertian regresi robust

Regresi robust adalah suatu metode yang digunakan untuk mengatasi masalah pencilan (Rousseeuw dan Leroy, 1987). Metode ini merupakan alat penting untuk menganalisis data yang dipengaruhi oleh outlier (pencilan) sehingga dapat menghasilkan


(31)

model yang robust atau resistance terhadap pencilan. Salah satu cara yang digunakan untuk mengukur ke-robust-an (kekekaran) suatu estimator (penaksir) yaitu Breakdown point. Breakdown point adalah kelompok terkecil adanya pencilan yang mengakibatkan suatu penaksir menghasilkan penaksiran yang jauh berbeda atau bias. Konsep breakdown dilakukan untuk mengetahui kemampuan suatu penaksir dalam menghasilkan nilai taksiran yang resisten terhadap adanya pencilan dalam jumlah tertentu (Akbar dan Maftukhah, 2007).

Di dalam regresi robust, banyak metode estimasi yang bisa digunakan, yaitu penaksir Least Median Squares (LMS), Least Trimmed Squares (LTS), penaksir M (M–Estimator), penaksir S, penaksir MM. Least Median Squares (LMS) adalah metode penaksir parameter regresi robust dengan meminimumkan median dari kuadrat sisaan. Least Trimmed Squares (LTS) adalah metode penaksir parameter regresi robust untuk meminimumkan jumlah kuadrat h residual. Penaksir M (M– estimator) adalah penaksir parameter regresi robust untuk meminimumkan fungsi obyektif dari residualnya, dan sebagainya.

2.7. Metode Penaksir Least Trimmed Squares (LTS)

Least Trimmed Squares merupakan salah satu metode penaksir dalam regresi robust yang digunakan untuk mengatasi pencilan. Metode penaksir ini adalah metode penaksiran parameter regresi robust dengan menggunakan konsep pengepasan metode kuadrat terkecil (ordinary least square) untuk meminimumkan jumlah kuadrat sisaan (Akbar dan Maftukhah, 2007). Penaksir least trimmed squares dapat dinyatakan dalam rumus fungsi obyektif berikut :

(2.11)

dengan

= Kuadrat residual (sisaan kuadrat) yang terurut dari terkecil hingga terbesar.

e

2 <

e

2 <

e

2 < …. <

e

2 < … <

e

2 < … <

e

2


(32)

n = Banyaknya pengamatan p = Banyaknya parameter

[ ] [ ]

Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi obyektif terkecil. Nilai h pada persamaan akan membangun breakdown point yang besar sebanding dengan 50%. Kuadrat sisa pada persamaan (2.11) berasal dari persamaan estimasi regresi linier menggunakan konsep metode kuadrat terkecil dengan banyaknya sisaan kuadrat yang akan diolah adalah sebanyak h residual.

2.8. Metode Penaksir M

Metode penaksir M merupakan metode penaksir dalam regresi robust untuk mengestimasi parameter yang disebabkan adanya outlier (pencilan). Penaksir M meminimumkan fungsi ρ (fungsi obyektif) dari residualnya. Fungsi obyektif adalah fungsi yang digunakan untuk mencari fungsi pembobot pada regresi robust. Fungsi pembobot yang digunakan antara lain adalah (Montgomery dan Peck,1982: 369): Fungsi pembobot yang dapat digunakan untuk penaksir M antara lain:

1. Fungsi pembobot yang disarankan oleh Huber 2. Fungsi pembobot yang disarankan oleh Tukey

Fungsi Huber yang akan digunakan dapat dinyatakan sebagai berikut :

ψ(εi*) = εi* ; | εi*| ≤ r = r ; εi* > r = r ; εi* < r

Penaksiran parameter menggunakan metode penaksir M disebut Iteratively Reweighted Least Squares (IRLS). Solusi menggunakan metode ini yaitu melakukan weighted least square (WLS) secara iterasi yang dapat dinyatakan dalam rumus berikut :


(33)

( ) * i   ( )

(2.12)

dengan εi* adalah residual yang telah diskalakan, sehingga

̂ , sedangkan

̂ | |, i = 1, 2, ... , n. Selanjutnya persamaan (2.12) dapat dinyatakan dalam rumus berikut :

(2.13)

dengan wi =

) ( ) ( * * i i   

, maka persamaan (2.12) juga merupakan solusi jumlah kuadrat error terboboti (WLS) yaitu :

̂

(2.14)

Tahapan iterasi dalam penaksiran koefisien regresi (Winahju, 2010) adalah:

1. Dihitung penaksir , dinotasikan b menggunakan least square, sehingga didapatkan

0 , ˆi

y dan i,0 = yiyˆi,0, (i = 1, 2, ... n) yang diperlakukan sebagai nilai awal (yi

adalah hasil eksperimen).

2. Dari nilai-nilai residual ini dihitung ˆ0, dan pembobot awal wi,0 =

) ( ) ( * 0 , * 0 , i i   

. Nilai (i*) dihitung sesuai fungsi Huber, dan i,0* = i,0 /ˆ0.

3. Disusun matrik pembobot berupa matrik diagonal dengan elemen w1,0 , w2,0 , . . . ,

wn,0 , dinamai W0.

4. Dihitung penaksir koefisien regresi : bRobust ke 1 = (XT W0 X)-1 XT W0 Y 5. Dengan menggunakan bRobust ke 1 dihitung pula

  n i i i y y 1 1 , | ˆ

| atau

n i i 1 1 . | | .


(34)

6. Selanjutnya langkah 2 sampai dengan 5 diulang sampai didapatkan

n i m i 1 . | |

konvergen. Nilai

n i m i 1 . |

| yang konvergen adalah selisih antara dan mendekat 0; banyak iterasi.

Secara ringkas, fungsi obyektif dan pembobot dari estimator kuadrat terkecil, Huber, dan Tukey Bisquare dapat dilihat pada Tabel 2.1.

Tabel 2.1. Fungsi obyektif, fungsi Influence dan fungsi pembobot untuk Kuadrat Terkecil, Huber, dan Tukey Bisquare

Metode Kuadrat

Terkecil Huber Tukey Bisquare

Fungsi objektif 2 * *) ( ) ( i

LS ee

          r e untuk r e r r e untuk e e i i i i H | | , 2 / | | | | , 2 / ) ( )

( * 2 *

* 2 * * 

 

                r e untuk r r e untuk e i i r e k i * 2 * 3 2 6 * B 6 / 1 1 ) ( * 2  Fungsi influence * * ) ( i

LS ee

 

            r e untuk r r e untuk r r e untuk e e i i i i * * * * * H 

 

 

         r e untuk r e untuk e e i i r e i i * * 2 2 * * B 0 1 *  Fungsi Pembobot 1 ) (e* 

wLS

 

       r e untuk e r r e untuk e w i i i * * * * H / 1

 

 

         r e untuk r e untuk e w i i r ei * * 2 2 * B 0 1 *

Sumber : Fox (2002), Montgomery (1992)


(35)

BAB 3

PEMBAHASAN DATA SIMULASI

Pada bab ini akan dilakukan suatu perbandingan beberapa metode yang telah dikemukakan pada Bab 2. Sebagai dasar untuk melakukan perbandingan digunakan data 1 yang terdapat pada Tabel 3.1, data 2 pada Tabel 3.2, data 3 pada Tabel 3.3, dan data 4 pada Tabel 3.4 . Selanjutnya akan dilakukan pendeteksian pencilan, analisis dan pengolahan data berdasarkan metode kuadrat terkecil (OLS) dan regresi robust yakni penaksir least trimmed squares dan penaksir M.

3.1. Data

Data 1, data 2, data 3, dan data 4 merupakan data yang akan digunakan dalam bab ini yaitu data bangkitan yang mengandung permasalahan pencilan. Data akan dideteksi dengan beberapa metode pendeteksian pencilan, kemudian akan diolah dan dibandingkan berdasarkan metode kuadrat terkecil dan metode regresi robust yakni penaksir least trimmed squares dan penaksir M.


(36)

Tabel 3.1. Data 1 Hari ke- Banyak

Nasabah

Volume Tabungan

1 3 3

2 1 5

3 2 6

4 4 4

5 3 6

6 5 10

7 2 4

8 1 3

9 3 5

10 6 15

11 4 16

12 3 12

13 5 16

14 6 12

15 4 16

16 1 4

17 5 15

18 4 16

19 2 4

20 3 12


(37)

Tabel 3.2. Data 2

Hari ke

Banyak Nasabah

Volume Tabungan

1 3 3

2 1 14

3 2 6

4 4 4

5 3 6

6 5 10

7 2 4

8 1 3

9 3 5

10 6 15

11 4 16

12 3 12

13 5 16

14 6 12

15 4 16

16 1 4

17 5 15

18 4 16

19 2 4

20 3 12


(38)

Tabel 3.3. Data 3

Hari ke

Banyak Nasabah

Volume Tabungan

1 3 3

2 1 5

3 2 6

4 4 4

5 3 6

6 5 10

7 2 4

8 1 3

9 3 5

10 6 15

11 4 16

12 3 12

13 5 16

14 6 3

15 4 16

16 1 4

17 5 15

18 4 16

19 2 4

20 3 12


(39)

Tabel 3.4. Data 4

Hari ke

Banyak Nasabah

Volume Tabungan

1 3 3

2 1 14

3 2 6

4 4 4

5 3 6

6 5 10

7 2 4

8 1 3

9 3 5

10 6 15

11 4 16

12 3 12

13 5 16

14 6 3

15 4 16

16 1 4

17 5 15

18 4 16

19 2 4

20 3 12

*) Bangkitan kombinasi data 2 dan data 3

Keterangan :

X = Banyak nasabah yang menabung di hari ke-i

Y = Jumlah volume tabungan seluruh nasabah di hari ke-i (ratus ribu)

3.2. Pendeteksian outlier

Pendeteksian pencilan dapat dilakukan menggunakan metode grafis dan dengan menentukan nilai Leverages, DfFITS (Difference fitted value FITS), dan Cook’s Distance. Tabel dan gambar berikut merupakan hasil output dengan bantuan program spss :


(40)

Gambar 3.1. Scatterplot Data Bangkitan Awal

Gambar 3.2. Scatterplot Data Bangkitan Kedua

0 2 4 6 8 10 12 14 16 18

0 2 4 6 8

Vo lu m e Tab u n g an Banyak Nasabah Volume Tabungan(Y) Linear (Volume Tabungan(Y)) 0 2 4 6 8 10 12 14 16 18

0 2 4 6 8

Vo lu m e Tab u n g an Banyak Nasabah Volume Tabungan(Y) Linear (Volume Tabungan(Y))


(41)

Gambar 3.3. Data Bangkitan Ketiga

Gambar 3.4. Data Bangkitan Kombinasi Data 2 dan Data 3

Gambar 3.1, Gambar 3.2, Gambar 3.3, dan Gambar 3.4 merupakan hasil scatter plot yang diproleh dan dapat dilihat secara grafis gambar 3.1 menunjukkan bahwa data pada Tabel 3.1 tidak mengandung pencilan. Sementara itu, Gambar 3.2, Gambar 3.3, dan Gambar 3.4 menunjukkan bahwa masing-masing data pada Tabel 3.2, Tabel 3.3, dan Tabel 3.4 memiliki data pencilan. Selanjutnya, metode pendeteksian outlier

0 2 4 6 8 10 12 14 16 18

0 2 4 6 8

Vo lu m e Tab u n g an Banyak Nasabah Volume Tabungan(Y) Linear (Volume Tabungan(Y)) 0 2 4 6 8 10 12 14 16 18

0 2 4 6 8

Vo lu m e Ta b u n gan Banyak Nasabah Volume Tabungan(Y) Linear (Volume Tabungan(Y))


(42)

yang akan digunakan adalah uji statistik yaitu menentukan nilai Leverages, DfFITS (Difference fitted value FITS), dan Cook’s Distance.

Tabel 3.5, Tabel 3.6, Tabel 3.7, dan Tabel 3.8 merupakan hasil pendeteksian outlier untuk masing-masing data yakni dengan menggunakan bantuan software MINITAB 16. Dari tabel telah diperoleh nilai Leverage, DfFITS (Difference fitted value FITS), dan Cook’s Distance yang dapat digunakan untuk mengetahui data yang merupakan pencilan. Jika Leverage Values lebih besar dari maka data dapat dinyatakan sebagai outlier. Nilai

. Selain itu, nilai DFFITS digunakan untuk menyatakan data sebagai pencilan jika nilai | DFFITS | lebih besar dari √ . Nilai √ yaitu √

Selanjutnya, jika nilai Cook’s lebih besar dari F(0.5; p, n-p) maka data juga dinyatakan sebagai outlier. Nilai distribusi F untuk F(0.5; 2,18) adalah 0,720538.


(43)

Tabel 3.5 Pendeteksian Pencilan untuk Data 1 dan Data 2

Hari ke- Pendeteksian Pencilan untuk Data 1 Pendeteksian Pencilan untuk Data 2 Leverage DfFITS DFFITS Cook's Leverage DfFITS |DfFITS| Cook's 1 0,05263 -0,3649 0,16852 0,061779 0,05263 -0,3429 0,34293 0,05536 2 0,16864 0,19427 0,19427 0,019763 0,16864 1,17347 1,17347 0,52097 3 0,08915 0,00566 0,00566 0,000017 0,08915 -0,0734 0,07338 0,00284 4 0,05908 -0,5151 0,51509 0,112499 0,05908 -0,4348 0,43481 0,08503 5 0,05263 -0,152 0,152 0,011939 0,05263 -0,1629 0,16292 0,01367 6 0,10849 -0,3182 0,31818 0,051097 0,10849 -0,2426 0,24264 0,03031 7 0,08915 -0,1685 0,16852 0,014782 0,08915 -0,2234 0,22338 0,02565 8 0,16864 -0,0672 0,06715 0,002384 0,16864 -0,2266 0,22662 0,02679 9 0,05263 -0,2194 0,21937 0,024241 0,05263 -0,2204 0,22037 0,02445 10 0,20086 -0,0902 0,09025 0,004303 0,20086 0,01808 0,01808 0,00017 11 0,05908 0,37903 0,37903 0,067035 0,05908 0,30612 0,30612 0,04561 12 0,05263 0,23967 0,23967 0,028666 0,05263 0,16717 0,16717 0,01437 13 0,10849 0,27853 0,27853 0,039585 0,10849 0,26143 0,26143 0,03503 14 0,20086 -0,5522 0,55221 0,150681 0,20086 -0,3643 0,36427 0,06813 15 0,05908 0,37903 0,37903 0,067035 0,05908 0,30612 0,30612 0,04561 16 0,16864 0,06309 0,06309 0,002105 0,16864 -0,1145 0,11453 0,00692 17 0,10849 0,17743 0,17743 0,016416 0,10849 0,17577 0,17577 0,01612 18 0,05908 0,37903 0,37903 0,067035 0,05908 0,30612 0,30612 0,04561 19 0,08915 -0,1685 0,16852 0,014782 0,08915 -0,2234 0,22338 0,02565 20 0,05263 0,23967 0,23967 0,028666 0,05263 0,16717 0,16717 0,01437

Berdasarkan hasil pendeteksian pencilan pada Tabel 3.5, data yang termasuk pencilan untuk data 1 dan data 2 yakni nilai yang lebih besar dari Leverage = 0,15 adalah data di hari ke-2, ke-8, ke-10, ke-14, dan ke-16. Selanjutnya, berdasarkan nilai yang lebih besar dari |DfFITS| = , yang termasuk pencilan untuk data 2 yaitu data di hari ke-2 sedangkan pada data 1 tidak terdapat pencilan . Sementara itu,

pendeteksian berdasarkan nilai yang lebih besar dari Cook’s Distance = 0,720538,


(44)

Tabel 3.6 Pendeteksian Pencilan untuk Data 3 dan Data 4

Selanjutnya, hasil pendeteksian pencilan pada Tabel 3.6, data yang termasuk pencilan untuk data 3 dan data 4 yakni nilai yang lebih besar dari Leverage = 0,15 adalah data di hari ke-2, ke-8, ke-10, ke-14, dan ke-16. Berdasarkan nilai yang lebih besar dari |DfFITS| = , yang termasuk pencilan untuk data 3 yaitu data di hari ke-14 sedangkan pada data 4 yaitu data di hari ke-2 dan ke-14. Kemudian,

pendeteksian berdasarkan nilai yang lebih besar dari Cook’s Distance = 0,720538

untuk data 3 yang termasuk pencilan adalah data di hari ke-14 sedangkan data 4 tidak ada yang dinyatakan sebagai pencilan.

Hari ke- Pendeteksian Pencilan untuk Data 3 Pendeteksian Pencilan untuk Data 4 Leverage DfFITS |DFFITS| Cook's Leverage DfFITS |DfFITS| Cook's 1 0,05263 -0,2723 0,27232 0,0364 0,05263 -0,277 0,27702 0,03757 2 0,16864 0,07693 0,07693 0,00313 0,16864 0,865 0,865 0,32549 3 0,08915 -0,0123 0,0123 0,00008 0,08915 -0,0787 0,07868 0,00327 4 0,05908 -0,3478 0,34778 0,05752 0,05908 -0,3213 0,32125 0,04982 5 0,05263 -0,1081 0,10811 0,00611 0,05263 -0,1271 0,12706 0,0084 6 0,10849 -0,15 0,15003 0,01179 0,10849 -0,1143 0,11434 0,00688 7 0,08915 -0,153 0,15304 0,01223 0,08915 -0,2079 0,20791 0,0223 8 0,16864 -0,134 0,13395 0,00945 0,16864 -0,2689 0,26889 0,03749 9 0,05263 -0,1612 0,16121 0,01339 0,05263 -0,1756 0,1756 0,01581 10 0,20086 0,14344 0,14344 0,01084 0,20086 0,21268 0,21268 0,0237 11 0,05908 0,34917 0,34917 0,05793 0,05908 0,30485 0,30485 0,04526 12 0,05263 0,20662 0,20662 0,02162 0,05263 0,15685 0,15685 0,01269 13 0,10849 0,33151 0,33151 0,05525 0,10849 0,32228 0,32228 0,05236 14 0,20086 -1,6523 1,65235 0,88191 0,20086 -1,2816 1,2816 0,62811 15 0,05908 0,34917 0,34917 0,05793 0,05908 0,30485 0,30485 0,04526 16 0,16864 -0,0284 0,02837 0,00043 0,16864 -0,17137 0,17137 0,01542 17 0,10849 0,24793 0,24793 0,0316 0,10849 0,24662 0,24662 0,03128 18 0,05908 0,34917 0,34917 0,05793 0,05908 0,30485 0,30485 0,04526 19 0,08915 -0,153 0,15304 0,01223 0,08915 -0,20791 0,20791 0,0223 20 0,05263 0,20662 0,20662 0,02162 0,05263 0,15685 0,15685 0,01269


(45)

3.3. Metode Kuadrat Terkecil

Berdasarkan data pada Tabel 3.1 maka dalam bab ini akan diolah perhitungan untuk mendapatkan penduga (penaksir) dan model sesuai dengan metode kuadrat terkecil. Prinsip dasar metode kuadrat terkecil adalah untuk meminimumkan jumlah kuadrat sisaan dari model regresi yang terbentuk yaitu :

Minimum ∑

Model regresi yang akan dibentuk yaitu regresi linier sederhana dengan persamaan sebagai berikut :

+ ; i = 1, 2, ...,n Dengan model penaksir regresinya adalah :

̂ ̂ ̂

Tabel 3.7, Tabel 3.8, Tabel 3.9, dan Tabel 3.10 merupakan hasil perkalian antara variabel bebas dan variabel terikat untuk masing-masing data yaitu data 1, data 2, data 3, dan data 4. Dari hasil perhitungan yang diperoleh pada masing-masing tabel, akan dihitung nilai penaksir paramater ̂ dan ̂ untuk model penaksiran dengan metode kuadrat terkecil berdasarkan rumus pada (2.9) dan (2.10) yaitu :

̂ ̅ ̂ ̅ dan

̂


(46)

Tabel 3.7. Perkalian Variabel Bebasdan Variabel Terikat untuk Data 1

Hari ke

Banyak Nasabah( )

Volume

Tabungan( )

1 3 3 9 9

2 1 5 5 1

3 2 6 12 4

4 4 4 16 16

5 3 6 18 9

6 5 10 50 25

7 2 4 8 4

8 1 3 3 1

9 3 5 15 9

10 6 15 90 36

11 4 16 64 16

12 3 12 36 9

13 5 16 80 25

14 6 12 72 36

15 4 16 64 16

16 1 4 4 1

17 5 15 75 25

18 4 16 64 16

19 2 4 8 4

20 3 12 36 9

Total 67 184 729 271

Rata-rata 3,35 9,2

Perhitungan ̂ dan ̂ sebagai berikut:

̂ ̂ ̂

Sehingga :

̂ ̂ 1,09667.


(47)

Jadi, diperolehlah model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil yaitu :

̂ ̂ ̂

̂ .

Tabel 3.8. Perkalian Variabel Bebasdan Variabel Terikat untuk Data 2

Hari ke

Banyak Nasabah( )

Volume

Tabungan( )

1 3 3 9 9

2 1 14 14 1

3 2 6 12 4

4 4 4 16 16

5 3 6 18 9

6 5 10 50 25

7 2 4 8 4

8 1 3 3 1

9 3 5 15 9

10 6 15 90 36

11 4 16 64 16

12 3 12 36 9

13 5 16 80 25

14 6 12 72 36

15 4 16 64 16

16 1 4 4 1

17 5 15 75 25

18 4 16 64 16

19 2 4 8 4

20 3 12 36 9

Total 67 193 738 271

Rata-rata 3,35 9,65

Perhitungan ̂ dan ̂ sebagai berikut: ̂

̂ ̂


(48)

Sehingga :

̂ ̂ 3,06874.

Model yang diperoleh dengan metode kuadrat terkecil yaitu : ̂ ̂ ̂

̂ .

Tabel 3.9. Perkalian Variabel Bebasdan Variabel Terikat untuk Data 3

Hari ke

Banyak Nasabah( )

Volume

Tabungan( )

1 3 3 9 9

2 1 5 5 1

3 2 6 12 4

4 4 4 16 16

5 3 6 18 9

6 5 10 50 25

7 2 4 8 4

8 1 3 3 1

9 3 5 15 9

10 6 15 90 36

11 4 16 64 16

12 3 12 36 9

13 5 16 80 25

14 6 3 18 36

15 4 16 64 16

16 1 4 4 1

17 5 15 75 25

18 4 16 64 16

19 2 4 8 4

20 3 12 36 9

Total 67 175 675 271

Rata-rata 3,35 8,75

Perhitungan ̂ dan ̂ sebagai berikut: ̂


(49)

̂ ̂

Sehingga :

̂ ̂ 2,36305.

Model yang diperoleh dengan metode kuadrat terkecil yaitu : ̂ ̂ ̂

̂ .

Tabel 3.10. Perkalian Variabel Bebasdan Variabel Terikat untuk Data 4

Hari ke

Banyak Nasabah( )

Volume

Tabungan( )

1 3 3 9 9

2 1 14 14 1

3 2 6 12 4

4 4 4 16 16

5 3 6 18 9

6 5 10 50 25

7 2 4 8 4

8 1 3 3 1

9 3 5 15 9

10 6 15 90 36

11 4 16 64 16

12 3 12 36 9

13 5 16 80 25

14 6 3 18 36

15 4 16 64 16

16 1 4 4 1

17 5 15 75 25

18 4 16 64 16

19 2 4 8 4

20 3 12 36 9

Total 67 184 684 271


(50)

Perhitungan ̂ dan ̂ sebagai berikut: ̂

̂ ̂

Sehingga :

̂ ̂ 4,33512.

Model yang diperoleh dengan metode kuadrat terkecil yaitu : ̂ ̂ ̂

̂ .

3.3.1. Rata-rata Kuadrat Sisa untuk Metode OLS

Dari model yang telah terbentuk dengan metode OLS maka akan dihitung nilai sisaan dan sisaan kuadrat untuk metode OLS. Selanjutnya, akan dihitung jumlah kuadrat regresi dan kuadrat total untuk mendapatkan niai rata-rata kuadrat sisanya (Mean Square Error). Untuk menghitung nilai rata-rata kuadrat sisa dapat dicari dengan rumus :

dengan

JKS = Jumlah kuadrat sisa

JKT = ∑ ̅ = Jumlah kuadrat total JKR = ∑( ̂ ̅) = Jumlah kuadrat regresi n = Banyak sampel


(51)

= Data sebenarnya ̂ = Data dugaan

̅ = Rataan data sebenarnya

Tabel 3.11, Tabel 3.12, Tabel 3.13, dan Tabel 3.14 merupakan tabel hasil perhitungan nilai sisaan dan sisaan kuadrat, jumlah kuadrat regresi, dan jumlah kuadrat total untuk data 1, data 2, data 3, dan data 4 .

Tabel 3.11. Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 1 dengan Metode OLS

Hari ke ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 3 3 8,35338 -5,3534 28,6587 -0,8466 0,71676 -6,2 38,44

2 1 5 3,51557 1,48443 2,20352 -5,6844 32,3127 -4,2 17,64

3 2 6 5,93448 0,06552 0,00429 -3,2655 10,6636 -3,2 10,24

4 4 4 10,7723 -6,7723 45,8639 1,57229 2,47208 -5,2 27,04

5 3 6 8,35338 -2,3534 5,53841 -0,8466 0,71676 -3,2 10,24

6 5 10 13,1912 -3,1912 10,1837 3,99119 15,9296 0,8 0,64

7 2 4 5,93448 -1,9345 3,74221 -3,2655 10,6636 -5,2 27,04

8 1 3 3,51557 -0,5156 0,26582 -5,6844 32,3127 -6,2 38,44

9 3 5 8,35338 -3,3534 11,2452 -0,8466 0,71676 -4,2 17,64

10 6 15 15,6101 -0,6101 0,37221 6,41009 41,0893 5,8 33,64

11 4 16 10,7723 5,22771 27,329 1,57229 2,47208 6,8 46,24

12 3 12 8,35338 3,64662 13,2978 -0,8466 0,71676 2,8 7,84

13 5 16 13,1912 2,80881 7,88941 3,99119 15,9296 6,8 46,24

14 6 12 15,6101 -3,6101 13,0328 6,41009 41,0893 2,8 7,84

15 4 16 10,7723 5,22771 27,329 1,57229 2,47208 6,8 46,24

16 1 4 3,51557 0,48443 0,23467 -5,6844 32,3127 -5,2 27,04 17 5 15 13,1912 1,80881 3,27179 3,99119 15,9296 5,8 33,64

18 4 16 10,7723 5,22771 27,329 1,57229 2,47208 6,8 46,24

19 2 4 5,93448 -1,9345 3,74221 -3,2655 10,6636 -5,2 27,04

20 3 12 8,35338 3,64662 13,2978 -0,8466 0,71676 2,8 7,84

Total 67 184 272,369 517,2

Perhitungan nilai rata-rata kuadrat sisa sebagai berikut: n = 20

p = 2


(52)

Sehingga :

.

Jadi, nilai rata-rata kuadrat sisa yang diperoleh adalah 13,6017.

Tabel 3.12. Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 2 dengan Metode OLS

Hari ke ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 3 3 8,96241 -5,9624 35,5503 -0,6876 0,47279 -6,65 44,2225 2 1 14 5,0333 8,9667 80,4018 -4,6167 21,3139 4,35 18,9225 3 2 6 6,99785 -0,9979 0,99571 -2,6521 7,03389 -3,65 13,3225 4 4 4 10,927 -6,927 47,9828 1,27696 1,63062 -5,65 31,9225 5 3 6 8,96241 -2,9624 8,77584 -0,6876 0,47279 -3,65 13,3225 6 5 10 12,8915 -2,8915 8,36085 3,24151 10,5074 0,35 0,1225 7 2 4 6,99785 -2,9979 8,98711 -2,6521 7,03389 -5,65 31,9225 8 1 3 5,0333 -2,0333 4,1343 -4,6167 21,3139 -6,65 44,2225 9 3 5 8,96241 -3,9624 15,7007 -0,6876 0,47279 -4,65 21,6225 10 6 15 14,8561 0,14393 0,02072 5,20607 27,1031 5,35 28,6225 11 4 16 10,927 5,07304 25,7357 1,27696 1,63062 6,35 40,3225 12 3 12 8,96241 3,0376 9,22698 -0,6876 0,47279 2,35 5,5225 13 5 16 12,8915 3,10849 9,66269 3,24151 10,5074 6,35 40,3225 14 6 12 14,8561 -2,8561 8,15712 5,20607 27,1031 2,35 5,5225 15 4 16 10,927 5,07304 25,7357 1,27696 1,63062 6,35 40,3225 16 1 4 5,0333 -1,0333 1,0677 -4,6167 21,3139 -5,65 31,9225 17 5 15 12,8915 2,10849 4,44572 3,24151 10,5074 5,35 28,6225 18 4 16 10,927 5,07304 25,7357 1,27696 1,63062 6,35 40,3225 19 2 4 6,99785 -2,9979 8,98711 -2,6521 7,03389 -5,65 31,9225 20 3 12 8,96241 3,0376 9,22698 -0,6876 0,47279 2,35 5,5225

Total 67 193 179,658 518,55

Perhitungan nilai rata-rata kuadrat sisa sebagai berikut: n = 20


(53)

Sehingga :

.

Jadi, nilai rata-rata kuadrat sisa yang diperoleh yaitu 18,8273.

Tabel 3.13. Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 3 dengan Metode OLS

Hari ke ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 3 3 8,08271 -5,0827 25,8339 -0,6673 0,44528 -5,75 33,0625 2 1 5 4,2696 0,7304 0,53348 -4,4804 20,074 -3,75 14,0625 3 2 6 6,17615 -0,1762 0,03103 -2,5738 6,62468 -2,75 7,5625 4 4 4 9,98926 -5,9893 35,8712 1,23926 1,53576 -4,75 22,5625 5 3 6 8,08271 -2,0827 4,33766 -0,6673 0,44528 -2,75 7,5625 6 5 10 11,8958 -1,8958 3,5941 3,14581 9,89612 1,25 1,5625 7 2 4 6,17615 -2,1762 4,73565 -2,5738 6,62468 -4,75 22,5625 8 1 3 4,2696 -1,2696 1,61189 -4,4804 20,074 -5,75 33,0625 9 3 5 8,08271 -3,0827 9,50308 -0,6673 0,44528 -3,75 14,0625 10 6 15 13,8024 1,19764 1,43434 5,05236 25,5264 6,25 39,0625 11 4 16 9,98926 6,01074 36,129 1,23926 1,53576 7,25 52,5625 12 3 12 8,08271 3,91729 15,3452 -0,6673 0,44528 3,25 10,5625 13 5 16 11,8958 4,10419 16,8444 3,14581 9,89612 7,25 52,5625 14 6 3 13,8024 -10,802 116,691 5,05236 25,5264 -5,75 33,0625 15 4 16 9,98926 6,01074 36,129 1,23926 1,53576 7,25 52,5625 16 1 4 4,2696 -0,2696 0,07269 -4,4804 20,074 -4,75 22,5625 17 5 15 11,8958 3,10419 9,636 3,14581 9,89612 6,25 39,0625 18 4 16 9,98926 6,01074 36,129 1,23926 1,53576 7,25 52,5625 19 2 4 6,17615 -2,1762 4,73565 -2,5738 6,62468 -4,75 22,5625 20 3 12 8,08271 3,91729 15,3452 -0,6673 0,44528 3,25 10,5625

Total 67 175 169,206 543,75

Perhitungan nilai rata-rata kuadrat sisa sebagai berikut: n = 20


(54)

Sehingga :

.

Jadi, nilai rata-rata kuadrat sisa yang diperoleh yaitu 20,808.

Tabel 3.14. Nilai Sisaan dan Sisaan Kuadrat, Jumlah Kuadrat Regresi, dan Jumlah Kuadrat Total untuk Data 4 dengan Metode OLS

Hari ke ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 3 3 8,69173 -5,6917 32,3958 -0,5083 0,25834 -6,2 38,44 2 1 14 5,78733 8,21267 67,448 -3,4127 11,6463 4,8 23,04 3 2 6 7,23953 -1,2395 1,53643 -1,9605 3,84345 -3,2 10,24 4 4 4 10,1439 -6,1439 37,7479 0,94393 0,89101 -5,2 27,04 5 3 6 8,69173 -2,6917 7,24541 -0,5083 0,25834 -3,2 10,24 6 5 10 11,5961 -1,5961 2,54764 2,39613 5,74146 0,8 0,64 7 2 4 7,23953 -3,2395 10,4945 -1,9605 3,84345 -5,2 27,04 8 1 3 5,78733 -2,7873 7,76919 -3,4127 11,6463 -6,2 38,44 9 3 5 8,69173 -3,6917 13,6289 -0,5083 0,25834 -4,2 17,64 10 6 15 13,0483 1,95166 3,80899 3,84834 14,8097 5,8 33,64 11 4 16 10,1439 5,85607 34,2935 0,94393 0,89101 6,8 46,24 12 3 12 8,69173 3,30827 10,9447 -0,5083 0,25834 2,8 7,84 13 5 16 11,5961 4,40387 19,394 2,39613 5,74146 6,8 46,24 14 6 3 13,0483 -10,048 100,969 3,84834 14,8097 -6,2 38,44 15 4 16 10,1439 5,85607 34,2935 0,94393 0,89101 6,8 46,24 16 1 4 5,78733 -1,7873 3,19453 -3,4127 11,6463 -5,2 27,04 17 5 15 11,5961 3,40387 11,5863 2,39613 5,74146 5,8 33,64 18 4 16 10,1439 5,85607 34,2935 0,94393 0,89101 6,8 46,24 19 2 4 7,23953 -3,2395 10,4945 -1,9605 3,84345 -5,2 27,04 20 3 12 8,69173 3,30827 10,9447 -0,5083 0,25834 2,8 7,84

Total 67 184 98,1689 553,2

Perhitungan nilai rata-rata kuadrat sisa sebagai berikut: n = 20


(55)

Sehingga :

.

Jadi, nilai rata-rata kuadrat sisa yang diperoleh yaitu 25,2795.

3.4. Metode Regresi Robust dengan Penaksir Least Trimmed Squares

Metode regresi robust merupakan metode yang digunakan untuk mengatasi permasalahan pencilan dan dikembangkan dengan tujuan untuk mendapatkan sifat robust (kuat) yang mampu mengenali dan mengatasi adanya pencilan. Metode penaksir ini adalah metode penaksiran parameter regresi robust dengan menggunakan konsep pengepasan OLS untuk meminimumkan jumlah kuadrat sisaan yaitu minimum

h

i n i e

1 2

) : ( .

Nilai sisaan kuadrat (

e

(2i)) akan diurutkan dari terkecil hingga terbesar menjadi sebanyak h untuk mendapatkan model penaksiran dengan metode Least Trimmed

Squares. Nilai h dapat dicari dengan rumus [ ] [ ], sehingga dengan jumlah n =20 maka diperolehlah nilai Berdasarkan nilai yang diperoleh pada Tabel 3.5 maka akan diminimumkan nilai sisaan kuadratnya yaitu sebanyak h. Tabel 3.15 berikut merupakan nilai sisaan kuadrat yang terurut berdasarkan hasil perhitungan dari data 1, data 2, data 3, dan data 4:


(56)

Tabel 3.15. Nilai Sisaan Kuadrat Terurut

No. Urut Data 1 Data 2 Data 3 Data 4 1 0,004293 0,020717 0,03103 1,53643 2 0,234669 0,995707 0,07269 2,54764 3 0,265817 1,067703 0,53348 3,19453 4 0,372215 4,134297 1,43434 3,80899 5 2,203521 4,445717 1,61189 7,24541 6 3,271794 8,157119 3,5941 7,76919 7 3,742205 8,360847 4,33766 10,4945 8 3,742205 8,775843 4,73565 10,4945 9 5,538407 8,987111 4,73565 10,9447 10 7,889414 8,987111 9,50308 10,9447 11 10,18369 9,226983 9,636 11,5863 12 11,24517 9,226983 15,3452 13,6289 13 13,03278 9,662691 15,3452 19,394 14 13,29782 15,70065 16,8444 32,3958 15 13,29782 25,73574 25,8339 34,2935 16 27,32899 25,73574 35,8712 34,2935 17 27,32899 25,73574 36,129 34,2935 18 27,32899 35,55027 36,129 37,7479

19 28,6587 47,98276 36,129 67,448

20 45,86386 80,40176 116,691 100,969

Selanjutnya, data dengan nilai sisaan kuadrat yang telah diurutkan sebanyak h akan dihitung perkalian antara variabel bebas dan variabel terikat untuk masing-masing data sehingga dapat dihitung nilai ̂ dan ̂ sesuai dengan rumus pada (2.9) dan (2.10) yaitu :

̂ ̅ ̂ ̅ dan

̂


(57)

Tabel 3.16. Perkalian Variabel untuk Data 1 dengan Penaksir LTS

Hari ke-

1 2 6 12 4

2 1 4 4 1

3 1 3 3 1

4 6 15 90 36

5 1 5 5 1

6 5 15 75 25

7 2 4 8 4

8 2 4 8 4

9 3 6 18 9

10 5 16 80 25

11 5 10 50 25

12 3 5 15 9

Total 36 93 368 144

Rata-rata 3 7,75

Perhitungan nilai ̂ dan ̂ sebagai berikut: ̂

̂ ̂

̂ dan

̂ ̂ .

Jadi, diperolehlah model penaksir metode Least Trimmed Squares yaitu : ̂ ̂ ̂


(58)

Tabel 3.17. Perkalian Variabel untuk Data 2 dengan Penaksir LTS

Hari ke-

1 6 15 90 36

2 2 6 12 4

3 1 4 4 1

4 1 3 3 1

5 5 15 75 25

6 6 12 72 36

7 5 10 50 25

8 3 6 18 9

9 2 4 8 4

10 2 4 8 4

11 3 12 36 9

12 3 12 36 9

Total 39 103 412 163

Rata-rata 3,25 8,58333

Perhitungan nilai ̂ dan ̂ sebagai berikut: ̂

̂ ̂

̂ dan

̂ ̂ .

Jadi, diperolehlah model penaksir metode Least Trimmed Squares yaitu : ̂ ̂ ̂


(59)

Tabel 3.18. Perkalian Variabel untuk Data 3 dengan Penaksir LTS

Hari ke-

1 2 6 12 4

2 1 4 4 1

3 1 5 5 1

4 6 15 90 36

5 1 3 3 1

6 5 10 50 25

7 3 6 18 9

8 2 4 8 4

9 2 4 8 4

10 3 5 15 9

11 5 15 75 25

12 3 12 36 9

Total 34 89 324 128

Rata-rata 2,83333 7,41667

Perhitungan nilai ̂ dan ̂ sebagai berikut: ̂

̂ ̂

̂ dan

̂ ̂ .

Jadi, diperolehlah model penaksir metode Least Trimmed Squares yaitu : ̂ ̂ ̂


(60)

Tabel 3.19. Perkalian Variabel untuk Data 4 dengan Penaksir LTS

Hari ke-

1 2 6 12 4

2 5 10 50 25

3 1 4 4 1

4 6 15 90 36

5 3 6 18 9

6 1 3 3 1

7 2 4 8 4

8 2 4 8 4

9 3 12 36 9

10 3 12 36 9

11 5 15 75 25

12 3 5 15 9

Total 36 96 355 136

Rata-rata 3 8

Perhitungan nilai ̂ dan ̂ sebagai berikut: ̂

̂ ̂

̂ dan

̂ ̂ .

Jadi, diperolehlah model penaksir metode Least Trimmed Squares yaitu : ̂ ̂ ̂


(61)

3.4.1. Rata-rata Kuadrat Sisa untuk Penaksir LTS

Setelah diperoleh model, akan dihitung nilai rata-rata kuadrat sisa (Mean Square Error) yaitu:

dengan: JKR ∑ ̂ ̅

JKT ∑ ̅

Tabel berikut adalah hasil perhitungan untuk nilai jumlah kuadrat regresi dan jumlah kuadrat total untuk data 1, data 2, data 3, dan data 4 yang nilai sisaannya telah diurutkan:

Tabel 3.20. Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 1 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS

Hari ke- ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 2 6 5,27778 -2,4722 6,11189 -1,75 3,0625

2 1 4 2,80556 -4,9444 24,4475 -3,75 14,0625

3 1 3 2,80556 -4,9444 24,4475 -4,75 22,5625

4 6 15 15,1667 7,41667 55,0069 7,25 52,5625

5 1 5 2,80556 -4,9444 24,4475 -2,75 7,5625

6 5 15 12,6944 4,94444 24,4475 7,25 52,5625

7 2 4 5,27778 -2,4722 6,11189 -3,75 14,0625

8 2 4 5,27778 -2,4722 6,11189 -3,75 14,0625

9 3 6 7,75 0 0 -1,75 3,0625

10 5 16 12,6944 4,94444 24,4475 8,25 68,0625

11 5 10 12,6944 4,94444 24,4475 2,25 5,0625

12 3 5 7,75 0 0 -2,75 7,5625

Total 36 93 220,028 264,25

Berdasarkan hasil perhitungan diperolehlah nilai rata-rata kuadrat sisa berikut : n = 12


(62)

Nilai rata-rata kuadrat sisa adalah :

Jadi, nilai rata-rata kuadrat sisa yang diperoleh dengan penaksir Least Trimmed Squares adalah 4,42223.

Tabel 3.21. Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 2 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS

Hari ke- ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 6 15 14,4437 5,86034 34,3436 6,41667 41,1736

2 2 6 5,91954 -2,6638 7,0958 -2,5833 6,67361

3 1 4 3,78851 -4,7948 22,9904 -4,5833 21,0069

4 1 3 3,78851 -4,7948 22,9904 -5,5833 31,1736

5 5 15 12,3126 3,72931 13,9077 6,41667 41,1736 6 6 12 14,4437 5,86034 34,3436 3,41667 11,6736 7 5 10 12,3126 3,72931 13,9077 1,41667 2,00695

8 3 6 8,05057 -0,5328 0,28383 -2,5833 6,67361

9 2 4 5,91954 -2,6638 7,0958 -4,5833 21,0069

10 2 4 5,91954 -2,6638 7,0958 -4,5833 21,0069

11 3 12 8,05057 -0,5328 0,28383 3,41667 11,6736 12 3 12 8,05057 -0,5328 0,28383 3,41667 11,6736

Total 39 103 164,622 226,917

Berdasarkan hasil perhitungan diperolehlah nilai rata-rata kuadrat sisa berikut : n = 12

p = 2

Nilai rata-rata kuadrat sisa adalah :


(63)

Jadi, nilai rata-rata kuadrat sisa yang diperoleh dengan penaksir Least Trimmed Squares adalah 6,22943.

Tabel 3.22. Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 3 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS

Hari ke- ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 2 6 5,52632 -1,8904 3,57343 -1,4167 2,00695

2 1 4 3,2579 -4,1588 17,2954 -3,4167 11,6736

3 1 5 3,2579 -4,1588 17,2954 -2,4167 5,84028

4 6 15 14,6 7,18333 51,6003 7,58333 57,5069

5 1 3 3,2579 -4,1588 17,2954 -4,4167 19,5069

6 5 10 12,3316 4,91491 24,1564 2,58333 6,67361

7 3 6 7,79474 0,37807 0,14294 -1,4167 2,00695

8 2 4 5,52632 -1,8904 3,57343 -3,4167 11,6736

9 2 4 5,52632 -1,8904 3,57343 -3,4167 11,6736

10 3 5 7,79474 0,37807 0,14294 -2,4167 5,84028 11 5 15 12,3316 4,91491 24,1564 7,58333 57,5069 12 3 12 7,79474 0,37807 0,14294 4,58333 21,0069

Total 34 89 162,948 212,917

Berdasarkan hasil perhitungan diperolehlah nilai rata-rata kuadrat sisa berikut : n = 12

p = 2

Nilai rata-rata kuadrat sisa adalah :


(64)

Jadi, nilai rata-rata kuadrat sisa yang diperoleh dengan penaksir Least Trimmed Squares adalah 4,99684.

Tabel 3.23. Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Data 4 dengan Nilai Sisaan yang Terurut Menggunakan Metode LTS

Hari ke- ̂ ̂ ̅ ( ̂ ̅) ̅ ̅

1 2 6 5,60714 -2,3929 5,72576 -2 4

2 5 10 12,7857 4,78571 22,9031 2 4

3 1 4 3,21429 -4,7857 22,9031 -4 16

4 6 15 15,1786 7,17857 51,5319 7 49

5 3 6 8 0 0 -2 4

6 1 3 3,21429 -4,7857 22,9031 -5 25

7 2 4 5,60714 -2,3929 5,72576 -4 16

8 2 4 5,60714 -2,3929 5,72576 -4 16

9 3 12 8 0 0 4 16

10 3 12 8 0 0 4 16

11 5 15 12,7857 4,78571 22,9031 7 49

12 3 5 8 0 0 -3 9

Total 36 96 160,321 224

Berdasarkan hasil perhitungan diperolehlah nilai rata-rata kuadrat sisa berikut : n = 12

p = 2

Nilai rata-rata kuadrat sisa adalah :

Jadi, nilai rata-rata kuadrat sisa yang diperoleh dengan penaksir Least Trimmed Squares adalah 6,36786.


(65)

3.5. Metode Regresi Robust dengan Penaksir M

Metode regresi robust dengan penaksir M merupakan metode penaksir yang baik dalam mengatasi outlier. Metode ini dapat menggunakan fungsi Huber dalam mengestimasi parameter regresi. Selanjutnya, solusi menggunakan metode ini disebut weighted least squares yang meminimumkan

n

i

i i i y y w

1

2 )

ˆ

( (Winahju, 2010).

Dalam hal ini, metode iterasi diperlukan karena residual (sisa) akan dihitung sampai didapatkan nilai residual ∑ | | yang konvergen sehingga diperolehlah model dan koefisien regresi yang cocok.

Proses perhitungan penaksir koefisien regresi dan pengolahan data 1 yang terdapat pada tabel 3.1 dapat dilakukan dengan mengikuti prosedur sebagai berikut :

1. Menghitung koefisien regresi menggunakan metode kuadrat terkecil, didapatkan nilai b dan .

2. Menghitung nilai ̂ = 1,5 (median | |) sehingga didapatkan nilai dan | |. 3. Menentukan nilai (i*) dan pembobot wi,0 sesuai dengan fungsi Huber.

Hasil perhitungan terdapat pada Tabel 3.24.

Prosedur berikutnya yaitu :

4. Melakukan perhitungan bRobust ke 1 sebagai penaksir weighted least square dengan pembobot wi,0, diperolehlah koefisien bRobust ke 1 , , ̂ = 1,5(median | |), , (i*) dan pembobot wi,1, serta nilai ∑ | |.


(66)

Tabel 3.24. Hasil Perhitungan Koefisien Regresi Iterasi ke-1 b ε | | | ( )

1,09667 -5,3534 5,35337 -1,1896 1,1896 -1 0,84059

2,4189 1,48443 1,48443 0,32987 0,3299 0,32987 1 0,06553 0,06553 0,01456 0,0146 0,01456 1

-6,7723 6,77227 -1,5049 1,5049 -1 0,66447 -2,3534 2,35337 -0,523 0,523 -0,523 1 -3,1912 3,19117 -0,7091 0,7091 -0,7092 1 -1,9345 1,93447 -0,4299 0,4299 -0,4299 1 -0,5156 0,51557 -0,1146 0,1146 -0,1146 1 -3,3534 3,35337 -0,7452 0,7452 -0,7452 1 -0,6101 0,61007 -0,1356 0,1356 -0,1356 1 5,22773 5,22773 1,16172 1,1617 1 0,86080 3,64663 3,64663 0,81036 0,8104 0,81036 1 2,80883 2,80883 0,62418 0,6242 0,62418 1 -3,6101 3,61007 -0,8022 0,8022 -0,8022 1 5,22773 5,22773 1,16172 1,1617 1 0,86080 0,48443 0,48443 0,10765 0,1077 0,10765 1 1,80883 1,80883 0,40196 0,402 0,40196 1 5,22773 5,22773 1,16172 1,1617 1 0,86080

-1,9345 1,93447 -0,4299 0,4299 -0,4299 1 3,64663 3,64663 0,81036 0,8104 0,81036 1


(1)

k2 11,0000

Data Display

w

0,84000 1,00000 1,00000 0,67121 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,84975 1,00000 1,00000 0,36294 0,84975 1,00000 1,00000 0,84975 1,00000 1,00000

Data Display

k2 12,0000

Data Display

w

0,84000 1,00000 1,00000 0,67121 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,84976 1,00000 1,00000 0,36294 0,84976 1,00000 1,00000 0,84976 1,00000 1,00000

Data Display

k2 13,0000

Data Display

w

0,84000 1,00000 1,00000 0,67120 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,84976 1,00000 1,00000 0,36294 0,84976 1,00000 1,00000 0,84976 1,00000 1,00000

Data Display

k2 14,0000

Data Display

w

0,84000 1,00000 1,00000 0,67120 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,84976 1,00000 1,00000 0,36294 0,84976 1,00000 1,00000 0,84976 1,00000 1,00000

Data Display

k2 15,0000

Data Display

w

0,84000 1,00000 1,00000 0,67120 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,84976 1,00000 1,00000 0,36294 0,84976 1,00000 1,00000 0,84976 1,00000 1,00000


(2)

Data Display

Row b0 b1 1 2,36305 1,90655 2 1,42748 2,25990 3 1,33097 2,32525 4 1,32051 2,34035 5 1,31704 2,34508 6 1,31596 2,34656 7 1,31563 2,34702 8 1,31552 2,34716 9 1,31549 2,34720 10 1,31548 2,34722 11 1,31548 2,34722 12 1,31548 2,34722 13 1,31548 2,34722 14 1,31548 2,34722 15 1,31548 2,3472


(3)

LAMPIRAN E: Hasil Output Program macro MINITAB Data 4

MTB > %D:\\data4.txt c2 c3

Executing from file: D:\\data4.txt

Data Display

k2 2,00000

Data Display

w

0,88446 0,61297 1,00000 0,81936 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,85964 1,00000 1,00000 0,50099 0,85964 1,00000 1,00000 0,85964 1,00000 1,00000

Data Display

k2 3,00000

Data Display

w

0,90902 0,54950 1,00000 0,77878 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,93317 1,00000 1,00000 0,44625 0,93317 1,00000 1,00000 0,93317 1,00000 1,00000

Data Display

k2 4,00000

Data Display

w

0,88068 0,52708 1,00000 0,74374 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,93553 1,00000 1,00000 0,42264 0,93553 1,00000 1,00000 0,93553 1,00000 1,00000

Data Display

k2 5,00000

Data Display

w

0,86468 0,51610 1,00000 0,72680 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,93008 1,00000 1,00000 0,41196 0,93008 1,00000 1,00000 0,93008 1,00000 1,00000

Data Display


(4)

Data Display

w

0,85951 0,51191 1,00000 0,72097 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92816 1,00000 1,00000 0,40812 0,92816 1,00000 1,00000 0,92816 1,00000 1,00000

Data Display

k2 7,00000

Data Display

w

0,85777 0,51040 1,00000 0,71895 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92749 1,00000 1,00000 0,40677 0,92749 1,00000 1,00000 0,92749 1,00000 1,00000

Data Display

k2 8,00000

Data Display

w

0,85718 0,50988 1,00000 0,71826 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92725 1,00000 1,00000 0,40630 0,92725 1,00000 1,00000 0,92725 1,00000 1,00000

Data Display

k2 9,00000

Data Display

w

0,85697 0,50969 1,00000 0,71802 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92717 1,00000 1,00000 0,40614 0,92717 1,00000 1,00000 0,92717 1,00000 1,00000

Data Display

k2 10,0000

Data Display

w

0,85690 0,50963 1,00000 0,71793 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92715 1,00000 1,00000 0,40608 0,92715 1,00000 1,00000 0,92715 1,00000 1,00000


(5)

k2 11,0000

Data Display

w

0,85688 0,50961 1,00000 0,71790 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92714 1,00000 1,00000 0,40606 0,92714 1,00000 1,00000 0,92714 1,00000 1,00000

Data Display

k2 12,0000

Data Display

w

0,85687 0,50960 1,00000 0,71789 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92713 1,00000 1,00000 0,40606 0,92713 1,00000 1,00000 0,92713 1,00000 1,00000

Data Display

k2 13,0000

Data Display

w

0,85687 0,50960 1,00000 0,71789 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92713 1,00000 1,00000 0,40606 0,92713 1,00000 1,00000 0,92713 1,00000 1,00000

Data Display

k2 14,0000

Data Display

w

0,85686 0,50959 1,00000 0,71789 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92713 1,00000 1,00000 0,40605 0,92713 1,00000 1,00000 0,92713 1,00000 1,00000

Data Display

k2 15,0000

Data Display

w

0,85686 0,50959 1,00000 0,71789 1,00000 1,00000 1,00000 1,00000 1,00000 1,00000 0,92713 1,00000 1,00000 0,40605 0,92713 1,00000 1,00000 0,92713 1,00000 1,00000


(6)

Data Display

Row b0 b1 1 4,33512 1,45220 2 2,79249 1,93715 3 2,52725 2,03951 4 2,43972 2,07410 5 2,39938 2,08861 6 2,38397 2,09399 7 2,37844 2,09591 8 2,37649 2,09658 9 2,37582 2,09681 10 2,37558 2,09689 11 2,37550 2,09692 12 2,37547 2,09693 13 2,37547 2,09693 14 2,37546 2,09693 15 2,37546 2,09693