Perbandingan Metode Least Trimmed Squares Dan Penduga-S Dalam Mengatasi Data Pencilan Dengan Simulasi Data
PERBANDINGAN METODE
LEAST TRIMMED SQUARES
DAN PENDUGA-S DALAM MENGATASI DATA
PENCILAN DENGAN SIMULASI DATA
SKRIPSI
ANDOS NIKI S. M. SEMBIRING
090803032
DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN
ALAM
UNIVERSITAS SUMATERA UTARA
MEDAN
(2)
PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA
PENCILAN DENGAN SIMULASI DATA
SKRIPSI
Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains
ANDOS NIKI S. M. SEMBIRING 090803032
DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA
MEDAN 2015
(3)
PERSETUJUAN
Judul : Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data
Kategori : Skripsi
Nama : Andos Niki S. M. Sembiring
Nomor Induk Mahasiswa : 090803032
Program Studi : Sarjana (S1) Matematika
Departemen : Matematika
Fakultas : Matematika dan Ilmu Pengetahuan Alam
(FMIPA) Universitas Sumatera Utara
Disetujui di Medan, April 2015
Komisi Pembimbing:
Pembimbing 2, Pembimbing 1,
Asima Manurung, S.Si, M.Si NIP. 19730315 199903 2 001
Dr. Open Darnius, M.Sc NIP. 19641014 199103 1 004
Diketahui oleh:
Departemen Matematika FMIPA USU Ketua,
Prof. Dr. Tulus, M.Si. NIP. 196209011988031 002
(4)
PERNYATAAN
PERBANDINGAN METODE LEAST TRIMMED SQUARES
DAN PENDUGA-S DALAM MENGATASI DATA PENCILAN DENGAN SIMULASI DATA
SKRIPSI
Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri. Kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya.
Medan, April 2015
ANDOS NIKI S. M. SEMBIRING 090803032
(5)
PENGHARGAAN
Pujian dan syukur penulis panjatkan kepada Tuhan Yesus atas kasih dan penyertaanNya yang dirasakan penulis dalam menyelesaikan penyusunan skripsi ini dengan judul Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data.
Terimakasih penulis sampaikan kepada Bapak Dr. Open Darnius, M.Sc selaku pembimbing 1 dan Ibu Asima Manurung, S.Si, M.Si selaku pembimbing 2 yang telah dengan sabar meluangkan waktunya untuk membimbing penulis selama penulisan skripsi ini. Penulis juga mengucapkan terima kasih kepada Bapak Dr. Faigiziduhu Bu’ulolo, M.Si dan Bapak Dr. Pasukat Sembiring, M.Si selaku dosen penguji penulis yang telah memberikan kritik dan saran yang sangat penting dalam penyempurnaan penulisan skripsi ini. Terimakasih kepada Bapak Prof. Dr. Tulus, M.Si dan Ibu Dr. Mardiningsih, M.Si selaku ketua dan Sekretaris Departemen Matematika FMIPA USU, kepada Bapak Dr. Sutarman, M.Sc selaku Dekan FMIPA USU, Pembantu Dekan FMIPA USU, seluruh Staf dan Dosen Matematika FMIPA USU, Pegawai FMIPA USU dan rekan-rekan kuliah khususnya Matematika 2009. Penulis mengucapkan terimakasih yang teristimewa kepada kedua orang tua tercinta Bapak N. Sembiring dan Ibu R. Br. Ginting beserta keluarga atas dukungan doa, dukungan moril dan materil, yang menjadi motivasi bagi penulis dalam penulisan skripsi ini. Tuhan yang membalas atas segala bantuan yang telah diberikan kepada penulis.
(6)
PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA
PENCILAN DENGAN SIMULASI DATA
ABSTRAK
Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penduga parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat model kelompok data dengan letak pencilan berbeda-beda dengan lima kali perulangan setiap modelnya. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitu penduga least trimmed squares (LTS) dan penduga-S. Pada pencilan yang terletak di tengah garis regresi regresi robust penduga-LTS memberikan hasil yang lebih baik dari pada penduga-S, sebaliknya penduga-S lebih baik pada pencilan yang berada di ujung. Kriteria pembandingannya menggunakan rata-rata kuadrat sisa.
Kata kunci: Pencilan, Metode Kuadrat Terkecil, Regresi Robust, Least Trimmed Squares, Penduga-S.
(7)
THE COMPARISON OF ROBUST REGRESSION LEAST TRIMMED SQUARES AND S-ESTIMATORS OVERCOMING OUTLIERS
WITH SIMULATION OF DATA
ABSTRACT
Regression analysis was used to determine the relationship between variables. One of method parameter estimator in the regression model is ordinary least squares (OLS). In this study used four groups of data models with different outlier layout with five repetitions of each model. Then, this paper aims to compare the two methods, namely robust regression of least trimmed squares (LTS) and S-estimators. In the outliers are located amid robust regression line regression LTS-estimators provides better results than the S-LTS-estimators, otherwise S-LTS-estimators is better at outliers are located end. The comparison criteria using the average squared residual.
Keywords: Outliers, Ordinary Least Squares, Robust Regression, Least Trimmed of Squares, S-estimators.
(8)
DAFTAR ISI
Halaman
PERSETUJUAN i
PERNYATAAN ii
PENGHARGAAN iii
ABSTRAK iv
ABSTRACT v
DAFTAR ISI vi
DAFTAR TABEL viii
DAFTAR GAMBAR x
DAFTAR LAMPIRAN xi
BAB 1 Pendahuluan 1
1.1. Latar Belakang 1
1.2. Perumusan Masalah 2
1.3. Pembatasan Masalah 2
1.4. Tinjauan Pustaka 3
1.5. Tujuan Peneletian 4
1.6. Kontribusi Peneletian 4
1.7. Metodologi Peneletian 4
BAB 2 Landasan Teori 6
2.1. Regresi Linier 6
2.2. Metode Kuadrat Terkecil 7
2.3. Rataan Kuadrat Sisa (Mean Square Error) 8
2.4. Pencilan 9
2.4.1. Pengertian Pencilan 9
2.4.2. Dampak Pencilan 9
2.4.3. Pendeteksian Pencilan 10
2.5. Regresi Robust 12
2.5.1. Regresi Robust Penduga-S 13
2.5.2. Regresi Robust Penduga Least Trimmed Square (LTS)
17
BAB 3 Pembahasan 18
3.1. Data 18
3.2. Pendeteksian Pencilan/ Outlier 21
3.3. Metode Kuadrat Terkecil 24
3.4. Regresi Robust Penduga Least Trimmed Square
(LTS) 27
3.4.1. Rataan Kuadrat Sisa (Mean Square Error)
untuk Penduga-LTS 31
(9)
3.5.1. Rataan Kuadrat Sisa (Mean Square Error)
untuk Penduga-S 43
BAB 4 Kesimpulan dan Saran 50
4.1. Kesimpulan 50
4.2. Saran 50
FTAR PUSTAKA 51
(10)
DAFTAR TABEL
Nomor Judul Halaman
Tabel
2.1 Fungsi Objektif, Fungsi Influence dan Fungsi Pembobot
untuk Least Square, Huber, dan Tukey Bisquare 16
3.1 Data 1 19
3.2 Data 2 19
3.3 Data 3 20
3.4 Data 4 20
3.5 Nilai DfFITSdan |DfFITS| 23
3.6 Perkalian Variabel Bebas dan Variabel Terikat untuk
Data 1 25
3.7 Sisaan Kuadrat Semua Data dengan Metode Kuadrat
Terkecil 26
3.8 Sisaaan Kuadrat yang Diurutkan 28
3.9 Data yang Terbentuk dari Sisaan Kuadrat Sudah Diurutkan
29 3.10 Perkalian Variabel untuk Data 1 dengan Penduga-LTS 30 3.11 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-LTS untuk Data 1 31
3.12 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-LTS untuk Data 2 32
3.13 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-LTS untuk Data 3 34
3.14 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-LTS untuk Data 4 35
3.15 Hasil Perhitungan Koefisien Regresi Iterasi ke-1 37 3.16 Hasil Perhitungan Koefisien Regresi Iterasi ke-2 37
3.17 Nilai Koefisien Regresi Penduga-M 38
3.18 Sisaan dari Persamaan Penduga-M 39
3.19 Hasil Perhitungan Koefisien Regresi Iterasi ke-1 40 3.20 Hasil Perhitungan Koefisien Regresi Iterasi ke-2 41
3.21 Nilai Koefisien Regresi Penduga-S 42
3.22 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-S untuk Data 1 43
3.23 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-S untuk Data 2 44
3.24 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-S untuk Data 3 45
3.25 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total
Menggunakan Penduga-S untuk Data 4 47
3.26 Hasil Estimasi Koefisien Regresi dan Rata-rata Kuadrat
(11)
3.27 Hasil Estimasi Koefisien Regresi dan Rata-rata Kuadrat
(12)
DAFTAR GAMBAR
Nomor Judul Halaman
Gambar
2.1 ma Identifikasi Data Pencilan dengan IQR atau Box Plot
11 2.2 Kriteria Pengambilan Keputusan Adanya Pencilan atau
Tidak 12
3.1 Scatterplot Data 1 21
3.2 Scatterplot Data 1 22
3.3 Scatterplot Data 1 22
(13)
DAFTAR LAMPIRAN
Nomor Judul Halaman
Lampiran
1 mbangkitkan Data dengan Program R 53
2 amaan dengan Metode Kuadrat Terkecil dan Mendeteksi
Pencilan dengan MINITAB 53
3 amaan Penduga-LTS dengan Metode Kuadrat Terkecil 54 4 gram Macro MINITAB Regresi Robust dengan Pembobot
Fungsi Huber (dengan r=1) 55
5 il Output Program macro MINITAB Data 1, Data 2, Data 3
dan Data 4 56
6 amaan Penduga-S Data 1, Data 2, Data 3 dan Data 4 dengan R
70
(14)
PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA
PENCILAN DENGAN SIMULASI DATA
ABSTRAK
Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penduga parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat model kelompok data dengan letak pencilan berbeda-beda dengan lima kali perulangan setiap modelnya. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitu penduga least trimmed squares (LTS) dan penduga-S. Pada pencilan yang terletak di tengah garis regresi regresi robust penduga-LTS memberikan hasil yang lebih baik dari pada penduga-S, sebaliknya penduga-S lebih baik pada pencilan yang berada di ujung. Kriteria pembandingannya menggunakan rata-rata kuadrat sisa.
Kata kunci: Pencilan, Metode Kuadrat Terkecil, Regresi Robust, Least Trimmed Squares, Penduga-S.
(15)
THE COMPARISON OF ROBUST REGRESSION LEAST TRIMMED SQUARES AND S-ESTIMATORS OVERCOMING OUTLIERS
WITH SIMULATION OF DATA
ABSTRACT
Regression analysis was used to determine the relationship between variables. One of method parameter estimator in the regression model is ordinary least squares (OLS). In this study used four groups of data models with different outlier layout with five repetitions of each model. Then, this paper aims to compare the two methods, namely robust regression of least trimmed squares (LTS) and S-estimators. In the outliers are located amid robust regression line regression LTS-estimators provides better results than the S-LTS-estimators, otherwise S-LTS-estimators is better at outliers are located end. The comparison criteria using the average squared residual.
Keywords: Outliers, Ordinary Least Squares, Robust Regression, Least Trimmed of Squares, S-estimators.
(16)
BAB I
PENDAHULUAN
1.1 Latar Belakang
Analisis Regresi adalah metode statistika yang digunakan untuk mengetahui hubungan antara variabel terikat (dependen, respon, �) dengan satu atau lebih variabel bebas (independen, prediktor, �). Apabila banyaknya variabel bebas hanya ada satu maka disebut regresi linier sederhana, sedangkan apabila terdapat lebih dari satu variabel bebas maka disebut sebagai regresi linier berganda.
Salah satu metode penduga parameter dalam regresi linier yang sering digunakan adalah metode kuadrat terkecil (MKT) atau ordinary least squares (OLS). Penggunaan metode ini membutuhkan beberapa asumsi klasik yang harus dipenuhi untuk menghasilkan penduga linier tidak bias terbaik atau best linier unbiased estimator. Menurut Cahyawati dkk (2009) salah satu penyebab tidak terpenuhinya asumsi klasik tersebut adalah adanya pencilan (outlier) pada data amatan.
Metode kuadrat terkecil tidak dapat digunakan jika asumsinya tidak terpenuhi oleh karena itu selanjutnya diperlukan alternatif metode penduga parameter lain yang dapat mengatasi adanya pencilan dalam data amatan. Metode Robust dapat menjadi alternatif pilihan untuk menghasilkan model yang lebih baik dari hasil metode kuadrat terkecil berdasarkan kriteria mean square error (MSE) bagi masing-masing model.
Menurut Chen (2002) regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan. Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil terhadap adanya pencilan. Regresi robust terdiri dari 5 metode penduga, yaitu penduga-M, penduga-least
(17)
median of square (LMS), penduga least trimmed squares (LTS), penduga-S dan penduga-MM. Dari ke-5 metode di atas, Penulis akan berfokus pada metode estimasi parameter dengan menggunakan metode penduga robust least trimmed square (LTS) dan penduga-S, di mana kedua metode ini memiliki nilai breakdown point yang tinggi yaitu hampir 50% (Rousseeuw, 1987).
Berdasarkan uraian di atas maka penulis memilih judul tugas akhir
“Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data”.
1.2 Perumusan Masalah
Perumusan masalah yang akan diteliti dalam tulisan ini adalah bagaimana perbandingan dua regresi robust yakni metode penduga least trimmed squares (LTS) dan penduga-S dapat mengatasi data pencilan berdasarkan letak pencilan yang dibandingkan dengan suatu simulasi dalam empat posisi yakni di ujung bawah, ujung atas, tengah atas dan tengah bawah dalam model garis regresi sederhana.
1.3 Pembatasan Masalah
Agar pembatasan masalah lebih jelas, maka penulis memberikan batasan yang akan dilakukan yaitu:
1. Simulasi data yang diambil penulis adalah 4 model data bangkitan dari program R yang terdiri dari 20 observasi dengan ketentuan letak pencilan pada garis regresi yang berbeda-beda setiap model data.
2. Penulis menggunakan regresi robust dalam mengatasi data pencilan yaitu dengan metode penduga least trimmed squares (LTS) dan penduga-S.
(18)
1.4 Tinjuan Pustaka
Analisis regresi digunakan untuk mengetahui hubungan antara variabel terikat (�) dengan satu atau lebih variabel bebas (�). Model regresi linier yang memuat satu variabel terikat (�) dan satu variabel bebas (�) adalah model regresi linier sederhana.
Metode kuadrat terkecil (MKT) atau ordinary least squares (OLS) merupakan salah satu penduga parameter model regresi linier sederhana. Metode kuadrat terkecil membutuhkan asumsi klasik yang harus dipenuhi untuk menghasilkan penduga linier tidak bias terbaik atau bestlinier unbiased estimator. Adapun asumsi klasik yang harus dipenuhi adalah homokedastisitas, nonautokorelasi, nonmultikorelasi, distribusi kesalahan normal dengan rata-rata sama dengan nol, dan variabel nonstokastik (Hasan, 1999). Metode kuadrat terkecil merupakan metode yang meminimumkan jumlah kuadrat sisa (selisih antara data yang sebenarnya dengan data dugaan dari model regresi yang terbentuk, yang dinyatakan sebagai berikut (Sembiring, 1995):
��� − �� =∑��=1��2 1.1
Pencilan (Outlier) adalah data yang tidak mengikuti pola umum (Sembiring, 1995, hal. 72). Jika dalam data amatan ditemukan suatu pencilan, maka alternatif penolakan begitu saja bukanlah prosedur yang bijaksana. Ada kalanya pencilan memberikan informasi yang tidak bisa diberikan oleh titik data lainnya (Drafer dan Smith, 1992). Menurut Soemartini (2007), pencilan dapat dideteksi menggunakan beberapa metode yakni metode Grafis, Boxplot, Internal studenzation (residu yang distudentkan), berdasarkan nilai Leverage, DfFITS, Cook’s Distance, dan DfBETA(s). Metode yang akan dipakai penulis untuk mendeteksi pencilan yaitu metode Scatterplot dan metode berdasarkan nilai DfFITS.
Regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan. Regresi robust digunakan untuk mendeteksi
(19)
pencilan dan memberikan hasil terhadap adanya pencilan (Chen, 2002). Metode regresi robust yang diketahui tahan terhadap pencilan terus berkembang dan banyak digunakan dalam meneliti berbagai permalasahan, seperti: pengoptimalan kekuatan torque pada lampu TL yaitu menggunakan metode penduga parameter LTS, dengan alasan terdapat pencilan pada data kekuatan torque (Akbar dan Maftukhah, 2007) dan penelitian pada estimasi parameter produksi jagung di Indonesia tahun 2010 dengan metode penduga-S (Sahari R. J., 2012 ).
1.5 Tujuan Penelitian
Tujuan penelitian ini adalah untuk membandingkan regresi robust metode penduga least trimmed squares (LTS) dan penduga-S dalam melakukan pendugaan parameter model regresi sehingga didapatkan pendugaan yang terbaik berdasarkan rataan kuadrat sisa (mean square error).
1.6 Kontribusi Penelitian
Manfaat yang diperoleh dari penelitian ini adalah sebagai bahan referensi dalam hal pendugaan parameter model regresi yang memiliki pencilan.
1.7 Metodologi Penelitian
Adapun metodologi penelitian dalam tulisan ini adalah sebagai berikut: 1. Membangkitkan data dengan program R.
2. Melakukan pendugaan parameter regresi dengan metode kuadrat terkecil. 3. Melakukan pendeteksian pencilan pada data amatan dengan metode
scatterplot dan berdasarkan nilai DfFITS.
4. Mengatasi pencilan dengan menggunakan dua metode regresi robust yakni penduga least trimmed squares (LTS) dan penduga-S.
(20)
5. Mengolah data menggunakan bantuan program Macro MINITAB.
6. Membandingkan hasil penyelesaian dan pengolahan data dari kedua metode. 7. Membuat kesimpulan.
(21)
BAB 2
LANDASAN TEORI
2.1 Regresi Linier
Analisis regresi digunakan untuk mengetahui hubungan antara variabel terikat (Y) dengan satu atau lebih variabel bebas (X). Menurut Hair et al (2009) regresi linear sederhana dapat efektif dengan ukuran sampel sebanyak 20 observasi. Menurut
Nawari (2010), model regresi linier untuk satu variabel bebas yaitu model regresi
linier sederhana, dinyatakan dalam persamaan berikut:
�� =�0+�1��+ �� 2.1
Keterangan: i = 1, 2, ..., �
Yi = variabel terikat Xi = variabel bebas �0, �1 = parameter regresi
�� = sisaan/galat
Nilai �0 dan �1 adalah parameter regresi yang tidak diketahui nilainya dan akan dicari nilai estimasinya.
Model penduga regresi linier sederhana untuk persamaan 2.1 adalah sebagai berikut:
��� =�̂0+�̂1�� 2.2
Keterangan:
��� = nilai ��yang diestimasi �̂0, �̂1 = penduga parameter
(22)
2.2 Metode Kuadrat Terkecil
Metode kuadrat terkecil merupakan salah satu penduga parameter (nilai �̂0,�̂1) model regresi linier sederhana. Menurut Sembiring (1995), metode kuadrat terkecil merupakan metode yang meminimumkan jumlah kuadrat sisa (selisih antara data yang sebenarnya dengan data dugaan dari model regresi yang terbentuk). Dari persamaan regresi linier sederhana 2.1, nilai residu (sisaan) ke-i pada model yaitu:
�� =�� − ��� 2.3
�� =�� −( �̂0+�̂1��) 2.4
Prinsip dasar metode kuadrat terkecil adalah meminimumkan jumlah kuadrat sisaan yang dinyatakan sebagai berikut:
Minimum ∑��=1 ��2 2.5
∑��=1 ��2 = ∑ ��� − ����
2
� �=1
= ∑ ����=1 � −( �̂0+�̂1�� )�2
∑��=1 ��2 = ∑ ��� − �̂0− �̂1�� � 2
�
�=1 2.6
Keterangan:
�� = data sebenarnya ��� = data dugaan
�̂0,�̂1 = penduga parameter
��2 = sisaan kuadrat
Andaikan ∑��=1 ��2 dinotasikan dengan �, � merupakan fungsi dari nilai �̂0 dan �̂1 sehingga nilai-nilai � dapat ditentukan dengan menurunkan persamaan (2.6) terhadap �̂0 dan �̂1 kemudian menyamakan tiap turunannya dengan nol, diperolehlah nilai sebagai berikut:
� =∑��=1�2= ∑ ����=1 �− �̂0− �̂1���2
(23)
��
���0= 0−2∑��=1�� −0 + 2∑ ��̂��=1 0+�̂1���= 0
��
���0= − ∑��=1�� +∑ ��̂��=1 0+�̂1���= 0
∑��=1�� =��̂0+ �̂1∑��=1�� 2.7
dan ��
���1= 0−0−2∑��=1���� + 2∑ ��̂��=1 0+�̂1����� = 0
��
���1= − ∑��=1����+∑ ��̂��=1 0+�̂1����� = 0
∑��=1���� = �̂0∑��=1��+�̂1∑��=1��2 2.8
Dari persamaan 2.7 maka akan dicari nilai �̂0 sebagai berikut: ∑��=1�� =��̂0+ �̂1∑��=1��
�̂0 =
∑��=1��− �̂1∑��=1��
�
�̂0 = �� − �̂1�� 2.9
Selanjutnya, dari persamaan 2.8, akan dicari nilai �̂1 sebagai berikut: ∑��=1���� = �̂0∑��=1��+�̂1∑��=1��2
=�∑��=1��−��1∑��=1��
� � ∑��=1�� +�̂1∑��=1��2
= ∑��=1��∑��=1��
� −
��1�∑��=1��� 2
� +�̂1∑��=1��2
∑��=1����
−
∑��=1��∑��=1��
� = −
��1�∑��=1���
2
� +�̂1∑ ��
2
� �=1 =�̂1�−1
�(∑��=1��)2+∑��=1��2�
maka diperolehlah �̂1yaitu: �̂1 =
∑��=1����−
∑��=1�� ∑��=1�� �
∑� ��2
�=1 − 1
��∑��=1���
2 2.10
2.3 Rataan Kuadrat Sisa (Mean Square Error)
Menurut Sembiring (1995), salah satu untuk menentukan kecocokan model dengan rataan kuadrat sisa �2, jika semakin kecil rataan kuadrat sisanya maka
(24)
semakin baik modelnya. Ukuran ini memperhitungkan banyaknya parameter dalam model melalui pembagian dengan derajat kebebasannya. Untuk menentukan rataan kuadrat sisa dinyatakan dalam rumus sebagai berikut:
�2 = ���
�−� =
��� −���
�−� 2.11
Keterangan:
JKS = Jumlah Kuadrat Sisa
JKT = Jumlah Kuadrat Total = ∑(�� − ��)2
JKR = Jumlah Kuadrat Regresi = ∑(��� − ��)2
� = Banyaknya sampel � = Banyaknya parameter �� = Data sebenarnya ��� = Data dugaan
�� = Rataan data sebenarnya
2.4 Pencilan
2.4.1 Pengertian Pencilan
Menurut Sembiring (1995), secara umum pencilan ialah data yang tidak mengikuti pola umum model.
2.4.2 Dampak Pencilan
Menurut Soemartini (2007), keberadaan data pencilan akan mengganggu dalam proses analisis data dan harus dihindari dalam banyak hal. Salah satu penyebab tidak terpenuhi asumsi kenormalan galat adalah pencilan (Gujarati, 1991). Dalam kaitannya dengan analisis regresi, pencilan dapat menyebabkan hal-hal berikut: 1. Residual yang besar dari model yang terbentuk
2. Varians pada data tersebut menjadi lebih besar 3. Taksiran interval memiliki rentang yang lebar
(25)
2.4.3 Pendeteksian Pencilan
Menurut Soemartini (2007) beberapa metode dan nilai yang dapat digunakan untuk mendeteksi ada atau tidak adanya pencilan ialah sebagai berikut:
1. Metode Grafik
Metode grafik merupakan salah satu cara pendeteksian pencilan yang mudah dipahami karena menampilkan data secara grafis (gambar) tanpa melibatkan perhitungan yang rumit. Namun, kelemahan metode ini yaitu yang menentukan data tersebut sebagai pencilan atau tidak tergantung pada kebijakan (judgement) peneliti, karena metode ini hanya mengandalkan visualisasi gambar. Pendeteksian pencilan dengan metode grafik di antaranya ialah:
a. Diagram Pencar (Scatter Plot)
Metode ini dilakukan dengan cara memplot data dengan observasi ke-� (� = 1, 2, …, �). Selain itu, setelah diperoleh model regresi maka dapat dilakukan dengan cara memplot antara residual (�) dengan nilai prediksi Y (��). Jika terdapat satu atau beberapa data yang terletak jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya pencilan.
b. Boxplot
Metode boxplot merupakan metode yang paling umum yaitu dengan menggunakan nilai kuartil dan jangkauan. Jangkauan (IQR, Interquartile Range) didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3, atau IQR = ��− ��. Pendeteksian pencilan dapat ditentukan jika nilai yang kurang dari 1,5*IQR terhadap kuartil 1 dan nilai yang lebih dari 1,5*IQR terhadap kuartil 3.
(26)
Gambar 2.1 Skema Identifikasi Data Pencilan dengan IQR atau Box Plot
2. Leverage Values, DFFITS, Cook’s Distance, dan DfBETA(s)
Cara mendeteksi pencilan dapat juga dengan menentukan nilai Leverage, DFFITS, Cook’s Distance, dan DfBETA(s). Definisi dari masing-masing nilai tersebut ialah sebagai berikut:
a. Leverage Values; menampilkan nilai leverage (pengaruh)terpusat.
b. DFFITS atau Standardized DfFIT; menampilkan nilai perubahan dalam harga yang diprediksi bilamana case tertentu dikeluarkan dan sudah distandarkan.
c. Cook’s Distance; menampilkan nilai jarak Cook.
d. DfBETA(s); menampilkan nilai perubahan koefisien regresi sebagai hasil perubahan yang disebabkan oleh pengeluaran case tertentu. Digunakan untuk mendeteksi pencilan pada variabel bebas.
(27)
Ketentuan dalam pendeteksian pencilan dengan nilai-nilai tersebut adalah:
Gambar 2.2 Kriteria Pengambilan Keputusan Adanya Pencilan atau Tidak
Keterangan:
n = jumlah observasi (sampel). p = jumlah parameter.
2.5 Regresi Robust
Menurut Drafer dan Smith (1981), penolakan begitu saja suatu pencilan bukanlah prosedur yang bijaksana, adakalanya pencilan memberikan informasi yang tidak bisa diberikan oleh titik data lainnya. Metode kuadrat terkecil (MKT) merupakan metode yang baik untuk menduga � pada model regresi linier. Tetapi jika dalam penelitian diketahui terdapat pengamatan yang merupakan pencilan, maka penggunaan MKT akan menghasilkan kesimpulan yang tidak sempurna. Sebagai alternatif digunakan regresi robust.
Secara umum robust memiliki arti kekar. Regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan dan memberikan hasil yang lebih fleksibel. Regresi robust tetap menggunakan seluruh data, tetapi dengan memberikan bobot yang kecil untuk data pencilan(Soemartini, 2007: 12). Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil terhadap adanya pencilan (Chen, 2002).
���� ⎩ ⎪ ⎪ ⎨ ⎪ ⎪
⎧ �.�������� >(�� − �)
� �.������ > 2∗ ���� ��
��
�.����′��>�(�.�;�,� − �)
�.������(�) > �
����(�) ⎭
⎪ ⎪ ⎬ ⎪ ⎪ ⎫
(28)
2.5.1 Regresi Robust Penduga-S
Penduga-S (Scale) pertama kali diperkenalkan oleh Rousseeuw dan Yohai (1984) di mana metode ini merupakan keluarga high breakdown point yaitu ukuran umum proporsi dari data pencilan yang dapat ditangani sebelum pengamatan tersebut mempengaruhi model prediksi. Disebut penduga-S karena mengestimasi berdasarkan skala. Skala yang digunakan adalah simpangan baku sisaan.
Pendugaan koefisien regresi pada model regresi linier dengan MKT dilandasi pada peubah �� = �� − ��� pada persamaan:
∑��=1���� = 0 2.12
Bentuk yang lebih umum dari pendugaan parameter pada model regresi adalah pemecahan terhadap:
∑��=1�(��)�� = 0 2.13
Di mana
�� = ���� 2.14
Dengan S didefinisikan sebagai:
�� =������|��|, �= 1, 2, . . . ,� 2.15 Di mana �� adalah sisaan yang diperoleh dari MKT.
Penyelesaian koefisien regresi pada persamaan 2.13 disebut dengan penduga-M dan dapat diselesaikan dengan MKT terboboti berikut:
β * = (X’WX)-1
X’WY
di mana W (matriks diagonal ���) = diagonal utama [�1,�2, … ,��], ��
merupakan pembobot pengamatan ke-� (Myers, 1990). Jika �� =�(��)
�� maka persamaan 2.13 menjadi:
(29)
Tahapan iterasi dalam penaksiran koefisien regresi (Winahju, 2010) adalah:
1. Dihitung penaksir β, dinotasikan b menggunakan least square, sehingga didapatkan yˆi,0 dan εi,0 = yi −yˆi,0, (i = 1, 2, ... n) yang diperlakukan sebagai
nilai awal (yi adalah hasil eksperimen).
2. Dari nilai-nilai residual ini dihitung σˆ0, dan pembobot awal wi,0 = ) ( ) ( * 0 , * 0 , i i ε ε ψ .
Nilai ψ(εi*) dihitung sesuai fungsi Huber, dan εi,0* = εi,0 /σˆ0.
3. Disusun matrik pembobot berupa matrik diagonal dengan elemen w1,0 ,w2,0 , . . . , wn,0 , dinamai W0.
4. Dihitung penaksir koefisien regresi: bRobust ke 1 = (XT W0 X)-1 XT W0 Y
5. Dengan menggunakan bRobust ke 1 dihitung pula
∑
= − n i i i y y 1 1 , | ˆ
| atau
∑
= n i i 1 1 . |
|ε . 6. Selanjutnya langkah 2 sampai dengan 5 diulang sampai didapatkan
∑
= n i m i 1 . | |ε
konvergen. Nilai
∑
= n i m i 1 . |
|ε yang konvergen adalah selisih antara ��+1 dan �� mendekati 0; � = banyak iterasi.
Persamaan 2.15 menunjukkan bahwa penduga-M hanya menggunakan median pada pembentukan nilai pembobot. Kelemahan median adalah kurangnya pertimbangan pada pola sebaran data dan bukan merupakan fungsi dari keseluruhan data. Rousseeuw dan Yohai (1984) memperkenalkan penduga-S yang merupakan pengembangan dari penduga-M. Penduga-S menggunakan simpangan baku sisaan untuk mengatasi kelemahan dari median. Menurut Salibian dan Yohai (2006) penduga-S (�̂�) dinyatakan dalam bentuk rumus sebagai berikut:
�̂� = min∑��=1� ������
atau
�̂� = min∑��=1� ���−�������� 2.17
Penyelesaian persamaan 2.17 adalah dengan cara menurunkannya terhadap � sehingga,
(30)
����
�� =∑��=1�����
��
���= 0 2.18
� disebut fungsi pengaruh yang merupakan turunan dari �, sedangkan �� didefinisikan sebagai:
�� = �� ∑ (���)2−�∑��=1���� 2
� �=1
�(�−1) 2.19
Di mana ��� adalah sisaan yang diperoleh melalui penduga-M. Persamaan 2.18 dapat diselesaikan melalui MKT terboboti secara iterasi yang disebut Iteratively Reweighted Least Squares (Iterasi kuadrat terkecil terboboti kembali). Sisaan awal yang digunakan pada penduga-S adalah sisaan yang diperoleh dari penduga-M. Selanjutnya dikatakan bahwa Iterasi kuadrat terkecil terboboti kembali merupakan proses pendugaan melalui metode kuadrat terkecil terboboti dilanjutkan dengan menghitung sisaan dan pembobot �(��) yang baru dan dilakukan pendugaan secara berulang-ulang sampai konvergen. Kekonvergen tercapai jika perubahan jumlah mutlak sisaan, ∑��=1|��:�| dari iterasi terakhir ke
iterasi berikutnya kurang dari 0,01 (Salibian dan Yohai, 2006).
Fungsi � pada persamaan 2.17 disebut fungsi kriteria � disarankan memakai fungsi obyektif berikut (Tukey, 1977, dalam Chen, 2002):
�(ui) =�
c2[1−�1−(u i
c) 2�3]
6 , |��|≤c c2
6, |��| > c
2.20
dengan fungsi pengaruh: �(��) =�′(��) =���(1−(
ui
c)
2)2, |�
�|≤ c
0, |��| > c
Oleh karena �� = �(��)
(��) , sehingga:
�� =�[1−(
ui
c)
2]2, |�
�|≤ c
0, |��| > c 2.21
Rousseeuw dan Leroy (1987) menyarankan nilai � = 1,547 agar mendapatkan nilai breakdown point 50%. Fungsi pengaruh atau penimbang ini disebut fungsi Tukey atau bisquare weight atau biweight. Selanjutnya diterangkan juga bahwa secara umum ide dalam biweight adalah bahwa sisaan yang kecil mendapatkan
(31)
bobot yang besar. Secara ringkas, fungsi obyektif dan pembobot dari estimator Least Square, Huber, dan Tukey Bisquare dapat dilihat pada Tabel 2.1.
Tabel 2.1 Fungsi Objektif, Fungsi Influence dan Fungsi Pembobot untuk Least Square, Huber, dan Tukey Bisquare
Metode Least
Square Huber Tukey Bisquare
Fungsi objektif 2 * * ) ( ) ( i
LS e = e
ρ > − ≤ = r e untuk r e r r e untuk e e i i i i H | | , 2 / | | | | , 2 / ) ( ) ( * 2 * * 2 * *
ρ
( )
> ≤ − − = r e untuk r r e untuk e i i r e k i * 2 * 3 2 6 * B 6 / 1 1 ) ( * 2 ρ Fungsi influence * * ) ( i
LS e =e
ψ
( )
− < − > ≤ = r e untuk r r e untuk r r e untuk e e i i i i * * * * * H
ψ
( )
( )
> ≤ − = r e untuk r e untuk e e i i r e i i * * 2 2 * * B 0 1 * ψ Fungsi
Pembobot ( ) 1
* = e
wLS
( )
> ≤ = r e untuk e r r e untuk e w i i i * * * * H / 1
( )
( )
> ≤ − = r e untuk r e untuk e w i i r ei * * 2 2 * B 0 1 *Sumber: Fox (2002), Montgomery (1992)
Langkah-langkah menentukan regresi robust penduga-S (Salibian dan Yohai, 2006) adalah sebagai berikut:
a. Didapatkan vektor penduga awal �1,�2, … ,�� dari model regresi dengan
MKT didapatkan galat ��0.
b. Dari sisaan awal dihitung �� sesuai persamaan (2.15) untuk mendapatkan �� berdasarkan persamaan (2.14).
c. Menghitung nilai �� sesuai persamaan (2.21).
d. Dengan menggunakan MKT terboboti didapatkan penduga kuadrat terkecil terboboti:
β * = (X’WX)-1 X’WY
e. Menjadikan sisaan langkah (d) sebagai sisaan awal pada langkah (b), sehingga didapatkan nilai �� dan pembobot �� yang baru.
f. Iterasi diulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,���yang merupakan penduga-M sehingga didapatkan sisaan ���.
(32)
g. Dari sisaan yang diperoleh pada langkah (f), dihitung robust �� sesuai persamaan(2.19) untuk mendapatkan nilai �� sesuai persamaan (2.14).
h. Menghitung nilai �� sesuai persamaan (2.21).
i. Digunakan MKT terboboti untuk mendapatkan penduga kuadrat terkecil terboboti:
β * = (X’WX)-1 X’WY
j. Menjadikan sisaan yang diperoleh pada langkah (i) sebagai sisaan pada langkah (g), sehingga didapatkan nilai �� dan pembobot �� yang baru.
k. Iterasi ulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,��� yang merupakan penduga-S.
2.5.2 Regresi Robust Penduga Least Trimmed Squares (LTS)
Least Trimmed Squares (LTS) merupakan metode penduga regresi robust yang menggunakan konsep pengepasan metode kuadrat terkecil (ordinary least squares) untuk meminimumkan jumlah kuadrat sisaan (Akbar dan Maftukhah, 2007). Menurut Rousseeuw dan Leroy (1987), penduga LTS (�̂) dinyatakan dalam bentuk rumus sebagai berikut:
�̂��� = min∑ℎ�=1(�2)�:� 2.22
Keterangan:
(�2)1:� ≤ (�2)2:� ≤ … ≤ (�2)�:� = sisaan kuadrat yang diurutkan ℎ= �
2+
�+1 2 =
�+�+1 2
n = banyaknya sampel p = banyaknya parameter
Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi obyektif terkecil. Nilai h pada persamaan akan membangun breakdown point yang besar sebanding dengan 50%. Kuadrat sisa pada persamaan (2.22) berasal dari persamaan estimasi regresi linier menggunakan konsep metode kuadrat terkecil dengan banyaknya sisaan kuadrat (�2)�:� yang akan diolah adalah sebanyak h residual.
(33)
BAB 3
PEMBAHASAN
3.1 Data
Data yang akan digunakan dalam bab ini yaitu 4 model data simulasi yang mengandung permasalahan pencilan di berbagai letak (ujung bawah, tengah bawah, ujung atas, tengah atas) pada garis regresi dengan bantuan software R, sintaxnya dapat dilihat di lampiran 1. Prosedur pembangkitan data simulasi adalah sebagai berikut:
1. Tentukan parameter �0 dan �1. Dalam kasus ini �0 = 0 dan �1 = 1. 2. Bangkitkan nilai �� acak normal dengan nilai tengah 10 dan ragam 1. 3. Bangkitkan sisaan � acak normal dengan nilai tengah 0 dan ragam 1. 4. Tentukan nilai �= �� +�.
5. Tentukan nilai � dan � yang akan dijadikan data pencilan, dalam hal ini penulis mensimulasi data ke-5 setiap kelompok data sebagai pencilan.
6. Data dideteksi dengan metode scatterplot dan DfFITS.
7. Menentukan model regresi robust penduga-Least Trimmed Square dan penduga-S dengan bantuan R dan program Macro MINITAB.
8. Membandingkan model regresi robust penduga-Least Trimmed Square dan penduga-S berdasarkan nilai rataan kuadrat sisa.
9. Ulangi langkah 2-8 sebanyak 20 kali. 10. Membuat kesimpulan.
Berikut ini 4 model data simulasi dengan ketentuan model 1 letak pencilan berada di bagian ujung bawah garis regresi, model 2 letak pencilan berada di bagian tengah bawah garis regresi, model 3 letak pencilan berada di bagian ujung atas garis regresi, model 4 letak pencilan berada di tengah atas garis regresi. Model data 1, model data 2, model data 3 dan model data 4 berturut-turut dapat dilihat pada Tabel 3.1, Tabel 3.2, Tabel 3.3 dan Tabel 3.4.
(34)
Tabel 3.1 Data 1
Data ke- � �
1 11,8038 11,0423
2 8,1046 6,7440
3 8,0656 8,3468
4 10,4036 9,1351
5 8,5000 3,5000
6 11,7014 11,6395
7 10,2912 10,2815
8 10,5793 11,7110
9 9,2151 9,4347
10 11,8172 11,3707
11 10,6973 10,3699
12 9,9292 9,3904
13 10,0137 11,4476
14 9,9285 10,4417
15 10,7070 11,0885
16 9,6483 8,6174
17 9,9878 9,0197
18 9,6268 8,3214
19 10,3465 11,6652
20 8,1715 7,1458
Tabel 3.2 Data 2
Data ke- � �
1 11,0241 11,4980
2 10,2882 10,5252
3 11,7282 10,6744
4 12,5672 12,1090
5 11,0000 4,5000
6 9,9557 10,2858
7 10,2784 10,7365
8 10,4886 9,8091
9 8,7464 9,3495
10 9,7922 9,0131
11 11,8901 11,2485
12 11,0021 11,0305
13 8,4359 7,1680
14 9,0771 10,5344
15 9,8870 7,5402
16 10,5200 12,5262
17 11,3214 10,9116
(35)
Data ke- � �
19 10,9497 10,1612
20 8,5925 7,3656
Tabel 3.3 Data 3
Data ke- � �
1 9,5773 9,7371
2 9,3945 9,4338
3 7,9194 7,7132
4 10,1013 9,5401
5 11,0000 15,0000
6 10,7799 11,6411
7 10,2695 8,6576
8 9,4592 9,7154
9 9,4570 8,7120
10 9,4673 10,1323
11 9,8394 10,0377
12 11,5536 11,6654
13 9,4288 8,6048
14 9,9497 9,6230
15 10,7975 10,0127
16 10,0982 10,8020
17 11,0523 10,5382
18 10,1207 10,5308
19 8,9341 10,2095
20 9,9465 9,7970
Tabel 3.4 Data 4
Data ke- � �
1 9,5036 9,5427
2 8,9949 9,0709
3 9,7543 9,6939
4 10,4547 11,0912
5 9,0000 15,0000
6 11,8226 12,5695
7 10,1489 10,0318
8 9,0099 9,1426
9 10,4718 9,6921
10 8,3023 6,9711
(36)
Data ke- � �
12 9,6586 9,1162
13 9,0581 8,7251
14 9,4222 8,6212
15 9,9249 12,0854
16 9,0239 10,8013
17 10,5082 9,6814
18 11,0018 11,2574
19 8,4898 7,6267
20 8,8304 8,7640
3.2 Pendeteksian Pencilan/Outlier
Pendeteksian pencilan data dilakukan menggunakan metode Scatterplot dan dengan menentukan nilai |DFFITS|. Gambar dan tabel berikut merupakan hasil output dengan bantuan software MINITAB 16:
12 11
10 9
8 12 11 10 9 8 7 6 5 4 3
X
Y
Scatterplot of Y vs X
(37)
13 12
11 10
9 8
13 12 11 10 9 8 7 6 5 4
X
Y
Scatterplot of Y vs X
Gambar 3.2 Scatterplot Data 2
12 11
10 9
8 15
14
13
12
11
10
9
8
7
X
Y
Scatterplot of Y vs X
(38)
12 11
10 9
8 15 14 13 12 11 10 9 8 7 6
X
Y
Scatterplot of Y vs X
Gambar 3.4 Scatterplot Data 4
Gambar 3.1, Gambar 3.2, Gambar 3.3 dan Gambar 3.4 merupakan hasil scatter plot yang diperoleh dan dapat dilihat secara grafis bahwa semua gambar mengandung pencilan.
Tabel 3.5 Nilai DfFITS dan |DfFITS|
Data ke-
Data 1 Data 2 Data 3 Data 4
DfFITS |DfFITS| DfFITS |DfFITS| DfFITS |DfFITS| DfFITS |DfFITS| 1 -0,42048 0,42048 0,17744 0,17744 0,02065 0,02065 -0,03644 0,03644 2 -0,05859 0,05859 0,09868 0,09868 0,00282 0,00282 -0,04138 0,04138 3 0,63660 0,63660 -0,05958 0,05958 0,06485 0,06485 -0,04961 0,04961 4 -0,18911 0,18911 0,18695 0,18695 -0,15162 0,15162 0,07193 0,07193 5 -1,88523 1,88523 -1,55288 1,55288 2,15015 2,15015 1,98737 1,98737
6 -0,11964 0,11964 0,11026 0,11026 0,16266 0,16266 0,28192 0,28192 7 0,05427 0,05427 0,12817 0,12817 -0,42557 0,42557 -0,06612 0,06612 8 0,27084 0,27084 -0,01701 0,01701 0,05119 0,05119 -0,03075 0,03075 9 0,21119 0,21119 0,21866 0,21866 -0,19044 0,19044 -0,21767 0,21767 10 -0,29805 0,29805 -0,05497 0,05497 0,14877 0,14877 -0,50875 0,50875 11 -0,03821 0,03821 0,04553 0,04553 0,01520 0,01520 -0,07633 0,07633 12 -0,01340 0,01340 0,10480 0,10480 -0,20920 0,20920 -0,11773 0,11773 13 0,33985 0,33985 -0,36404 0,36404 -0,21255 0,21255 -0,11121 0,11121 14 0,17031 0,17031 0,39344 0,39344 -0,09459 0,09459 -0,16161 0,16161 15 0,11023 0,11023 -0,28745 0,28745 -0,348516 0,348516 0,28785 0,28785 16 -0,08205 0,08205 0,36184 0,36184 0,107059 0,107059 0,26882 0,26882 17 -0,09174 0,09174 0,05477 0,05477 -0,338656 0,338656 -0,23344 0,23344 18 -0,13150 0,13150 0,06307 0,06307 0,046323 0,046323 -0,00399 0,00399 19 0,30617 0,30617 -0,02228 0,02228 0,493653 0,493653 -0,31032 0,31032 20 0,06005 0,06005 -0,30967 0,30967 -0,058818 0,058818 -0,07585 0,07585
(39)
Berdasarkan kriteria dalam pendeteksian pencilan metode DfFITSbahwa yang merupakan pencilan adalah data yang memiliki nilai |DfFITS| lebih besar dari 2��� = 2�2
20= 0,632456. Dari Tabel 3.2 menunjukkan adanya pencilan pada
data ke-3 dan ke-5 (pada data 1), data ke-5 (pada data 2), data ke-5 (pada data 3), data ke-5 (pada data 4).
3.3 Metode Kuadrat Terkecil
Prinsip dasar metode kuadrat terkecil adalah untuk meminimumkan jumlah kuadrat sisaan dari model regresi yang terbentuk yaitu:
������� ∑��=1 ��2
Model regresi yang akan dibentuk yaitu regresi linier sederhana dengan persamaan sebagai berikut:
�� =�0+�1�1� + �� ; i = 1, 2, ...,N
Dengan model penduga regresinya adalah: ��� = �̂0+�̂1�1�
Tabel 3.6, Tabel 3.7, Tabel 3.8, dan Tabel 3.9 merupakan hasil perkalian antara variabel bebas dan variabel terikat untuk masing-masing data yaitu data 1, data 2, data 3, dan data 4. Dari hasil perhitungan yang diperoleh pada masing-masing tabel akan dihitung nilai penduga paramater �̂0 dan �̂1 untuk model penduga dengan metode kuadrat terkecil berdasarkan rumus pada (2.9) dan (2.10) yaitu:
�̂0 = �� − �̂1��
dan
�̂1 =
∑��=1���� − ∑ ��∑ �� � �=1
� �=1
� �−1�[∑��=1��]2+∑ �
�2 � �=1 �
(40)
Tabel 3.6 Perkalian Variabel Bebasdan Variabel Terikat untuk Data 1
Data ke- � � �� �2
1 11,8038 11,0423 130,342 139,330 2 8,1046 6,7440 54,657 65,684 3 8,0656 8,3468 67,322 65,054 4 10,4036 9,1351 95,038 108,235 5 8,5000 3,5000 29,750 72,250 6 11,7014 11,6395 136,199 136,923 7 10,2912 10,2815 105,809 105,909 8 10,5793 11,7110 123,895 111,922 9 9,2151 9,4347 86,942 84,918 10 11,8172 11,3707 134,369 139,646 11 10,6973 10,3699 110,930 114,433 12 9,9292 9,3904 93,239 98,589 13 10,0137 11,4476 114,633 100,274 14 9,9285 10,4417 103,670 98,575 15 10,7070 11,0885 118,724 114,639 16 9,6483 8,6174 83,144 93,090 17 9,9878 9,0197 90,087 99,756 18 9,6268 8,3214 80,109 92,676 19 10,3465 11,6652 120,695 107,051 20 8,1715 7,1458 58,392 66,773 Total 199,538 190,713 1937,940 2015,730 Rata-rata 9,977 9,536
Perhitungan �̂0 dan �̂1 sebagai berikut: �̂1 =
1937,940− �190,71320�199,538�
−201 (199,538)2+ 2015,730
�̂1 =
1937,940−1902,724
(41)
�̂1 =
35,216 24,959
�̂1= 1,41
Substitusikan nilai �̂1 sehingga: �̂0 = 9,536−1,41(9,977)
�̂0= −4,55
Jadi, diperolehlah model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil yaitu:
��� =�̂0+�̂1�1�
��= −4,55 + 1,41�.
Penduga model metode kuadrat terkecil dapat diperoleh dari tampilan MINITAB 16 yang dapat dilihat di lampiran 2, yakni:
Data 1: ��=−4,55 + 1,41� Data 2: ��= 1,5 + 0,81�
Data 3: ��=− 1,97 + 1,21�
Data 4: ��= 0,46 + 0,98�
Tabel 3.7 Sisaan Kuadrat Semua Data dengan Metode Kuadrat Terkecil
Data ke-
Data 1 Data 2
� � �� ��2 � � �� �
�2
1 11,8038 11,0423 12,0934 1,1047 11,0241 11,4980 10,3744 1,2624
2 8,1046 6,7440 6,8774 0,0178 10,2882 10,5252 9,7820 0,5523
3 8,0656 8,3468 6,8225 2,3234 11,7282 10,6744 10,9412 0,0712
4 10,4036 9,1351 10,1191 0,9683 12,5672 12,1090 11,6166 0,2424
5 8,5000 3,5000 7,4350 15,4842 11,0000 4,5000 10,3550 34,2810
6 11,7014 11,6395 11,9490 0,0958 9,9557 10,2858 9,5144 0,5952
7 10,2912 10,2815 9,9606 0,1030 10,2784 10,7365 9,7741 0,9263
8 10,5793 11,7110 10,3669 1,8068 10,4886 9,8091 9,9434 0,0180
9 9,2151 9,4347 8,4433 0,9828 8,7464 9,3495 8,5408 0,6539
10 11,8172 11,3707 12,1122 0,5499 9,7922 9,0131 9,3827 0,1366
11 10,6973 10,3699 10,5333 0,0267 11,8901 11,2485 11,0715 0,0313
12 9,9292 9,3904 9,4501 0,0036 11,0021 11,0305 10,3567 0,4540
13 10,0137 11,4476 9,5693 3,5281 8,4359 7,1680 8,2909 1,2608
14 9,9285 10,4417 9,4492 0,9851 9,0771 10,5344 8,8071 2,9838
(42)
Data ke-
Data 1 Data 2
� � �� ��2 � � �� �
�2
16 9,6483 8,6174 9,0541 0,1907 10,5200 12,5262 9,9686 6,5412
17 9,9878 9,0197 9,5328 0,2633 11,3214 10,9116 10,6137 0,0887
18 9,6268 8,3214 9,0238 0,4934 9,9333 9,9338 9,4963 0,1914
19 10,3465 11,6652 10,0386 2,6458 10,9497 10,1612 10,3145 0,0235
20 8,1715 7,1458 6,9718 0,0303 8,5925 7,3656 8,4170 1,1054
Data ke-
Data 3 Data 4
� � �� ��2 � � �� �
�2
1 9,5773 9,7371 9,6186 0,0140 9,5036 9,5427 9,7926 0,0624
2 9,3945 9,4338 9,3973 0,0013 8,9949 9,0709 9,2930 0,0493
3 7,9194 7,7132 7,6125 0,0101 9,7543 9,6939 10,0387 0,1189
4 10,1013 9,5401 10,2526 0,5076 10,4547 11,0912 10,7265 0,1330
5 11,0000 15,0000 11,3400 13,3956 9,0000 15,0000 9,2980 32,5128
6 10,7799 11,6411 11,0736 0,3221 11,8226 12,5695 12,0698 0,2497
7 10,2695 8,6576 10,4561 3,2347 10,1489 10,0318 10,4262 0,1556
8 9,4592 9,7154 9,4756 0,0575 9,0099 9,1426 9,3077 0,0273
9 9,4570 8,7120 9,4729 0,5789 10,4718 9,6921 10,7434 1,1050
10 9,4673 10,1323 9,4854 0,4185 8,3023 6,9711 8,6129 2,6954
11 9,8394 10,0377 9,9357 0,0104 9,6177 9,3676 9,9046 0,2883
12 11,5536 11,6654 12,0098 0,1186 9,6586 9,1162 9,9447 0,6864
13 9,4288 8,6048 9,4388 0,6956 9,0581 8,7251 9,3550 0,3968
14 9,9497 9,6230 10,0692 0,1991 9,4222 8,6212 9,7126 1,1912
15 10,7975 10,0127 11,0950 1,1714 9,9249 12,0854 10,2063 3,5309
16 10,0982 10,8020 10,2488 0,3061 9,0239 10,8013 9,3215 2,1899
17 11,0523 10,5382 11,4033 0,7484 10,5082 9,6814 10,7791 1,2050
18 10,1207 10,5308 10,2760 0,0649 11,0018 11,2574 11,2638 0,0000
19 8,9341 10,2095 8,8403 1,8748 8,4898 7,6267 8,7970 1,3697
20 9,9465 9,7970 10,0652 0,0719 8,8304 8,7640 9,1315 0,1351
3.4 Regresi Robust Penduga Least Trimmed Squares (LTS)
Metode regresi robust merupakan metode yang digunakan untuk mengatasi permasalahan pencilan dan dikembangkan dengan tujuan untuk mendapatkan sifat robust (kuat) yang mampu mengenali dan mengatasi adanya pencilan. Metode penduga ini adalah metode pendugaan parameter regresi robust dengan menggunakan konsep pengepasan MKT untuk meminimumkan jumlah kuadrat
sisaan yaitu �������
∑
= h i i r 1 2 .(43)
Nilai sisaan kuadrat
∑
= h i i r 1 2akan diurutkan dari terkecil hingga terbesar
menjadi sebanyak h untuk mendapatkan model penduga dengan metode Least Trimmed Squares. Nilai h dapat dicari dengan rumus ℎ= ��
2+
(�+1 )
2 �=
[�+�+1] 2 ,
sehingga dengan jumlah n =20 maka diperolehlah nilai ℎ =20+2+1
2 = 11,5 ≈12. Tabel 3.8 Sisaaan Kuadrat yang Diurutkan
Tabel 3.9 Data yang Terbentuk dari Sisaan Kuadrat Sudah Diurutkan
Data ke-
Data 1 Data 2
� � ��2 � � ��2
1 9,9292 9,3904 0,003572 10,4886 9,8091 0,018034 2 8,1046 6,7440 0,017793 10,9497 10,1612 0,023518 3 10,6973 10,3699 0,026685 11,8901 11,2485 0,031333 4 8,1715 7,1458 0,030259 11,7282 10,6744 0,071208 5 11,7014 11,6395 0,095762 11,3214 10,9116 0,088738 6 10,2912 10,2815 0,102985 9,7922 9,0131 0,136584 Nomor
Urut
Data 1 Data 2 Data 3 Data 4
��2 �
�2 ��2 ��2
1 0,0036 0,0180 0,0013 0,0000
2 0,0178 0,0235 0,0101 0,0273
3 0,0267 0,0313 0,0104 0,0493
4 0,0303 0,0712 0,0140 0,0624
5 0,0958 0,0887 0,0575 0,1189
6 0,1030 0,1366 0,0649 0,1330
7 0,1907 0,1914 0,0719 0,1351
8 0,2633 0,2424 0,1186 0,1556
9 0,2935 0,4540 0,1991 0,2497
10 0,4934 0,5523 0,3061 0,2883
11 0,5499 0,5952 0,3221 0,3968
12 0,9683 0,6539 0,4185 0,6864
13 0,9828 0,9263 0,5076 1,1050
14 0,9851 1,1054 0,5789 1,1912
15 1,1047 1,2608 0,6956 1,2050
16 1,8068 1,2624 0,7484 1,3697
17 2,3234 2,9838 1,1714 2,1899
18 2,6458 3,6819 1,8748 2,6954
19 3,5281 6,5412 3,2347 3,5309
(44)
Data ke-
Data 1 Data 2
� � ��2 � � ��2
7 9,6483 8,6174 0,190678 9,9333 9,9338 0,191369 8 9,9878 9,0197 0,263270 12,5672 12,1090 0,242420 9 10,7070 11,0885 0,293460 11,0021 11,0305 0,453979 10 9,6268 8,3214 0,493394 10,2882 10,5252 0,552328 11 11,8172 11,3707 0,549935 9,9557 10,2858 0,595183 12 10,4036 9,1351 0,968284 8,7464 9,3495 0,653899
Data ke-
Data 3 Data 4
� � ��2 � � ��2
1 9,3945 9,4338 0,001329 11,0018 11,2574 0,000040 2 7,9194 7,7132 0,010131 9,0099 9,1426 0,027275 3 9,8394 10,0377 0,010403 8,9949 9,0709 0,049321 4 9,5773 9,7371 0,014045 9,5036 9,5427 0,062425 5 9,4592 9,7154 0,057497 9,7543 9,6939 0,118885 6 10,1207 10,5308 0,064913 10,4547 11,0912 0,132996 7 9,9465 9,7970 0,071920 8,8304 8,7640 0,135068 8 11,5536 11,6654 0,118625 10,1489 10,0318 0,155575 9 9,9497 9,6230 0,199068 11,8226 12,5695 0,249747 10 10,0982 10,8020 0,306056 9,6177 9,3676 0,288349 11 10,7799 11,6411 0,322055 9,0581 8,7251 0,396758 12 9,4673 10,1323 0,418468 9,6586 9,1162 0,686410
Selanjutnya, data dengan nilai sisaan kuadrat yang telah diurutkan sebanyak h akan didapatkan penduga-LTS dengan metode kuadrat terkecil untuk masing-masing data sehingga dapat dihitung nilai �̂0 dan �̂1 sesuai dengan rumus pada (2.9) dan (2.10) yaitu:
�̂0 = �� − �̂1��
dan
�̂1 =
∑��=1���� − ∑ ��∑ �� � �=1
� �=1
� �−1�[∑��=1��]2+∑ �
�2 � �=1 �
(45)
Tabel 3.10 Perkalian Variabel untuk Data 1 dengan Penduga-LTS
Data ke- � � �� �2
1 9,9292 9,3904 93,239 98,589 2 8,1046 6,7440 54,657 65,684 3 10,6973 10,3699 110,930 114,433 4 8,1715 7,1458 58,392 66,773 5 11,7014 11,6395 136,199 136,923 6 10,2912 10,2815 105,809 105,909 7 9,6483 8,6174 83,144 93,090 8 9,9878 9,0197 90,087 99,756 9 10,7070 11,0885 118,724 114,639 10 9,6268 8,3214 80,109 92,676 11 11,8172 11,3707 134,369 139,646 12 10,4036 9,1351 95,038 108,235 Total 121,086 113,124 1160,700 1236,350 Rata-rata 10,0905 9,4270
Perhitungan nilai �̂0 dan �̂1 sebagai berikut: �̂1 =
1160,700−113,12412�121,086
−121 (121,086)2+ 1236,350
�̂1 =
1160,700−1141,478
−1221,818 + 1236,350
�̂1 =
19,222 14,532
�̂1 = 1,32
dan
�̂0 = 9,4270−1,32(10,0905)
�̂0 = −3,92
Jadi, diperolehlah model penduga Least Trimmed Squares dengan metode kuadrat terkecilyaitu:
��� =�̂0+�̂1�1�
(46)
Selanjutnya data dengan nilai sisaan kuadrat yang telah diurutkan sebanyak h=12, diperoleh penduga dengan metode kuadrat terkecil melalui tampilan MINITAB 16 (Lampiran 3):
Data 1: ��=−3,92 + 1,32� Data 2: ��= 2,91 + 0,701�
Data 3: ��=− 1,25 + 1,15�
Data 4: ��=−2,63 + 1,27�
3.4.1 Rataan Kuadrat Sisa (Mean Square Error) untuk Penduga-LTS
Setelah diperoleh model untuk penduga-LTS, akan dihitung nilai rataan kuadrat sisa (Mean Square Error) dengan menggunakan rumus berikut:
�2 = ���
� − �
=��� − ���
� − �
Untuk mendapatkan nilai rata-rata kuadrat sisa, akan dihitung nilai jumlah kuadrat regresi dan jumlah kuadrat total dengan hasil perhitungan berikut:
Tabel 3.11 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 1
Data
ke- � � �� ��� − ���
2
(�� − ��)2
1 11,8038 11,0423 11,6610 4,51718 2,2700
2 8,1046 6,7440 6,7780 7,60460 7,7932
3 8,0656 8,3468 6,7266 7,89086 1,4135
4 10,4036 9,1351 9,8128 0,07678 0,1605
5 8,5000 3,5000 7,3000 4,99818 36,4292
6 11,7014 11,6395 11,5258 3,96084 4,4262
(47)
Data
ke- � � �� ��� − ���
2
(�� − ��)2
8 10,5793 11,7110 10,0447 0,25914 4,7322
9 9,2151 9,4347 8,2440 1,66850 0,0102
10 11,8172 11,3707 11,6787 4,59255 3,3672
11 10,6973 10,3699 10,2005 0,44201 0,6960
12 9,9292 9,3904 9,1865 0,12191 0,0211
13 10,0137 11,4476 9,2981 0,05645 3,6556
14 9,9285 10,4417 9,1856 0,12255 0,8208
15 10,7070 11,0885 10,2132 0,45904 2,4114
16 9,6483 8,6174 8,8158 0,51826 0,8431
17 9,9878 9,0197 9,2639 0,07385 0,2662
18 9,6268 8,3214 8,7874 0,55985 1,4744
19 10,3465 11,6652 9,7374 0,04071 4,5350
20 8,1715 7,1458 6,8664 7,12504 5,7116
Jumlah 45,1049 81,5936
Dari hasil perhitungan pada Tabel 3.11, maka nilai rata-rata kuadrat sisa adalah: �2 = 81,5936−45,1049
20−2 =36,4887
18
= 2,0272
Jadi, nilai rataan kuadrat sisa data 1 adalah 2,0272.
Tabel 3.12 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 2
Data
ke- � � �� ��� − ���
2
(�� − ��)2
1 11,0241 11,4980 10,6379 0,62703 2,7289
2 10,2882 10,5252 10,1220 0,07617 0,4612
(48)
Data
ke- � � �� ��� − ���
2
(�� − ��)2
4 12,5672 12,1090 11,7196 3,51039 5,1210
5 11,0000 4,5000 10,6210 0,60058 28,5800
6 9,9557 10,2858 9,8890 0,00184 0,1934
7 10,2784 10,7365 10,1151 0,07242 0,7930
8 10,4886 9,8091 10,2625 0,17348 0,0014
9 8,7464 9,3495 9,0412 0,64772 0,2466
10 9,7922 9,0131 9,7743 0,00514 0,6937
11 11,8901 11,2485 11,2449 1,95695 1,9670
12 11,0021 11,0305 10,6225 0,60288 1,4029
13 8,4359 7,1680 8,8236 1,04545 7,1717
14 9,0771 10,5344 9,2731 0,32830 0,4739
15 9,8870 7,5402 9,8408 0,00003 5,3169
16 10,5200 12,5262 10,2845 0,19230 7,1833
17 11,3214 10,9116 10,8463 1,00057 1,1355
18 9,9333 9,9338 9,8732 0,00074 0,0077
19 10,9497 10,1612 10,5858 0,54721 0,0993
20 8,5925 7,3656 8,9334 0,83298 6,1525
Jumlah 13,8746 70,4161
Dari hasil perhitungan pada Tabel 3.12, maka nilai rata-rata kuadrat sisa adalah: �2 = 70,4161−13,8746
20−2 =56,5415
18
= 3,1412
(49)
Tabel 3.13 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 3
Data
ke- � � �� ��� − ���
2
(�� − ��)2
1 9,5773 9,7371 9,7639 0,11646 0,1355
2 9,3945 9,4338 9,5537 0,30419 0,4508
3 7,9194 7,7132 7,8574 5,05272 5,7217
4 10,1013 9,5401 10,3665 0,06830 0,3193
5 11,0000 15,0000 11,4000 1,67654 23,9592
6 10,7799 11,6411 11,1468 1,08502 2,3591
7 10,2695 8,6576 10,5600 0,20681 2,0955
8 9,4592 9,7154 9,6281 0,22764 0,1519
9 9,4570 8,7120 9,6255 0,23010 1,9409
10 9,4673 10,1323 9,6374 0,21886 0,0007
11 9,8394 10,0377 10,0653 0,00159 0,0046
12 11,5536 11,6654 12,0366 3,73037 2,4343
13 9,4288 8,6048 9,5931 0,26223 2,2511
14 9,9497 9,6230 10,1922 0,00757 0,2325
15 10,7975 10,0127 11,1672 1,12777 0,0086
16 10,0982 10,8020 10,3629 0,06640 0,4855
17 11,0523 10,5382 11,4602 1,83595 0,1875
18 10,1207 10,5308 10,3888 0,08042 0,1811
19 8,9341 10,2095 9,0242 1,16847 0,0109
20 9,9465 9,7970 10,1884 0,00693 0,0950
Jumlah 17,4743 43,0256
Dari hasil perhitungan pada Tabel 3.13, maka nilai rata-rata kuadrat sisa adalah: �2 = 43,0256−17,4743
20−2 =25,5513
18
(50)
Jadi, nilai rataan kuadrat sisa data 3 adalah 1,4195.
Tabel 3.14 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 4
Data
ke- � � �� ��� − ���
2
(�� − ��)2
1 9,5036 9,5427 9,4396 0,25300 0,1599
2 8,9949 9,0709 8,7935 1,32042 0,7599
3 9,7543 9,6939 9,7580 0,03408 0,0618
4 10,4547 11,0912 10,6474 0,49675 1,3192
5 9,0000 15,0000 8,8000 1,30554 25,5773
6 11,8226 12,5695 12,3847 5,96374 6,9007
7 10,1489 10,0318 10,2591 0,10014 0,0079
8 9,0099 9,1426 8,8126 1,27698 0,6401
9 10,4718 9,6921 10,6692 0,52801 0,0627
10 8,3023 6,9711 7,9139 4,11546 8,8298
11 9,6177 9,3676 9,5845 0,12822 0,3306
12 9,6586 9,1162 9,6364 0,09377 0,6829
13 9,0581 8,7251 8,8737 1,14249 1,4823
14 9,4222 8,6212 9,3362 0,36772 1,7461
15 9,9249 12,0854 9,9747 0,00103 4,5914
16 9,0239 10,8013 8,8303 1,23711 0,7374
17 10,5082 9,6814 10,7154 0,59727 0,0682
18 11,0018 11,2574 11,3423 1,95913 1,7287
19 8,4898 7,6267 8,1521 3,20590 5,3635
20 8,8304 8,7640 8,5846 1,84407 1,3892
Jumlah 25,9708 62,4396
Dari hasil perhitungan pada Tabel 3.14, maka nilai rata-rata kuadrat sisa adalah: �2 = 62,4396−25,9708
(51)
=36,4688 18
= 2,0260
Jadi, nilai rataan kuadrat sisa data 4 adalah 2,0260.
3.5 Regresi Robust Penduga-S
Regresi robust penduga-S dapat diselesaikan melalui MKT terboboti secara iterasi yang disebut Iteratively Reweighted Least Squares (Iterasi kuadrat terkecil terboboti kembali) dengan sisaan awal yang diperoleh dari regresi robust penduga-M.
Proses perhitungan penduga koefisien regresi penduga-M dan pengolahan data 1 yang terdapat pada Tabel 3.1 dapat dilakukan dengan mengikuti prosedur sebagai berikut:
1. Menghitung koefisien regresi menggunakan metode kuadrat terkecil, didapatkan nilai b dan ε�,0.
2. Menghitung nilai ��0= 1,5 (median |ε�,0|) sehingga didapatkan nilai ��∗,0 dan |��∗,0|.
3. Menentukan nilai ψ(εi*) dan pembobot wi,0 sesuai dengan fungsi Huber. Hasil perhitungan terdapat pada Tabel 3.15.
Prosedur berikutnya yaitu:
4. Melakukan perhitungan bRobust ke-1 sebagai penaksir weighted least square
dengan pembobot wi,0, diperolehlah koefisien bRobust ke 1 , ε�,1, ��1 = 1,5
(median |ε�,1|), ��∗,0, ψ(εi*) dan pembobot wi,1, serta nilai ∑ �����=1 ,1�.
(52)
Tabel 3.15 Hasil Perhitungan Koefisien Regresi Iterasi ke-1
� ε�,0 |ε�,0| ��∗,0 |��∗,0 | ��,0=
ψ(��∗,0)
��∗,0
-4,54687 1,05104 1,05104 0,97049 0,97049 1,0000 1,41151 0,13339 0,13339 0,12317 0,12317 1,0000 -1,52426 1,52426 -1,40745 1,40745 0,7105 0,98401 0,98401 0,90860 0,90860 1,0000 3,93500 3,93500 3,63344 3,63344 0,2752 0,30945 0,30945 0,28574 0,28574 1,0000 -0,32091 0,32091 -0,29632 0,29632 1,0000 -1,34416 1,34416 -1,24115 1,24115 0,8057 -0,99138 0,99138 -0,91541 0,91541 1,0000 0,74158 0,74158 0,68474 0,68474 1,0000 0,16336 0,16336 0,15084 0,15084 1,0000 0,05976 0,05976 0,05518 0,05518 1,0000 -1,87833 1,87833 -1,73438 1,73438 0,5766 -0,99251 0,99251 -0,91644 0,91644 1,0912 -0,54172 0,54172 -0,50020 0,50020 1,0000 0,43667 0,43667 0,40320 0,40320 1,0000 0,51310 0,51310 0,47378 0,47378 1,0000 0,70242 0,70242 0,64859 0,64859 1,0000 -1,62659 1,62659 -1,50193 1,50193 0,6658 -0,17395 0,17395 -0,16062 0,16062 1,0000
Tabel 3.16 Hasil Perhitungan Koefisien Regresi Iterasi ke-2
� ε�,1 |ε�,1| ��∗,1 |��∗,1 | ��,1=
ψ(��∗,1)
��∗,1
-2,75285 1,07199 1,07199 0,96404 0,96404 1,0000 1,23841 0,14876 0,14876 0,13378 0,13378 1,0000 -1,50895 1,50895 -1,35700 1,35700 0,7369 1,00285 1,00285 0,90187 0,90187 1,0000 3,95097 3,95097 3,55310 3,55310 0,2814 0,33025 0,33025 0,29700 0,29700 1,0000
(53)
� ε�,1 |ε�,1| ��∗,1 |��∗,1 | ��,1=
ψ(��∗,1)
��∗,1
-0,30224 0,30224 -0,27181 0,27181 1,0000 -1,32506 1,32506 -1,19162 1,19162 0,8392 -0,97434 0,97434 -0,87622 0,87622 1,0000 0,76255 0,76255 0,68576 0,68576 1,0000 0,18264 0,18264 0,16425 0,16425 1,0000 0,07789 0,07789 0,07004 0,07004 1,0000 -1,86008 1,86008 -1,67277 1,67277 0,5978 -0,97438 0,97438 -0,87626 0,87626 1,0000 -0,52242 0,52242 -0,46981 0,46981 1,0000 0,45437 0,45437 0,40861 0,40861 1,0000 0,53131 0,53131 0,47781 0,47781 1,0000 0,72009 0,72009 0,64757 0,64757 1,0000 -1,60783 1,60783 -1,44592 1,44592 0,6916 -0,15848 0,15848 -0,14252 0,14252 1,0000
Selanjutnya, pembobot wi,1 digunakan untuk menghitung koefisien regresi
yang baru yaitu bRobust ke 2. Perhitungan ini dilanjutkan sampai didapatkan nilai
∑ �����=1 ,�� yang konvergen. Selain perhitungan dengan prosedur, pendugaan
koefisien regresi dengan penduga-M dapat juga dihitung menggunakan bantuan program macro MINITAB di Lampiran 4 untuk mendapatkan estimasi parameter regresi. Selanjutnya, hasil output dari program dapat dilihat di Lampiran 5. Sementara itu, perhitungan penaksir koefisien regresi untuk data 2, data 3 dan data 4 juga dilakukan dilakukan dengan prosedur yang sama dengan data 1.
Regresi Robust penduga-M diperoleh melalui MKT terboboti secara iterasi dengan bantuan MACRO MINITAB 16 dapat dilihat di lampiran 5 yakni:
Tabel 3.17 Nilai Koefisien Regresi Penduga-M
Koefisien Regresi
Data 1 Data 2 Data 3 Data 4 Iterai ke-7 Iterasi ke-15 Iterasi ke-12 Iterasi ke-10 �0 -2,31699 0,41707 -0,15310 -2,72275
�1 1,19616 0,93058 1,01610 1,27240
(54)
Berdasarkan nilai pada Tabel 3.26, maka diperoleh model regresi robust penduga-M sebagai berikut:
Data 1: ��� =−2,31699 + 1,19616�
Data 2: ��� = 0,41707 + 0,93058�
Data 3: ��� =−0,15310 + 1,01610�
Data 4: ��� =−2,72275 + 1,27240�
Tabel 3.18 Sisaan dari Persamaan Penduga-M Data
ke-
Data 1 Data 2
� � ��� �� � � ��� ��
1 11,8038 11,0423 11,8023 0,75992 10,6759 -0,82208 10,6759 -0,82208 2 8,1046 6,7440 7,3774 0,63332 9,9911 -0,53411 9,9911 -0,53411 3 8,0656 8,3468 7,3308 -1,01600 11,3311 0,65677 11,3311 0,65677 4 10,4036 9,1351 10,1274 0,99232 12,1119 0,00293 12,1119 0,00293 5 8,5000 3,5000 7,8504 4,35037 10,6535 6,15347 10,6535 6,15347 6 11,7014 11,6395 11,6798 0,04024 9,6817 -0,60415 9,6817 -0,60415 7 10,2912 10,2815 9,9929 -0,28857 9,9819 -0,75459 9,9819 -0,75459 8 10,5793 11,7110 10,3376 -1,37344 10,1776 0,36854 10,1776 0,36854 9 9,2151 9,4347 8,7058 -0,72893 8,5563 -0,79318 8,5563 -0,79318 10 11,8172 11,3707 11,8183 0,44760 9,5295 0,51636 9,5295 0,51636 11 10,6973 10,3699 10,4787 0,10885 11,4818 0,23324 11,4818 0,23324 12 9,9292 9,3904 9,5599 0,16952 10,6554 -0,37504 10,6554 -0,37504 13 10,0137 11,4476 9,6610 -1,78665 8,2674 1,09934 8,2674 1,09934 14 9,9285 10,4417 9,5591 -0,88260 8,8641 -1,67037 8,8641 -1,67037 15 10,7070 11,0885 10,4902 -0,59829 9,6177 2,07753 9,6177 2,07753 16 9,6483 8,6174 9,2239 0,60648 10,2068 -2,31937 10,2068 -2,31937 17 9,9878 9,0197 9,6300 0,61031 10,9526 0,04095 10,9526 0,04095 18 9,6268 8,3214 9,1983 0,87683 9,6608 -0,27294 9,6608 -0,27294 19 10,3465 11,6652 10,0591 -1,60608 10,6067 0,44552 10,6067 0,44552
20 8,1715 7,1458 7,4574 0,31167 8,4131 1,04749 8,4131 1,04749
Data ke-
Data 3 Data 4
� � ��� �� � � ��� ��
1 9,5773 9,7371 9,5784 -0,15866 9,5036 9,5427 9,3693 -0,17344
2 9,3945 9,4338 9,3926 -0,04115 8,9949 9,0709 8,7220 -0,34892
3 7,9194 7,7132 7,8938 0,18067 9,7543 9,6939 9,6883 -0,00570
4 10,1013 9,5401 10,1109 0,57073 10,4547 11,0912 10,5793 -0,51183 5 11,0000 15,0000 11,0240 -3,97600 9,0000 15,0000 8,7285 -6,27152 6 10,7799 11,6411 10,8003 -0,84081 11,8226 12,5695 12,3198 -0,24970 7 10,2695 8,6576 10,2818 1,62416 10,1489 10,0318 10,1902 0,15849
8 9,4592 9,7154 9,4584 -0,25702 9,0099 9,1426 8,7411 -0,40149
9 9,4570 8,7120 9,4561 0,74408 10,4718 9,6921 10,6012 0,90906
10 9,4673 10,1323 9,4666 -0,66569 8,3023 6,9711 7,8408 0,86967 11 9,8394 10,0377 9,8447 -0,19296 9,6177 9,3676 9,5145 0,14683 12 11,5536 11,6654 11,5865 -0,07892 9,6586 9,1162 9,5664 0,45020
(55)
Data ke-
Data 3 Data 4
� � ��� �� � � ��� ��
14 9,9497 9,6230 9,9568 0,33381 9,4222 8,6212 9,2657 0,64448
15 10,7975 10,0127 10,8183 0,80560 9,9249 12,0854 9,9053 -2,18003 16 10,0982 10,8020 10,1076 -0,69436 9,0239 10,8013 8,7589 -2,04241 17 11,0523 10,5382 11,0772 0,53894 10,5082 9,6814 10,6475 0,96611 18 10,1207 10,5308 10,1305 -0,40028 11,0018 11,2574 11,2755 0,01808 19 8,9341 10,2095 8,9249 -1,28464 8,4898 7,6267 8,0794 0,45269
20 9,9465 9,7970 9,9535 0,15646 8,8304 8,7640 8,5127 -0,25124
Proses perhitungan penduga koefisien regresi robust penduga-S dan pengolahan data 1 yang terdapat pada Tabel 3.1 setelah didapatkan penduga-M adalah sebagai berikut:
a. Dari sisaan yang diperoleh pada penduga-M, dihitung robust �� sesuai persamaan (2.19) untuk mendapatkan nilai �� sesuai persamaan(2.14).
b. Menghitung nilai �� sesuai persamaan (2.21).
c. Digunakan MKT terboboti untuk mendapatkan penduga kuadrat terkecil terboboti:
β * = (X’WX)-1 X’WY
d. Menjadikan sisaan yang diperoleh pada langkah (c) sebagai sisaan pada langkah (a), sehingga didapatkan nilai �� dan pembobot �� yang baru.
Hasil perhitungan terdapat pada Tabel 3.19.
Iterasi ulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,���
yang merupakan penduga-S.
Tabel 3.19 Hasil Perhitungan Koefisien Regresi Iterasi ke-1
�� = 1,31884; � = 1,547
� ε�,0 ��∗,0 |��∗,0 | ��,0
-1,87207 0,75992 0,57621 0,57621 0,7418 1,14441 0,63332 0,48021 0,48021 0,8166 -1,01600 -0,77038 0,77038 0,5655 0,99232 0,75242 0,75242 0,5828 4,35037 3,29864 3,29864 12,5787
(56)
� ε�,0 ��∗,0 |��∗,0 | ��,0
0,04024 0,03051 0,03051 0,9992 -0,28857 -0,21881 0,21881 0,9604 -1,37344 -1,04140 1,04140 0,2990 -0,72893 -0,55271 0,55271 0,7610 0,44760 0,33939 0,33939 0,9061 0,10885 0,08253 0,08253 0,9943 0,16952 0,12854 0,12854 0,9862 -1,78665 -1,35472 1,35472 0,0544 -0,88260 -0,66923 0,66923 0,6607 -0,59829 -0,45365 0,45365 0,8354 0,60648 0,45986 0,45986 0,8311 0,61031 0,46277 0,46277 0,8290 0,87683 0,66485 0,66485 0,6647 -1,60608 -1,21780 1,21780 0,1446 0,31167 0,23632 0,23632 0,9539
Tabel 3.20 Hasil Perhitungan Koefisien Regresi Iterasi ke-2
�� = 1,33121;� = 1,547
� ε�,1 ��∗,1 |��∗,1 | ��,1
-1,76404 0,59397 0,44619 0,44619 0,8405 1,13022 0,65881 0,49490 0,49490 0,8058 -0,98849 -0,74256 0,74256 0,5923 0,89883 0,67520 0,67520 0,6553 4,35540 3,27177 3,27177 12,0607 -0,12042 -0,09046 0,09046 0,9932 -0,37624 -0,28263 0,28263 0,9344 -1,47602 -1,10878 1,10878 0,2365 -0,76092 -0,57160 0,57160 0,7456 0,28095 0,21105 0,21105 0,9631 0,00015 0,00012 0,00012 1,0000 0,10058 0,07556 0,07556 0,9952
(1)
(2)
(3)
(4)
(5)
Lampiran 7
Perulangan Data Simulasi Data
ke-
Letak Pencilan di Ujung Bawah
Data 1.1 Data 1.2 Data 1.3 Data 1.4
X Y X Y X Y X Y
1 10,9384 11,3667 9,4991 8,2990 11,0241 11,4980 9,5798 9,7206 2 10,9626 9,4702 9,3211 9,7080 10,2882 10,5252 8,5893 7,8797 3 9,2479 9,0498 9,7256 9,2891 11,7282 10,6744 10,1018 8,0740 4 11,4549 11,1408 11,6603 11,4100 12,5672 12,1090 10,6760 11,3832 5 8,5000 5,0000 9,0000 4,0000 9,5000 5,0000 8,5000 3,5000 6 10,7672 11,9199 10,0175 9,7229 9,9557 10,2858 11,2379 10,8806 7 10,9858 11,2756 9,4737 9,7684 10,2784 10,7365 8,3134 7,6695 8 10,2638 10,9304 8,5295 9,3999 10,4886 9,8091 9,9691 10,9018 9 9,4410 9,0994 11,2864 10,1848 8,7464 9,3495 8,9718 7,5066 10 10,7294 12,0933 10,9375 12,9055 9,7922 9,0131 12,1683 12,9687 11 9,1744 9,0206 11,0328 9,9629 11,8901 11,2485 9,9857 8,1493 12 12,3847 13,8371 10,4015 11,7538 11,0021 11,0305 10,0475 9,7115 13 11,2835 10,9246 11,1829 10,4364 8,4359 7,1680 9,1524 7,6817 14 10,1057 9,6997 10,3046 7,7499 9,0771 10,5344 10,4522 10,2707 15 10,8837 11,4819 10,3259 8,9349 9,8870 7,5402 10,7285 9,6489 16 9,5734 9,9752 9,3807 9,3104 10,5200 12,5262 9,8786 10,2048 17 9,6933 9,4426 10,2086 9,6546 11,3214 10,9116 9,3021 8,8980 18 8,5464 9,3974 9,0971 10,0117 9,9333 9,9338 10,1756 10,0576 19 10,4321 10,7468 12,1418 11,1747 10,9497 10,1612 9,7438 9,3538 20 9,5469 9,6804 11,7814 12,2024 8,5925 7,3656 10,9322 9,0888
Data ke-
Letak Pencilan di Tengah Bawah
Data 2.1 Data 2.2 Data 2.3 Data 2.4
X Y X Y X Y X Y
1 11,7466 11,0230 9,4991 8,2990 9,6294 10,0745 9,9737 11,6137 2 9,2999 10,4381 9,3211 9,7080 10,0566 11,9969 9,9014 9,7467 3 10,5085 10,7401 9,7256 9,2891 10,2271 10,7987 9,0930 8,7870 4 10,1879 8,9916 11,6603 11,4100 11,8048 11,3398 11,2763 10,1763 5 10,5000 4,5000 10,5000 5,0000 11,0000 5,0000 10,5000 4,0000 6 9,4888 8,0855 10,0175 9,7229 11,7961 10,8374 11,4849 11,6986 7 10,5127 9,9005 9,4737 9,7684 10,0038 10,2741 10,5413 13,7554 8 10,1746 9,6544 8,5295 9,3999 8,3665 7,1408 9,8215 10,6077 9 10,4603 10,8288 11,2864 10,1848 9,5996 10,3283 10,6959 11,9879 10 11,0999 11,4000 10,9375 12,9055 11,1343 9,5946 9,9392 10,8170 11 10,9145 10,9465 11,0328 9,9629 10,9399 13,4029 10,1324 10,4586 12 9,7326 9,0117 10,4015 11,7538 9,9157 10,6094 10,6071 9,8277 13 9,8506 11,9771 11,1829 10,4364 8,9579 9,2717 9,2339 10,6191 14 8,7324 8,0063 10,3046 7,7499 10,0558 9,5510 10,6184 9,4876 15 9,2742 8,4822 10,3259 8,9349 11,4660 12,2458 10,1097 10,1301 16 11,3603 11,4535 9,3807 9,3104 10,0466 10,9323 10,6876 10,9185 17 9,4754 10,1852 10,2086 9,6546 10,5501 8,3275 9,7214 8,4769
(6)
Data ke-
Letak Pencilan di Tengah Bawah
Data 2.1 Data 2.2 Data 2.3 Data 2.4
X Y X Y X Y X Y
18 9,1325 7,1772 9,0971 10,0117 10,1408 8,6025 8,4386 7,2587 19 11,4565 10,7763 12,1418 11,1747 11,7744 10,7744 9,7110 10,4824 20 11,1202 11,9324 11,7814 12,2024 9,1795 8,8711 9,9838 9,6042
Data ke-
Letak Pencilan di Ujung Atas
Data 3.1 Data 3.2 Data 3.3 Data 3.4
X Y X Y X Y X Y
1 8,6719 8,6400 8,6719 8,6400 10,2224 10,3258 10,8526 9,5500 2 8,5871 10,5205 8,5871 10,5205 9,8870 10,8173 9,6917 10,4372 3 9,7627 10,7408 9,7627 10,7408 11,2809 9,9585 10,1970 10,0010 4 8,3258 9,6695 8,3258 9,6695 10,9198 11,9886 9,4123 10,8935 5 12,0000 7,5000 11,0000 15,5000 11,0000 16,5000 11,5000 16,0000 6 10,9460 9,2059 10,9460 9,2059 9,1298 9,5336 11,0989 10,9861 7 10,7508 11,5065 10,7508 11,5065 10,9793 11,6449 9,5545 11,3926 8 9,1792 9,1246 9,1792 9,1246 11,6585 11,1575 11,4003 10,3292 9 11,3609 9,4410 11,3609 9,4410 9,1680 8,4237 11,7723 10,7008 10 8,6906 7,3321 8,6906 7,3321 9,8956 9,6808 9,4415 10,3168 11 8,7583 7,5432 8,7583 7,5432 8,3057 9,9101 10,0109 9,3026 12 8,7942 9,6925 8,7942 9,6925 10,6002 11,4602 10,5803 10,6670 13 8,3696 8,1116 8,3696 8,1116 9,6727 10,0635 11,6334 12,5298 14 8,1872 7,0140 8,1872 7,0140 10,4314 10,0709 8,3522 9,8387 15 9,8113 9,4855 9,8113 9,4855 9,0970 9,2586 8,5340 8,4451 16 9,9291 8,3090 9,9291 8,3090 10,4914 7,3278 11,1258 11,8301 17 10,9354 11,3335 10,9354 11,3335 10,3250 9,4802 9,4427 10,1533 18 9,2227 9,0989 9,2227 9,0989 9,5942 9,4798 9,2454 9,3401 19 10,2255 9,7902 10,2255 9,7902 9,4215 10,8769 9,7670 9,6008 20 10,7852 10,2624 10,7852 10,2624 9,9620 7,2731 10,1546 11,5003
Data ke-
Letak Pencilan di Tengah Atas
Data 4.1 Data 4.2 Data 4.3 Data 4.4
X Y X Y X Y X Y
1 9,8418 9,0598 10,4826 9,2924 9,4023 8,4200 10,1798 11,8952 2 10,2318 10,1727 10,1954 10,1784 9,4140 8,5685 12,0474 11,1254 3 9,9644 11,4111 8,1208 8,1022 9,9297 9,6469 10,0750 10,1239 4 9,5767 10,9250 10,2277 9,7994 9,1260 9,1610 10,5271 9,6756 5 9,5000 14,0000 9,0000 12,5000 9,0000 14,0000 9,5000 15,0000 6 11,4500 11,8149 9,8738 10,3218 8,0883 8,9640 11,6206 12,1958 7 10,1851 9,9997 10,2206 10,1423 8,8129 7,9337 8,8126 9,6109 8 9,3641 10,1619 8,7680 9,0081 8,6039 10,3237 10,4009 10,8217 9 10,3407 10,2600 9,8686 9,4111 10,5519 11,0033 8,1239 8,5303