Perbandingan Metode Least Trimmed Squares Dan Penduga-S Dalam Mengatasi Data Pencilan Dengan Simulasi Data

(1)

PERBANDINGAN METODE

LEAST TRIMMED SQUARES

DAN PENDUGA-S DALAM MENGATASI DATA

PENCILAN DENGAN SIMULASI DATA

SKRIPSI

ANDOS NIKI S. M. SEMBIRING

090803032

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN

ALAM

UNIVERSITAS SUMATERA UTARA

MEDAN


(2)

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA

PENCILAN DENGAN SIMULASI DATA

SKRIPSI

Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains

ANDOS NIKI S. M. SEMBIRING 090803032

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN 2015


(3)

PERSETUJUAN

Judul : Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data

Kategori : Skripsi

Nama : Andos Niki S. M. Sembiring

Nomor Induk Mahasiswa : 090803032

Program Studi : Sarjana (S1) Matematika

Departemen : Matematika

Fakultas : Matematika dan Ilmu Pengetahuan Alam

(FMIPA) Universitas Sumatera Utara

Disetujui di Medan, April 2015

Komisi Pembimbing:

Pembimbing 2, Pembimbing 1,

Asima Manurung, S.Si, M.Si NIP. 19730315 199903 2 001

Dr. Open Darnius, M.Sc NIP. 19641014 199103 1 004

Diketahui oleh:

Departemen Matematika FMIPA USU Ketua,

Prof. Dr. Tulus, M.Si. NIP. 196209011988031 002


(4)

PERNYATAAN

PERBANDINGAN METODE LEAST TRIMMED SQUARES

DAN PENDUGA-S DALAM MENGATASI DATA PENCILAN DENGAN SIMULASI DATA

SKRIPSI

Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri. Kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya.

Medan, April 2015

ANDOS NIKI S. M. SEMBIRING 090803032


(5)

PENGHARGAAN

Pujian dan syukur penulis panjatkan kepada Tuhan Yesus atas kasih dan penyertaanNya yang dirasakan penulis dalam menyelesaikan penyusunan skripsi ini dengan judul Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data.

Terimakasih penulis sampaikan kepada Bapak Dr. Open Darnius, M.Sc selaku pembimbing 1 dan Ibu Asima Manurung, S.Si, M.Si selaku pembimbing 2 yang telah dengan sabar meluangkan waktunya untuk membimbing penulis selama penulisan skripsi ini. Penulis juga mengucapkan terima kasih kepada Bapak Dr. Faigiziduhu Bu’ulolo, M.Si dan Bapak Dr. Pasukat Sembiring, M.Si selaku dosen penguji penulis yang telah memberikan kritik dan saran yang sangat penting dalam penyempurnaan penulisan skripsi ini. Terimakasih kepada Bapak Prof. Dr. Tulus, M.Si dan Ibu Dr. Mardiningsih, M.Si selaku ketua dan Sekretaris Departemen Matematika FMIPA USU, kepada Bapak Dr. Sutarman, M.Sc selaku Dekan FMIPA USU, Pembantu Dekan FMIPA USU, seluruh Staf dan Dosen Matematika FMIPA USU, Pegawai FMIPA USU dan rekan-rekan kuliah khususnya Matematika 2009. Penulis mengucapkan terimakasih yang teristimewa kepada kedua orang tua tercinta Bapak N. Sembiring dan Ibu R. Br. Ginting beserta keluarga atas dukungan doa, dukungan moril dan materil, yang menjadi motivasi bagi penulis dalam penulisan skripsi ini. Tuhan yang membalas atas segala bantuan yang telah diberikan kepada penulis.


(6)

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA

PENCILAN DENGAN SIMULASI DATA

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penduga parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat model kelompok data dengan letak pencilan berbeda-beda dengan lima kali perulangan setiap modelnya. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitu penduga least trimmed squares (LTS) dan penduga-S. Pada pencilan yang terletak di tengah garis regresi regresi robust penduga-LTS memberikan hasil yang lebih baik dari pada penduga-S, sebaliknya penduga-S lebih baik pada pencilan yang berada di ujung. Kriteria pembandingannya menggunakan rata-rata kuadrat sisa.

Kata kunci: Pencilan, Metode Kuadrat Terkecil, Regresi Robust, Least Trimmed Squares, Penduga-S.


(7)

THE COMPARISON OF ROBUST REGRESSION LEAST TRIMMED SQUARES AND S-ESTIMATORS OVERCOMING OUTLIERS

WITH SIMULATION OF DATA

ABSTRACT

Regression analysis was used to determine the relationship between variables. One of method parameter estimator in the regression model is ordinary least squares (OLS). In this study used four groups of data models with different outlier layout with five repetitions of each model. Then, this paper aims to compare the two methods, namely robust regression of least trimmed squares (LTS) and S-estimators. In the outliers are located amid robust regression line regression LTS-estimators provides better results than the S-LTS-estimators, otherwise S-LTS-estimators is better at outliers are located end. The comparison criteria using the average squared residual.

Keywords: Outliers, Ordinary Least Squares, Robust Regression, Least Trimmed of Squares, S-estimators.


(8)

DAFTAR ISI

Halaman

PERSETUJUAN i

PERNYATAAN ii

PENGHARGAAN iii

ABSTRAK iv

ABSTRACT v

DAFTAR ISI vi

DAFTAR TABEL viii

DAFTAR GAMBAR x

DAFTAR LAMPIRAN xi

BAB 1 Pendahuluan 1

1.1. Latar Belakang 1

1.2. Perumusan Masalah 2

1.3. Pembatasan Masalah 2

1.4. Tinjauan Pustaka 3

1.5. Tujuan Peneletian 4

1.6. Kontribusi Peneletian 4

1.7. Metodologi Peneletian 4

BAB 2 Landasan Teori 6

2.1. Regresi Linier 6

2.2. Metode Kuadrat Terkecil 7

2.3. Rataan Kuadrat Sisa (Mean Square Error) 8

2.4. Pencilan 9

2.4.1. Pengertian Pencilan 9

2.4.2. Dampak Pencilan 9

2.4.3. Pendeteksian Pencilan 10

2.5. Regresi Robust 12

2.5.1. Regresi Robust Penduga-S 13

2.5.2. Regresi Robust Penduga Least Trimmed Square (LTS)

17

BAB 3 Pembahasan 18

3.1. Data 18

3.2. Pendeteksian Pencilan/ Outlier 21

3.3. Metode Kuadrat Terkecil 24

3.4. Regresi Robust Penduga Least Trimmed Square

(LTS) 27

3.4.1. Rataan Kuadrat Sisa (Mean Square Error)

untuk Penduga-LTS 31


(9)

3.5.1. Rataan Kuadrat Sisa (Mean Square Error)

untuk Penduga-S 43

BAB 4 Kesimpulan dan Saran 50

4.1. Kesimpulan 50

4.2. Saran 50

FTAR PUSTAKA 51


(10)

DAFTAR TABEL

Nomor Judul Halaman

Tabel

2.1 Fungsi Objektif, Fungsi Influence dan Fungsi Pembobot

untuk Least Square, Huber, dan Tukey Bisquare 16

3.1 Data 1 19

3.2 Data 2 19

3.3 Data 3 20

3.4 Data 4 20

3.5 Nilai DfFITSdan |DfFITS| 23

3.6 Perkalian Variabel Bebas dan Variabel Terikat untuk

Data 1 25

3.7 Sisaan Kuadrat Semua Data dengan Metode Kuadrat

Terkecil 26

3.8 Sisaaan Kuadrat yang Diurutkan 28

3.9 Data yang Terbentuk dari Sisaan Kuadrat Sudah Diurutkan

29 3.10 Perkalian Variabel untuk Data 1 dengan Penduga-LTS 30 3.11 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-LTS untuk Data 1 31

3.12 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-LTS untuk Data 2 32

3.13 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-LTS untuk Data 3 34

3.14 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-LTS untuk Data 4 35

3.15 Hasil Perhitungan Koefisien Regresi Iterasi ke-1 37 3.16 Hasil Perhitungan Koefisien Regresi Iterasi ke-2 37

3.17 Nilai Koefisien Regresi Penduga-M 38

3.18 Sisaan dari Persamaan Penduga-M 39

3.19 Hasil Perhitungan Koefisien Regresi Iterasi ke-1 40 3.20 Hasil Perhitungan Koefisien Regresi Iterasi ke-2 41

3.21 Nilai Koefisien Regresi Penduga-S 42

3.22 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-S untuk Data 1 43

3.23 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-S untuk Data 2 44

3.24 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-S untuk Data 3 45

3.25 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total

Menggunakan Penduga-S untuk Data 4 47

3.26 Hasil Estimasi Koefisien Regresi dan Rata-rata Kuadrat


(11)

3.27 Hasil Estimasi Koefisien Regresi dan Rata-rata Kuadrat


(12)

DAFTAR GAMBAR

Nomor Judul Halaman

Gambar

2.1 ma Identifikasi Data Pencilan dengan IQR atau Box Plot

11 2.2 Kriteria Pengambilan Keputusan Adanya Pencilan atau

Tidak 12

3.1 Scatterplot Data 1 21

3.2 Scatterplot Data 1 22

3.3 Scatterplot Data 1 22


(13)

DAFTAR LAMPIRAN

Nomor Judul Halaman

Lampiran

1 mbangkitkan Data dengan Program R 53

2 amaan dengan Metode Kuadrat Terkecil dan Mendeteksi

Pencilan dengan MINITAB 53

3 amaan Penduga-LTS dengan Metode Kuadrat Terkecil 54 4 gram Macro MINITAB Regresi Robust dengan Pembobot

Fungsi Huber (dengan r=1) 55

5 il Output Program macro MINITAB Data 1, Data 2, Data 3

dan Data 4 56

6 amaan Penduga-S Data 1, Data 2, Data 3 dan Data 4 dengan R

70


(14)

PERBANDINGAN METODE LEAST TRIMMED SQUARES DAN PENDUGA-S DALAM MENGATASI DATA

PENCILAN DENGAN SIMULASI DATA

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penduga parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat model kelompok data dengan letak pencilan berbeda-beda dengan lima kali perulangan setiap modelnya. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitu penduga least trimmed squares (LTS) dan penduga-S. Pada pencilan yang terletak di tengah garis regresi regresi robust penduga-LTS memberikan hasil yang lebih baik dari pada penduga-S, sebaliknya penduga-S lebih baik pada pencilan yang berada di ujung. Kriteria pembandingannya menggunakan rata-rata kuadrat sisa.

Kata kunci: Pencilan, Metode Kuadrat Terkecil, Regresi Robust, Least Trimmed Squares, Penduga-S.


(15)

THE COMPARISON OF ROBUST REGRESSION LEAST TRIMMED SQUARES AND S-ESTIMATORS OVERCOMING OUTLIERS

WITH SIMULATION OF DATA

ABSTRACT

Regression analysis was used to determine the relationship between variables. One of method parameter estimator in the regression model is ordinary least squares (OLS). In this study used four groups of data models with different outlier layout with five repetitions of each model. Then, this paper aims to compare the two methods, namely robust regression of least trimmed squares (LTS) and S-estimators. In the outliers are located amid robust regression line regression LTS-estimators provides better results than the S-LTS-estimators, otherwise S-LTS-estimators is better at outliers are located end. The comparison criteria using the average squared residual.

Keywords: Outliers, Ordinary Least Squares, Robust Regression, Least Trimmed of Squares, S-estimators.


(16)

BAB I

PENDAHULUAN

1.1 Latar Belakang

Analisis Regresi adalah metode statistika yang digunakan untuk mengetahui hubungan antara variabel terikat (dependen, respon, �) dengan satu atau lebih variabel bebas (independen, prediktor, �). Apabila banyaknya variabel bebas hanya ada satu maka disebut regresi linier sederhana, sedangkan apabila terdapat lebih dari satu variabel bebas maka disebut sebagai regresi linier berganda.

Salah satu metode penduga parameter dalam regresi linier yang sering digunakan adalah metode kuadrat terkecil (MKT) atau ordinary least squares (OLS). Penggunaan metode ini membutuhkan beberapa asumsi klasik yang harus dipenuhi untuk menghasilkan penduga linier tidak bias terbaik atau best linier unbiased estimator. Menurut Cahyawati dkk (2009) salah satu penyebab tidak terpenuhinya asumsi klasik tersebut adalah adanya pencilan (outlier) pada data amatan.

Metode kuadrat terkecil tidak dapat digunakan jika asumsinya tidak terpenuhi oleh karena itu selanjutnya diperlukan alternatif metode penduga parameter lain yang dapat mengatasi adanya pencilan dalam data amatan. Metode Robust dapat menjadi alternatif pilihan untuk menghasilkan model yang lebih baik dari hasil metode kuadrat terkecil berdasarkan kriteria mean square error (MSE) bagi masing-masing model.

Menurut Chen (2002) regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan. Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil terhadap adanya pencilan. Regresi robust terdiri dari 5 metode penduga, yaitu penduga-M, penduga-least


(17)

median of square (LMS), penduga least trimmed squares (LTS), penduga-S dan penduga-MM. Dari ke-5 metode di atas, Penulis akan berfokus pada metode estimasi parameter dengan menggunakan metode penduga robust least trimmed square (LTS) dan penduga-S, di mana kedua metode ini memiliki nilai breakdown point yang tinggi yaitu hampir 50% (Rousseeuw, 1987).

Berdasarkan uraian di atas maka penulis memilih judul tugas akhir

“Perbandingan Metode Least Trimmed Squares dan Penduga-S dalam Mengatasi Data Pencilan dengan Simulasi Data”.

1.2 Perumusan Masalah

Perumusan masalah yang akan diteliti dalam tulisan ini adalah bagaimana perbandingan dua regresi robust yakni metode penduga least trimmed squares (LTS) dan penduga-S dapat mengatasi data pencilan berdasarkan letak pencilan yang dibandingkan dengan suatu simulasi dalam empat posisi yakni di ujung bawah, ujung atas, tengah atas dan tengah bawah dalam model garis regresi sederhana.

1.3 Pembatasan Masalah

Agar pembatasan masalah lebih jelas, maka penulis memberikan batasan yang akan dilakukan yaitu:

1. Simulasi data yang diambil penulis adalah 4 model data bangkitan dari program R yang terdiri dari 20 observasi dengan ketentuan letak pencilan pada garis regresi yang berbeda-beda setiap model data.

2. Penulis menggunakan regresi robust dalam mengatasi data pencilan yaitu dengan metode penduga least trimmed squares (LTS) dan penduga-S.


(18)

1.4 Tinjuan Pustaka

Analisis regresi digunakan untuk mengetahui hubungan antara variabel terikat (�) dengan satu atau lebih variabel bebas (�). Model regresi linier yang memuat satu variabel terikat (�) dan satu variabel bebas (�) adalah model regresi linier sederhana.

Metode kuadrat terkecil (MKT) atau ordinary least squares (OLS) merupakan salah satu penduga parameter model regresi linier sederhana. Metode kuadrat terkecil membutuhkan asumsi klasik yang harus dipenuhi untuk menghasilkan penduga linier tidak bias terbaik atau bestlinier unbiased estimator. Adapun asumsi klasik yang harus dipenuhi adalah homokedastisitas, nonautokorelasi, nonmultikorelasi, distribusi kesalahan normal dengan rata-rata sama dengan nol, dan variabel nonstokastik (Hasan, 1999). Metode kuadrat terkecil merupakan metode yang meminimumkan jumlah kuadrat sisa (selisih antara data yang sebenarnya dengan data dugaan dari model regresi yang terbentuk, yang dinyatakan sebagai berikut (Sembiring, 1995):

��� − �� =∑��=1��2 1.1

Pencilan (Outlier) adalah data yang tidak mengikuti pola umum (Sembiring, 1995, hal. 72). Jika dalam data amatan ditemukan suatu pencilan, maka alternatif penolakan begitu saja bukanlah prosedur yang bijaksana. Ada kalanya pencilan memberikan informasi yang tidak bisa diberikan oleh titik data lainnya (Drafer dan Smith, 1992). Menurut Soemartini (2007), pencilan dapat dideteksi menggunakan beberapa metode yakni metode Grafis, Boxplot, Internal studenzation (residu yang distudentkan), berdasarkan nilai Leverage, DfFITS, Cook’s Distance, dan DfBETA(s). Metode yang akan dipakai penulis untuk mendeteksi pencilan yaitu metode Scatterplot dan metode berdasarkan nilai DfFITS.

Regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan. Regresi robust digunakan untuk mendeteksi


(19)

pencilan dan memberikan hasil terhadap adanya pencilan (Chen, 2002). Metode regresi robust yang diketahui tahan terhadap pencilan terus berkembang dan banyak digunakan dalam meneliti berbagai permalasahan, seperti: pengoptimalan kekuatan torque pada lampu TL yaitu menggunakan metode penduga parameter LTS, dengan alasan terdapat pencilan pada data kekuatan torque (Akbar dan Maftukhah, 2007) dan penelitian pada estimasi parameter produksi jagung di Indonesia tahun 2010 dengan metode penduga-S (Sahari R. J., 2012 ).

1.5 Tujuan Penelitian

Tujuan penelitian ini adalah untuk membandingkan regresi robust metode penduga least trimmed squares (LTS) dan penduga-S dalam melakukan pendugaan parameter model regresi sehingga didapatkan pendugaan yang terbaik berdasarkan rataan kuadrat sisa (mean square error).

1.6 Kontribusi Penelitian

Manfaat yang diperoleh dari penelitian ini adalah sebagai bahan referensi dalam hal pendugaan parameter model regresi yang memiliki pencilan.

1.7 Metodologi Penelitian

Adapun metodologi penelitian dalam tulisan ini adalah sebagai berikut: 1. Membangkitkan data dengan program R.

2. Melakukan pendugaan parameter regresi dengan metode kuadrat terkecil. 3. Melakukan pendeteksian pencilan pada data amatan dengan metode

scatterplot dan berdasarkan nilai DfFITS.

4. Mengatasi pencilan dengan menggunakan dua metode regresi robust yakni penduga least trimmed squares (LTS) dan penduga-S.


(20)

5. Mengolah data menggunakan bantuan program Macro MINITAB.

6. Membandingkan hasil penyelesaian dan pengolahan data dari kedua metode. 7. Membuat kesimpulan.


(21)

BAB 2

LANDASAN TEORI

2.1 Regresi Linier

Analisis regresi digunakan untuk mengetahui hubungan antara variabel terikat (Y) dengan satu atau lebih variabel bebas (X). Menurut Hair et al (2009) regresi linear sederhana dapat efektif dengan ukuran sampel sebanyak 20 observasi. Menurut

Nawari (2010), model regresi linier untuk satu variabel bebas yaitu model regresi

linier sederhana, dinyatakan dalam persamaan berikut:

�� =�0+�1��+ �� 2.1

Keterangan: i = 1, 2, ...,

Yi = variabel terikat Xi = variabel bebas �0, �1 = parameter regresi

�� = sisaan/galat

Nilai �0 dan �1 adalah parameter regresi yang tidak diketahui nilainya dan akan dicari nilai estimasinya.

Model penduga regresi linier sederhana untuk persamaan 2.1 adalah sebagai berikut:

��� =�̂0+�̂1�� 2.2

Keterangan:

��� = nilai ��yang diestimasi �̂0, �̂1 = penduga parameter


(22)

2.2 Metode Kuadrat Terkecil

Metode kuadrat terkecil merupakan salah satu penduga parameter (nilai �̂0,�̂1) model regresi linier sederhana. Menurut Sembiring (1995), metode kuadrat terkecil merupakan metode yang meminimumkan jumlah kuadrat sisa (selisih antara data yang sebenarnya dengan data dugaan dari model regresi yang terbentuk). Dari persamaan regresi linier sederhana 2.1, nilai residu (sisaan) ke-i pada model yaitu:

�� =� − �� 2.3

�� =�� −( �̂0+�̂1��) 2.4

Prinsip dasar metode kuadrat terkecil adalah meminimumkan jumlah kuadrat sisaan yang dinyatakan sebagai berikut:

Minimum ∑�=1 2 2.5

∑��=1 ��2 = ∑ ��� − ����

2

� �=1

= ∑ ��=1 −( �̂0+�̂1�� )�2

∑��=1 ��2 = ∑ ��� − �̂0− �̂1�� � 2

�=1 2.6

Keterangan:

�� = data sebenarnya ��� = data dugaan

�̂0,�̂1 = penduga parameter

��2 = sisaan kuadrat

Andaikan ∑�=1 2 dinotasikan dengan �, � merupakan fungsi dari nilai �̂0 dan �̂1 sehingga nilai-nilai � dapat ditentukan dengan menurunkan persamaan (2.6) terhadap �̂0 dan �̂1 kemudian menyamakan tiap turunannya dengan nol, diperolehlah nilai sebagai berikut:

� =∑�=1�2= ∑ ���=1 − �̂0− �̂1�2


(23)

��

���0= 0−2∑��=1�� −0 + 2∑ ��̂�=1 0+�̂1���= 0

��

���0= − ∑��=1�� +∑ ��̂��=1 0+�̂1���= 0

∑��=1�� =��̂0+ �̂1∑�=1�� 2.7

dan ��

���1= 0−0−2∑��=1���� + 2∑ ��̂�=1 0+�̂1����� = 0

��

���1= − ∑��=1����+∑ ��̂��=1 0+�̂1����� = 0

∑��=1���� = �̂0∑�=1��+�̂1∑�=1�2 2.8

Dari persamaan 2.7 maka akan dicari nilai �̂0 sebagai berikut: ∑��=1�� =��̂0+ �̂1∑�=1��

�̂0 =

∑��=1��− �̂1∑��=1��

�̂0 = �� − �̂1�� 2.9

Selanjutnya, dari persamaan 2.8, akan dicari nilai �̂1 sebagai berikut: ∑��=1���� = �̂0∑�=1��+�̂1∑�=1�2

=�∑��=1��−��1∑��=1��

� � ∑��=1�� +�̂1∑�=1�2

= ∑��=1��∑��=1��

� −

��1�∑�=1�� 2

� +�̂1∑�=1�2

∑��=1����

∑��=1��∑��=1��

� = −

��1�∑��=1���

2

� +�̂1∑ ��

2

� �=1 =�̂1�−1

�(∑��=1��)2+∑��=1��2�

maka diperolehlah �̂1yaitu: �̂1 =

∑��=1����−

∑�=1�� ∑=1��

∑� �2

�=1 − 1

��∑��=1���

2 2.10

2.3 Rataan Kuadrat Sisa (Mean Square Error)

Menurut Sembiring (1995), salah satu untuk menentukan kecocokan model dengan rataan kuadrat sisa �2, jika semakin kecil rataan kuadrat sisanya maka


(24)

semakin baik modelnya. Ukuran ini memperhitungkan banyaknya parameter dalam model melalui pembagian dengan derajat kebebasannya. Untuk menentukan rataan kuadrat sisa dinyatakan dalam rumus sebagai berikut:

�2 = ���

�−� =

��� −���

�−� 2.11

Keterangan:

JKS = Jumlah Kuadrat Sisa

JKT = Jumlah Kuadrat Total = ∑(� − ��)2

JKR = Jumlah Kuadrat Regresi = ∑(�� − ��)2

� = Banyaknya sampel � = Banyaknya parameter �� = Data sebenarnya ��� = Data dugaan

�� = Rataan data sebenarnya

2.4 Pencilan

2.4.1 Pengertian Pencilan

Menurut Sembiring (1995), secara umum pencilan ialah data yang tidak mengikuti pola umum model.

2.4.2 Dampak Pencilan

Menurut Soemartini (2007), keberadaan data pencilan akan mengganggu dalam proses analisis data dan harus dihindari dalam banyak hal. Salah satu penyebab tidak terpenuhi asumsi kenormalan galat adalah pencilan (Gujarati, 1991). Dalam kaitannya dengan analisis regresi, pencilan dapat menyebabkan hal-hal berikut: 1. Residual yang besar dari model yang terbentuk

2. Varians pada data tersebut menjadi lebih besar 3. Taksiran interval memiliki rentang yang lebar


(25)

2.4.3 Pendeteksian Pencilan

Menurut Soemartini (2007) beberapa metode dan nilai yang dapat digunakan untuk mendeteksi ada atau tidak adanya pencilan ialah sebagai berikut:

1. Metode Grafik

Metode grafik merupakan salah satu cara pendeteksian pencilan yang mudah dipahami karena menampilkan data secara grafis (gambar) tanpa melibatkan perhitungan yang rumit. Namun, kelemahan metode ini yaitu yang menentukan data tersebut sebagai pencilan atau tidak tergantung pada kebijakan (judgement) peneliti, karena metode ini hanya mengandalkan visualisasi gambar. Pendeteksian pencilan dengan metode grafik di antaranya ialah:

a. Diagram Pencar (Scatter Plot)

Metode ini dilakukan dengan cara memplot data dengan observasi ke-� (� = 1, 2, …, �). Selain itu, setelah diperoleh model regresi maka dapat dilakukan dengan cara memplot antara residual (�) dengan nilai prediksi Y (��). Jika terdapat satu atau beberapa data yang terletak jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya pencilan.

b. Boxplot

Metode boxplot merupakan metode yang paling umum yaitu dengan menggunakan nilai kuartil dan jangkauan. Jangkauan (IQR, Interquartile Range) didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3, atau IQR = ��− ��. Pendeteksian pencilan dapat ditentukan jika nilai yang kurang dari 1,5*IQR terhadap kuartil 1 dan nilai yang lebih dari 1,5*IQR terhadap kuartil 3.


(26)

Gambar 2.1 Skema Identifikasi Data Pencilan dengan IQR atau Box Plot

2. Leverage Values, DFFITS, Cook’s Distance, dan DfBETA(s)

Cara mendeteksi pencilan dapat juga dengan menentukan nilai Leverage, DFFITS, Cook’s Distance, dan DfBETA(s). Definisi dari masing-masing nilai tersebut ialah sebagai berikut:

a. Leverage Values; menampilkan nilai leverage (pengaruh)terpusat.

b. DFFITS atau Standardized DfFIT; menampilkan nilai perubahan dalam harga yang diprediksi bilamana case tertentu dikeluarkan dan sudah distandarkan.

c. Cook’s Distance; menampilkan nilai jarak Cook.

d. DfBETA(s); menampilkan nilai perubahan koefisien regresi sebagai hasil perubahan yang disebabkan oleh pengeluaran case tertentu. Digunakan untuk mendeteksi pencilan pada variabel bebas.


(27)

Ketentuan dalam pendeteksian pencilan dengan nilai-nilai tersebut adalah:

Gambar 2.2 Kriteria Pengambilan Keputusan Adanya Pencilan atau Tidak

Keterangan:

n = jumlah observasi (sampel). p = jumlah parameter.

2.5 Regresi Robust

Menurut Drafer dan Smith (1981), penolakan begitu saja suatu pencilan bukanlah prosedur yang bijaksana, adakalanya pencilan memberikan informasi yang tidak bisa diberikan oleh titik data lainnya. Metode kuadrat terkecil (MKT) merupakan metode yang baik untuk menduga � pada model regresi linier. Tetapi jika dalam penelitian diketahui terdapat pengamatan yang merupakan pencilan, maka penggunaan MKT akan menghasilkan kesimpulan yang tidak sempurna. Sebagai alternatif digunakan regresi robust.

Secara umum robust memiliki arti kekar. Regresi robust merupakan alat yang penting untuk menganalisis data yang terkontaminasi oleh pencilan dan memberikan hasil yang lebih fleksibel. Regresi robust tetap menggunakan seluruh data, tetapi dengan memberikan bobot yang kecil untuk data pencilan(Soemartini, 2007: 12). Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil terhadap adanya pencilan (Chen, 2002).

���� ⎩ ⎪ ⎪ ⎨ ⎪ ⎪

⎧ �.�������� >(�� − �)

� �.������ > 2∗ ���� ��

��

�.����′��>�(�.�;�,� − �)

�.������(�) > �

����(�) ⎭

⎪ ⎪ ⎬ ⎪ ⎪ ⎫


(28)

2.5.1 Regresi Robust Penduga-S

Penduga-S (Scale) pertama kali diperkenalkan oleh Rousseeuw dan Yohai (1984) di mana metode ini merupakan keluarga high breakdown point yaitu ukuran umum proporsi dari data pencilan yang dapat ditangani sebelum pengamatan tersebut mempengaruhi model prediksi. Disebut penduga-S karena mengestimasi berdasarkan skala. Skala yang digunakan adalah simpangan baku sisaan.

Pendugaan koefisien regresi pada model regresi linier dengan MKT dilandasi pada peubah �� = � − �� pada persamaan:

∑�=1���� = 0 2.12

Bentuk yang lebih umum dari pendugaan parameter pada model regresi adalah pemecahan terhadap:

∑�=1�(��)�� = 0 2.13

Di mana

�� = ���� 2.14

Dengan S didefinisikan sebagai:

�� =������|��|, �= 1, 2, . . . ,� 2.15 Di mana � adalah sisaan yang diperoleh dari MKT.

Penyelesaian koefisien regresi pada persamaan 2.13 disebut dengan penduga-M dan dapat diselesaikan dengan MKT terboboti berikut:

β * = (X’WX)-1

X’WY

di mana W (matriks diagonal ���) = diagonal utama [�1,�2, … ,��], ��

merupakan pembobot pengamatan ke-� (Myers, 1990). Jika �� =�(��)

�� maka persamaan 2.13 menjadi:


(29)

Tahapan iterasi dalam penaksiran koefisien regresi (Winahju, 2010) adalah:

1. Dihitung penaksir β, dinotasikan b menggunakan least square, sehingga didapatkan yˆi,0 dan εi,0 = yiyˆi,0, (i = 1, 2, ... n) yang diperlakukan sebagai

nilai awal (yi adalah hasil eksperimen).

2. Dari nilai-nilai residual ini dihitung σˆ0, dan pembobot awal wi,0 = ) ( ) ( * 0 , * 0 , i i ε ε ψ .

Nilai ψ(εi*) dihitung sesuai fungsi Huber, dan εi,0* = εi,0 /σˆ0.

3. Disusun matrik pembobot berupa matrik diagonal dengan elemen w1,0 ,w2,0 , . . . , wn,0 , dinamai W0.

4. Dihitung penaksir koefisien regresi: bRobust ke 1 = (XT W0 X)-1 XT W0 Y

5. Dengan menggunakan bRobust ke 1 dihitung pula

= − n i i i y y 1 1 , | ˆ

| atau

= n i i 1 1 . |

|ε . 6. Selanjutnya langkah 2 sampai dengan 5 diulang sampai didapatkan

= n i m i 1 . | |ε

konvergen. Nilai

= n i m i 1 . |

|ε yang konvergen adalah selisih antara ��+1 dan �� mendekati 0; � = banyak iterasi.

Persamaan 2.15 menunjukkan bahwa penduga-M hanya menggunakan median pada pembentukan nilai pembobot. Kelemahan median adalah kurangnya pertimbangan pada pola sebaran data dan bukan merupakan fungsi dari keseluruhan data. Rousseeuw dan Yohai (1984) memperkenalkan penduga-S yang merupakan pengembangan dari penduga-M. Penduga-S menggunakan simpangan baku sisaan untuk mengatasi kelemahan dari median. Menurut Salibian dan Yohai (2006) penduga-S (�̂) dinyatakan dalam bentuk rumus sebagai berikut:

�̂� = min∑��=1� ���

atau

�̂� = min∑��=1� ���−������ 2.17

Penyelesaian persamaan 2.17 adalah dengan cara menurunkannya terhadap � sehingga,


(30)

����

�� =∑��=1�����

��

���= 0 2.18

� disebut fungsi pengaruh yang merupakan turunan dari �, sedangkan � didefinisikan sebagai:

�� = �� ∑ (���)2−�∑��=1���� 2

� �=1

�(�−1) 2.19

Di mana �� adalah sisaan yang diperoleh melalui penduga-M. Persamaan 2.18 dapat diselesaikan melalui MKT terboboti secara iterasi yang disebut Iteratively Reweighted Least Squares (Iterasi kuadrat terkecil terboboti kembali). Sisaan awal yang digunakan pada penduga-S adalah sisaan yang diperoleh dari penduga-M. Selanjutnya dikatakan bahwa Iterasi kuadrat terkecil terboboti kembali merupakan proses pendugaan melalui metode kuadrat terkecil terboboti dilanjutkan dengan menghitung sisaan dan pembobot �(�) yang baru dan dilakukan pendugaan secara berulang-ulang sampai konvergen. Kekonvergen tercapai jika perubahan jumlah mutlak sisaan, ∑�=1|�:�| dari iterasi terakhir ke

iterasi berikutnya kurang dari 0,01 (Salibian dan Yohai, 2006).

Fungsi � pada persamaan 2.17 disebut fungsi kriteria � disarankan memakai fungsi obyektif berikut (Tukey, 1977, dalam Chen, 2002):

�(ui) =�

c2[1−�1−(u i

c) 23]

6 , |��|≤c c2

6, |��| > c

2.20

dengan fungsi pengaruh: �(��) =�′(��) =���(1−(

ui

c)

2)2, |

�|≤ c

0, |�| > c

Oleh karena � = �(��)

(�) , sehingga:

�� =�[1−(

ui

c)

2]2, |

�|≤ c

0, |�| > c 2.21

Rousseeuw dan Leroy (1987) menyarankan nilai � = 1,547 agar mendapatkan nilai breakdown point 50%. Fungsi pengaruh atau penimbang ini disebut fungsi Tukey atau bisquare weight atau biweight. Selanjutnya diterangkan juga bahwa secara umum ide dalam biweight adalah bahwa sisaan yang kecil mendapatkan


(31)

bobot yang besar. Secara ringkas, fungsi obyektif dan pembobot dari estimator Least Square, Huber, dan Tukey Bisquare dapat dilihat pada Tabel 2.1.

Tabel 2.1 Fungsi Objektif, Fungsi Influence dan Fungsi Pembobot untuk Least Square, Huber, dan Tukey Bisquare

Metode Least

Square Huber Tukey Bisquare

Fungsi objektif 2 * * ) ( ) ( i

LS e = e

ρ      > − ≤ = r e untuk r e r r e untuk e e i i i i H | | , 2 / | | | | , 2 / ) ( ) ( * 2 * * 2 * *

ρ

( )

     > ≤       − − = r e untuk r r e untuk e i i r e k i * 2 * 3 2 6 * B 6 / 1 1 ) ( * 2 ρ Fungsi influence * * ) ( i

LS e =e

ψ

( )

      − < − > ≤ = r e untuk r r e untuk r r e untuk e e i i i i * * * * * H

ψ

( )

( )

     > ≤ − = r e untuk r e untuk e e i i r e i i * * 2 2 * * B 0 1 * ψ Fungsi

Pembobot ( ) 1

* = e

wLS

( )

    > ≤ = r e untuk e r r e untuk e w i i i * * * * H / 1

( )

( )

     > ≤ − = r e untuk r e untuk e w i i r ei * * 2 2 * B 0 1 *

Sumber: Fox (2002), Montgomery (1992)

Langkah-langkah menentukan regresi robust penduga-S (Salibian dan Yohai, 2006) adalah sebagai berikut:

a. Didapatkan vektor penduga awal �1,�2, … ,�� dari model regresi dengan

MKT didapatkan galat �0.

b. Dari sisaan awal dihitung �� sesuai persamaan (2.15) untuk mendapatkan �� berdasarkan persamaan (2.14).

c. Menghitung nilai � sesuai persamaan (2.21).

d. Dengan menggunakan MKT terboboti didapatkan penduga kuadrat terkecil terboboti:

β * = (X’WX)-1 X’WY

e. Menjadikan sisaan langkah (d) sebagai sisaan awal pada langkah (b), sehingga didapatkan nilai � dan pembobot � yang baru.

f. Iterasi diulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,���yang merupakan penduga-M sehingga didapatkan sisaan ���.


(32)

g. Dari sisaan yang diperoleh pada langkah (f), dihitung robust � sesuai persamaan(2.19) untuk mendapatkan nilai �� sesuai persamaan (2.14).

h. Menghitung nilai � sesuai persamaan (2.21).

i. Digunakan MKT terboboti untuk mendapatkan penduga kuadrat terkecil terboboti:

β * = (X’WX)-1 X’WY

j. Menjadikan sisaan yang diperoleh pada langkah (i) sebagai sisaan pada langkah (g), sehingga didapatkan nilai � dan pembobot � yang baru.

k. Iterasi ulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,��� yang merupakan penduga-S.

2.5.2 Regresi Robust Penduga Least Trimmed Squares (LTS)

Least Trimmed Squares (LTS) merupakan metode penduga regresi robust yang menggunakan konsep pengepasan metode kuadrat terkecil (ordinary least squares) untuk meminimumkan jumlah kuadrat sisaan (Akbar dan Maftukhah, 2007). Menurut Rousseeuw dan Leroy (1987), penduga LTS (�̂) dinyatakan dalam bentuk rumus sebagai berikut:

�̂��� = min∑ℎ=1(�2):� 2.22

Keterangan:

(�2)1: ≤ (�2)2: ≤ … ≤ (�2): = sisaan kuadrat yang diurutkan ℎ= �

2+

�+1 2 =

�+�+1 2

n = banyaknya sampel p = banyaknya parameter

Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi obyektif terkecil. Nilai h pada persamaan akan membangun breakdown point yang besar sebanding dengan 50%. Kuadrat sisa pada persamaan (2.22) berasal dari persamaan estimasi regresi linier menggunakan konsep metode kuadrat terkecil dengan banyaknya sisaan kuadrat (�2): yang akan diolah adalah sebanyak h residual.


(33)

BAB 3

PEMBAHASAN

3.1 Data

Data yang akan digunakan dalam bab ini yaitu 4 model data simulasi yang mengandung permasalahan pencilan di berbagai letak (ujung bawah, tengah bawah, ujung atas, tengah atas) pada garis regresi dengan bantuan software R, sintaxnya dapat dilihat di lampiran 1. Prosedur pembangkitan data simulasi adalah sebagai berikut:

1. Tentukan parameter �0 dan �1. Dalam kasus ini �0 = 0 dan �1 = 1. 2. Bangkitkan nilai � acak normal dengan nilai tengah 10 dan ragam 1. 3. Bangkitkan sisaan � acak normal dengan nilai tengah 0 dan ragam 1. 4. Tentukan nilai �= �� +�.

5. Tentukan nilai � dan � yang akan dijadikan data pencilan, dalam hal ini penulis mensimulasi data ke-5 setiap kelompok data sebagai pencilan.

6. Data dideteksi dengan metode scatterplot dan DfFITS.

7. Menentukan model regresi robust penduga-Least Trimmed Square dan penduga-S dengan bantuan R dan program Macro MINITAB.

8. Membandingkan model regresi robust penduga-Least Trimmed Square dan penduga-S berdasarkan nilai rataan kuadrat sisa.

9. Ulangi langkah 2-8 sebanyak 20 kali. 10. Membuat kesimpulan.

Berikut ini 4 model data simulasi dengan ketentuan model 1 letak pencilan berada di bagian ujung bawah garis regresi, model 2 letak pencilan berada di bagian tengah bawah garis regresi, model 3 letak pencilan berada di bagian ujung atas garis regresi, model 4 letak pencilan berada di tengah atas garis regresi. Model data 1, model data 2, model data 3 dan model data 4 berturut-turut dapat dilihat pada Tabel 3.1, Tabel 3.2, Tabel 3.3 dan Tabel 3.4.


(34)

Tabel 3.1 Data 1

Data ke- � �

1 11,8038 11,0423

2 8,1046 6,7440

3 8,0656 8,3468

4 10,4036 9,1351

5 8,5000 3,5000

6 11,7014 11,6395

7 10,2912 10,2815

8 10,5793 11,7110

9 9,2151 9,4347

10 11,8172 11,3707

11 10,6973 10,3699

12 9,9292 9,3904

13 10,0137 11,4476

14 9,9285 10,4417

15 10,7070 11,0885

16 9,6483 8,6174

17 9,9878 9,0197

18 9,6268 8,3214

19 10,3465 11,6652

20 8,1715 7,1458

Tabel 3.2 Data 2

Data ke- � �

1 11,0241 11,4980

2 10,2882 10,5252

3 11,7282 10,6744

4 12,5672 12,1090

5 11,0000 4,5000

6 9,9557 10,2858

7 10,2784 10,7365

8 10,4886 9,8091

9 8,7464 9,3495

10 9,7922 9,0131

11 11,8901 11,2485

12 11,0021 11,0305

13 8,4359 7,1680

14 9,0771 10,5344

15 9,8870 7,5402

16 10,5200 12,5262

17 11,3214 10,9116


(35)

Data ke- � �

19 10,9497 10,1612

20 8,5925 7,3656

Tabel 3.3 Data 3

Data ke- � �

1 9,5773 9,7371

2 9,3945 9,4338

3 7,9194 7,7132

4 10,1013 9,5401

5 11,0000 15,0000

6 10,7799 11,6411

7 10,2695 8,6576

8 9,4592 9,7154

9 9,4570 8,7120

10 9,4673 10,1323

11 9,8394 10,0377

12 11,5536 11,6654

13 9,4288 8,6048

14 9,9497 9,6230

15 10,7975 10,0127

16 10,0982 10,8020

17 11,0523 10,5382

18 10,1207 10,5308

19 8,9341 10,2095

20 9,9465 9,7970

Tabel 3.4 Data 4

Data ke- � �

1 9,5036 9,5427

2 8,9949 9,0709

3 9,7543 9,6939

4 10,4547 11,0912

5 9,0000 15,0000

6 11,8226 12,5695

7 10,1489 10,0318

8 9,0099 9,1426

9 10,4718 9,6921

10 8,3023 6,9711


(36)

Data ke- � �

12 9,6586 9,1162

13 9,0581 8,7251

14 9,4222 8,6212

15 9,9249 12,0854

16 9,0239 10,8013

17 10,5082 9,6814

18 11,0018 11,2574

19 8,4898 7,6267

20 8,8304 8,7640

3.2 Pendeteksian Pencilan/Outlier

Pendeteksian pencilan data dilakukan menggunakan metode Scatterplot dan dengan menentukan nilai |DFFITS|. Gambar dan tabel berikut merupakan hasil output dengan bantuan software MINITAB 16:

12 11

10 9

8 12 11 10 9 8 7 6 5 4 3

X

Y

Scatterplot of Y vs X


(37)

13 12

11 10

9 8

13 12 11 10 9 8 7 6 5 4

X

Y

Scatterplot of Y vs X

Gambar 3.2 Scatterplot Data 2

12 11

10 9

8 15

14

13

12

11

10

9

8

7

X

Y

Scatterplot of Y vs X


(38)

12 11

10 9

8 15 14 13 12 11 10 9 8 7 6

X

Y

Scatterplot of Y vs X

Gambar 3.4 Scatterplot Data 4

Gambar 3.1, Gambar 3.2, Gambar 3.3 dan Gambar 3.4 merupakan hasil scatter plot yang diperoleh dan dapat dilihat secara grafis bahwa semua gambar mengandung pencilan.

Tabel 3.5 Nilai DfFITS dan |DfFITS|

Data ke-

Data 1 Data 2 Data 3 Data 4

DfFITS |DfFITS| DfFITS |DfFITS| DfFITS |DfFITS| DfFITS |DfFITS| 1 -0,42048 0,42048 0,17744 0,17744 0,02065 0,02065 -0,03644 0,03644 2 -0,05859 0,05859 0,09868 0,09868 0,00282 0,00282 -0,04138 0,04138 3 0,63660 0,63660 -0,05958 0,05958 0,06485 0,06485 -0,04961 0,04961 4 -0,18911 0,18911 0,18695 0,18695 -0,15162 0,15162 0,07193 0,07193 5 -1,88523 1,88523 -1,55288 1,55288 2,15015 2,15015 1,98737 1,98737

6 -0,11964 0,11964 0,11026 0,11026 0,16266 0,16266 0,28192 0,28192 7 0,05427 0,05427 0,12817 0,12817 -0,42557 0,42557 -0,06612 0,06612 8 0,27084 0,27084 -0,01701 0,01701 0,05119 0,05119 -0,03075 0,03075 9 0,21119 0,21119 0,21866 0,21866 -0,19044 0,19044 -0,21767 0,21767 10 -0,29805 0,29805 -0,05497 0,05497 0,14877 0,14877 -0,50875 0,50875 11 -0,03821 0,03821 0,04553 0,04553 0,01520 0,01520 -0,07633 0,07633 12 -0,01340 0,01340 0,10480 0,10480 -0,20920 0,20920 -0,11773 0,11773 13 0,33985 0,33985 -0,36404 0,36404 -0,21255 0,21255 -0,11121 0,11121 14 0,17031 0,17031 0,39344 0,39344 -0,09459 0,09459 -0,16161 0,16161 15 0,11023 0,11023 -0,28745 0,28745 -0,348516 0,348516 0,28785 0,28785 16 -0,08205 0,08205 0,36184 0,36184 0,107059 0,107059 0,26882 0,26882 17 -0,09174 0,09174 0,05477 0,05477 -0,338656 0,338656 -0,23344 0,23344 18 -0,13150 0,13150 0,06307 0,06307 0,046323 0,046323 -0,00399 0,00399 19 0,30617 0,30617 -0,02228 0,02228 0,493653 0,493653 -0,31032 0,31032 20 0,06005 0,06005 -0,30967 0,30967 -0,058818 0,058818 -0,07585 0,07585


(39)

Berdasarkan kriteria dalam pendeteksian pencilan metode DfFITSbahwa yang merupakan pencilan adalah data yang memiliki nilai |DfFITS| lebih besar dari 2�� = 2�2

20= 0,632456. Dari Tabel 3.2 menunjukkan adanya pencilan pada

data ke-3 dan ke-5 (pada data 1), data ke-5 (pada data 2), data ke-5 (pada data 3), data ke-5 (pada data 4).

3.3 Metode Kuadrat Terkecil

Prinsip dasar metode kuadrat terkecil adalah untuk meminimumkan jumlah kuadrat sisaan dari model regresi yang terbentuk yaitu:

������� ∑�=1 2

Model regresi yang akan dibentuk yaitu regresi linier sederhana dengan persamaan sebagai berikut:

�� =�0+�1�1� + �� ; i = 1, 2, ...,N

Dengan model penduga regresinya adalah: ��� = �̂0+�̂1�1�

Tabel 3.6, Tabel 3.7, Tabel 3.8, dan Tabel 3.9 merupakan hasil perkalian antara variabel bebas dan variabel terikat untuk masing-masing data yaitu data 1, data 2, data 3, dan data 4. Dari hasil perhitungan yang diperoleh pada masing-masing tabel akan dihitung nilai penduga paramater �̂0 dan �̂1 untuk model penduga dengan metode kuadrat terkecil berdasarkan rumus pada (2.9) dan (2.10) yaitu:

�̂0 = �� − �̂1��

dan

�̂1 =

∑��=1���� − ∑ ��∑ �� � �=1

� �=1

� �−1[∑�=1]2+∑ �

�2 � �=1 �


(40)

Tabel 3.6 Perkalian Variabel Bebasdan Variabel Terikat untuk Data 1

Data ke- � � �� �2

1 11,8038 11,0423 130,342 139,330 2 8,1046 6,7440 54,657 65,684 3 8,0656 8,3468 67,322 65,054 4 10,4036 9,1351 95,038 108,235 5 8,5000 3,5000 29,750 72,250 6 11,7014 11,6395 136,199 136,923 7 10,2912 10,2815 105,809 105,909 8 10,5793 11,7110 123,895 111,922 9 9,2151 9,4347 86,942 84,918 10 11,8172 11,3707 134,369 139,646 11 10,6973 10,3699 110,930 114,433 12 9,9292 9,3904 93,239 98,589 13 10,0137 11,4476 114,633 100,274 14 9,9285 10,4417 103,670 98,575 15 10,7070 11,0885 118,724 114,639 16 9,6483 8,6174 83,144 93,090 17 9,9878 9,0197 90,087 99,756 18 9,6268 8,3214 80,109 92,676 19 10,3465 11,6652 120,695 107,051 20 8,1715 7,1458 58,392 66,773 Total 199,538 190,713 1937,940 2015,730 Rata-rata 9,977 9,536

Perhitungan �̂0 dan �̂1 sebagai berikut: �̂1 =

1937,940− �190,71320�199,538�

201 (199,538)2+ 2015,730

�̂1 =

1937,940−1902,724


(41)

�̂1 =

35,216 24,959

�̂1= 1,41

Substitusikan nilai �̂1 sehingga: �̂0 = 9,536−1,41(9,977)

�̂0= −4,55

Jadi, diperolehlah model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil yaitu:

��� =�̂0+�̂1�1�

��= −4,55 + 1,41�.

Penduga model metode kuadrat terkecil dapat diperoleh dari tampilan MINITAB 16 yang dapat dilihat di lampiran 2, yakni:

Data 1: ��=−4,55 + 1,41� Data 2: ��= 1,5 + 0,81�

Data 3: ��=− 1,97 + 1,21�

Data 4: ��= 0,46 + 0,98�

Tabel 3.7 Sisaan Kuadrat Semua Data dengan Metode Kuadrat Terkecil

Data ke-

Data 1 Data 2

� � �� �2 ��

�2

1 11,8038 11,0423 12,0934 1,1047 11,0241 11,4980 10,3744 1,2624

2 8,1046 6,7440 6,8774 0,0178 10,2882 10,5252 9,7820 0,5523

3 8,0656 8,3468 6,8225 2,3234 11,7282 10,6744 10,9412 0,0712

4 10,4036 9,1351 10,1191 0,9683 12,5672 12,1090 11,6166 0,2424

5 8,5000 3,5000 7,4350 15,4842 11,0000 4,5000 10,3550 34,2810

6 11,7014 11,6395 11,9490 0,0958 9,9557 10,2858 9,5144 0,5952

7 10,2912 10,2815 9,9606 0,1030 10,2784 10,7365 9,7741 0,9263

8 10,5793 11,7110 10,3669 1,8068 10,4886 9,8091 9,9434 0,0180

9 9,2151 9,4347 8,4433 0,9828 8,7464 9,3495 8,5408 0,6539

10 11,8172 11,3707 12,1122 0,5499 9,7922 9,0131 9,3827 0,1366

11 10,6973 10,3699 10,5333 0,0267 11,8901 11,2485 11,0715 0,0313

12 9,9292 9,3904 9,4501 0,0036 11,0021 11,0305 10,3567 0,4540

13 10,0137 11,4476 9,5693 3,5281 8,4359 7,1680 8,2909 1,2608

14 9,9285 10,4417 9,4492 0,9851 9,0771 10,5344 8,8071 2,9838


(42)

Data ke-

Data 1 Data 2

� � �� �2 ��

�2

16 9,6483 8,6174 9,0541 0,1907 10,5200 12,5262 9,9686 6,5412

17 9,9878 9,0197 9,5328 0,2633 11,3214 10,9116 10,6137 0,0887

18 9,6268 8,3214 9,0238 0,4934 9,9333 9,9338 9,4963 0,1914

19 10,3465 11,6652 10,0386 2,6458 10,9497 10,1612 10,3145 0,0235

20 8,1715 7,1458 6,9718 0,0303 8,5925 7,3656 8,4170 1,1054

Data ke-

Data 3 Data 4

� � �� �2 ��

�2

1 9,5773 9,7371 9,6186 0,0140 9,5036 9,5427 9,7926 0,0624

2 9,3945 9,4338 9,3973 0,0013 8,9949 9,0709 9,2930 0,0493

3 7,9194 7,7132 7,6125 0,0101 9,7543 9,6939 10,0387 0,1189

4 10,1013 9,5401 10,2526 0,5076 10,4547 11,0912 10,7265 0,1330

5 11,0000 15,0000 11,3400 13,3956 9,0000 15,0000 9,2980 32,5128

6 10,7799 11,6411 11,0736 0,3221 11,8226 12,5695 12,0698 0,2497

7 10,2695 8,6576 10,4561 3,2347 10,1489 10,0318 10,4262 0,1556

8 9,4592 9,7154 9,4756 0,0575 9,0099 9,1426 9,3077 0,0273

9 9,4570 8,7120 9,4729 0,5789 10,4718 9,6921 10,7434 1,1050

10 9,4673 10,1323 9,4854 0,4185 8,3023 6,9711 8,6129 2,6954

11 9,8394 10,0377 9,9357 0,0104 9,6177 9,3676 9,9046 0,2883

12 11,5536 11,6654 12,0098 0,1186 9,6586 9,1162 9,9447 0,6864

13 9,4288 8,6048 9,4388 0,6956 9,0581 8,7251 9,3550 0,3968

14 9,9497 9,6230 10,0692 0,1991 9,4222 8,6212 9,7126 1,1912

15 10,7975 10,0127 11,0950 1,1714 9,9249 12,0854 10,2063 3,5309

16 10,0982 10,8020 10,2488 0,3061 9,0239 10,8013 9,3215 2,1899

17 11,0523 10,5382 11,4033 0,7484 10,5082 9,6814 10,7791 1,2050

18 10,1207 10,5308 10,2760 0,0649 11,0018 11,2574 11,2638 0,0000

19 8,9341 10,2095 8,8403 1,8748 8,4898 7,6267 8,7970 1,3697

20 9,9465 9,7970 10,0652 0,0719 8,8304 8,7640 9,1315 0,1351

3.4 Regresi Robust Penduga Least Trimmed Squares (LTS)

Metode regresi robust merupakan metode yang digunakan untuk mengatasi permasalahan pencilan dan dikembangkan dengan tujuan untuk mendapatkan sifat robust (kuat) yang mampu mengenali dan mengatasi adanya pencilan. Metode penduga ini adalah metode pendugaan parameter regresi robust dengan menggunakan konsep pengepasan MKT untuk meminimumkan jumlah kuadrat

sisaan yaitu �������

= h i i r 1 2 .


(43)

Nilai sisaan kuadrat

= h i i r 1 2

akan diurutkan dari terkecil hingga terbesar

menjadi sebanyak h untuk mendapatkan model penduga dengan metode Least Trimmed Squares. Nilai h dapat dicari dengan rumus ℎ= ��

2+

(�+1 )

2 �=

[�+�+1] 2 ,

sehingga dengan jumlah n =20 maka diperolehlah nilai ℎ =20+2+1

2 = 11,5 ≈12. Tabel 3.8 Sisaaan Kuadrat yang Diurutkan

Tabel 3.9 Data yang Terbentuk dari Sisaan Kuadrat Sudah Diurutkan

Data ke-

Data 1 Data 2

� � ��2 � � ��2

1 9,9292 9,3904 0,003572 10,4886 9,8091 0,018034 2 8,1046 6,7440 0,017793 10,9497 10,1612 0,023518 3 10,6973 10,3699 0,026685 11,8901 11,2485 0,031333 4 8,1715 7,1458 0,030259 11,7282 10,6744 0,071208 5 11,7014 11,6395 0,095762 11,3214 10,9116 0,088738 6 10,2912 10,2815 0,102985 9,7922 9,0131 0,136584 Nomor

Urut

Data 1 Data 2 Data 3 Data 4

2

�2 ��2 ��2

1 0,0036 0,0180 0,0013 0,0000

2 0,0178 0,0235 0,0101 0,0273

3 0,0267 0,0313 0,0104 0,0493

4 0,0303 0,0712 0,0140 0,0624

5 0,0958 0,0887 0,0575 0,1189

6 0,1030 0,1366 0,0649 0,1330

7 0,1907 0,1914 0,0719 0,1351

8 0,2633 0,2424 0,1186 0,1556

9 0,2935 0,4540 0,1991 0,2497

10 0,4934 0,5523 0,3061 0,2883

11 0,5499 0,5952 0,3221 0,3968

12 0,9683 0,6539 0,4185 0,6864

13 0,9828 0,9263 0,5076 1,1050

14 0,9851 1,1054 0,5789 1,1912

15 1,1047 1,2608 0,6956 1,2050

16 1,8068 1,2624 0,7484 1,3697

17 2,3234 2,9838 1,1714 2,1899

18 2,6458 3,6819 1,8748 2,6954

19 3,5281 6,5412 3,2347 3,5309


(44)

Data ke-

Data 1 Data 2

� � ��2 � � ��2

7 9,6483 8,6174 0,190678 9,9333 9,9338 0,191369 8 9,9878 9,0197 0,263270 12,5672 12,1090 0,242420 9 10,7070 11,0885 0,293460 11,0021 11,0305 0,453979 10 9,6268 8,3214 0,493394 10,2882 10,5252 0,552328 11 11,8172 11,3707 0,549935 9,9557 10,2858 0,595183 12 10,4036 9,1351 0,968284 8,7464 9,3495 0,653899

Data ke-

Data 3 Data 4

� � ��2 � � ��2

1 9,3945 9,4338 0,001329 11,0018 11,2574 0,000040 2 7,9194 7,7132 0,010131 9,0099 9,1426 0,027275 3 9,8394 10,0377 0,010403 8,9949 9,0709 0,049321 4 9,5773 9,7371 0,014045 9,5036 9,5427 0,062425 5 9,4592 9,7154 0,057497 9,7543 9,6939 0,118885 6 10,1207 10,5308 0,064913 10,4547 11,0912 0,132996 7 9,9465 9,7970 0,071920 8,8304 8,7640 0,135068 8 11,5536 11,6654 0,118625 10,1489 10,0318 0,155575 9 9,9497 9,6230 0,199068 11,8226 12,5695 0,249747 10 10,0982 10,8020 0,306056 9,6177 9,3676 0,288349 11 10,7799 11,6411 0,322055 9,0581 8,7251 0,396758 12 9,4673 10,1323 0,418468 9,6586 9,1162 0,686410

Selanjutnya, data dengan nilai sisaan kuadrat yang telah diurutkan sebanyak h akan didapatkan penduga-LTS dengan metode kuadrat terkecil untuk masing-masing data sehingga dapat dihitung nilai �̂0 dan �̂1 sesuai dengan rumus pada (2.9) dan (2.10) yaitu:

�̂0 = �� − �̂1��

dan

�̂1 =

∑��=1���� − ∑ ��∑ �� � �=1

� �=1

� �−1[∑�=1]2+∑ �

�2 � �=1 �


(45)

Tabel 3.10 Perkalian Variabel untuk Data 1 dengan Penduga-LTS

Data ke- � � �� �2

1 9,9292 9,3904 93,239 98,589 2 8,1046 6,7440 54,657 65,684 3 10,6973 10,3699 110,930 114,433 4 8,1715 7,1458 58,392 66,773 5 11,7014 11,6395 136,199 136,923 6 10,2912 10,2815 105,809 105,909 7 9,6483 8,6174 83,144 93,090 8 9,9878 9,0197 90,087 99,756 9 10,7070 11,0885 118,724 114,639 10 9,6268 8,3214 80,109 92,676 11 11,8172 11,3707 134,369 139,646 12 10,4036 9,1351 95,038 108,235 Total 121,086 113,124 1160,700 1236,350 Rata-rata 10,0905 9,4270

Perhitungan nilai �̂0 dan �̂1 sebagai berikut: �̂1 =

1160,700−113,12412�121,086

121 (121,086)2+ 1236,350

�̂1 =

1160,700−1141,478

−1221,818 + 1236,350

�̂1 =

19,222 14,532

�̂1 = 1,32

dan

�̂0 = 9,4270−1,32(10,0905)

�̂0 = −3,92

Jadi, diperolehlah model penduga Least Trimmed Squares dengan metode kuadrat terkecilyaitu:

��� =�̂0+�̂1�1�


(46)

Selanjutnya data dengan nilai sisaan kuadrat yang telah diurutkan sebanyak h=12, diperoleh penduga dengan metode kuadrat terkecil melalui tampilan MINITAB 16 (Lampiran 3):

Data 1: ��=−3,92 + 1,32� Data 2: ��= 2,91 + 0,701�

Data 3: ��=− 1,25 + 1,15�

Data 4: ��=−2,63 + 1,27�

3.4.1 Rataan Kuadrat Sisa (Mean Square Error) untuk Penduga-LTS

Setelah diperoleh model untuk penduga-LTS, akan dihitung nilai rataan kuadrat sisa (Mean Square Error) dengan menggunakan rumus berikut:

�2 = ���

� − �

=��� − ���

� − �

Untuk mendapatkan nilai rata-rata kuadrat sisa, akan dihitung nilai jumlah kuadrat regresi dan jumlah kuadrat total dengan hasil perhitungan berikut:

Tabel 3.11 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 1

Data

ke- � � �� ��� − ���

2

(� − ��)2

1 11,8038 11,0423 11,6610 4,51718 2,2700

2 8,1046 6,7440 6,7780 7,60460 7,7932

3 8,0656 8,3468 6,7266 7,89086 1,4135

4 10,4036 9,1351 9,8128 0,07678 0,1605

5 8,5000 3,5000 7,3000 4,99818 36,4292

6 11,7014 11,6395 11,5258 3,96084 4,4262


(47)

Data

ke- � � �� ��� − ���

2

(� − ��)2

8 10,5793 11,7110 10,0447 0,25914 4,7322

9 9,2151 9,4347 8,2440 1,66850 0,0102

10 11,8172 11,3707 11,6787 4,59255 3,3672

11 10,6973 10,3699 10,2005 0,44201 0,6960

12 9,9292 9,3904 9,1865 0,12191 0,0211

13 10,0137 11,4476 9,2981 0,05645 3,6556

14 9,9285 10,4417 9,1856 0,12255 0,8208

15 10,7070 11,0885 10,2132 0,45904 2,4114

16 9,6483 8,6174 8,8158 0,51826 0,8431

17 9,9878 9,0197 9,2639 0,07385 0,2662

18 9,6268 8,3214 8,7874 0,55985 1,4744

19 10,3465 11,6652 9,7374 0,04071 4,5350

20 8,1715 7,1458 6,8664 7,12504 5,7116

Jumlah 45,1049 81,5936

Dari hasil perhitungan pada Tabel 3.11, maka nilai rata-rata kuadrat sisa adalah: �2 = 81,5936−45,1049

20−2 =36,4887

18

= 2,0272

Jadi, nilai rataan kuadrat sisa data 1 adalah 2,0272.

Tabel 3.12 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 2

Data

ke- � � �� ��� − ���

2

(� − ��)2

1 11,0241 11,4980 10,6379 0,62703 2,7289

2 10,2882 10,5252 10,1220 0,07617 0,4612


(48)

Data

ke- � � �� ��� − ���

2

(� − ��)2

4 12,5672 12,1090 11,7196 3,51039 5,1210

5 11,0000 4,5000 10,6210 0,60058 28,5800

6 9,9557 10,2858 9,8890 0,00184 0,1934

7 10,2784 10,7365 10,1151 0,07242 0,7930

8 10,4886 9,8091 10,2625 0,17348 0,0014

9 8,7464 9,3495 9,0412 0,64772 0,2466

10 9,7922 9,0131 9,7743 0,00514 0,6937

11 11,8901 11,2485 11,2449 1,95695 1,9670

12 11,0021 11,0305 10,6225 0,60288 1,4029

13 8,4359 7,1680 8,8236 1,04545 7,1717

14 9,0771 10,5344 9,2731 0,32830 0,4739

15 9,8870 7,5402 9,8408 0,00003 5,3169

16 10,5200 12,5262 10,2845 0,19230 7,1833

17 11,3214 10,9116 10,8463 1,00057 1,1355

18 9,9333 9,9338 9,8732 0,00074 0,0077

19 10,9497 10,1612 10,5858 0,54721 0,0993

20 8,5925 7,3656 8,9334 0,83298 6,1525

Jumlah 13,8746 70,4161

Dari hasil perhitungan pada Tabel 3.12, maka nilai rata-rata kuadrat sisa adalah: �2 = 70,4161−13,8746

20−2 =56,5415

18

= 3,1412


(49)

Tabel 3.13 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 3

Data

ke- � � �� ��� − ���

2

(� − ��)2

1 9,5773 9,7371 9,7639 0,11646 0,1355

2 9,3945 9,4338 9,5537 0,30419 0,4508

3 7,9194 7,7132 7,8574 5,05272 5,7217

4 10,1013 9,5401 10,3665 0,06830 0,3193

5 11,0000 15,0000 11,4000 1,67654 23,9592

6 10,7799 11,6411 11,1468 1,08502 2,3591

7 10,2695 8,6576 10,5600 0,20681 2,0955

8 9,4592 9,7154 9,6281 0,22764 0,1519

9 9,4570 8,7120 9,6255 0,23010 1,9409

10 9,4673 10,1323 9,6374 0,21886 0,0007

11 9,8394 10,0377 10,0653 0,00159 0,0046

12 11,5536 11,6654 12,0366 3,73037 2,4343

13 9,4288 8,6048 9,5931 0,26223 2,2511

14 9,9497 9,6230 10,1922 0,00757 0,2325

15 10,7975 10,0127 11,1672 1,12777 0,0086

16 10,0982 10,8020 10,3629 0,06640 0,4855

17 11,0523 10,5382 11,4602 1,83595 0,1875

18 10,1207 10,5308 10,3888 0,08042 0,1811

19 8,9341 10,2095 9,0242 1,16847 0,0109

20 9,9465 9,7970 10,1884 0,00693 0,0950

Jumlah 17,4743 43,0256

Dari hasil perhitungan pada Tabel 3.13, maka nilai rata-rata kuadrat sisa adalah: �2 = 43,0256−17,4743

20−2 =25,5513

18


(50)

Jadi, nilai rataan kuadrat sisa data 3 adalah 1,4195.

Tabel 3.14 Nilai Jumlah Kuadrat Regresi dan Jumlah Kuadrat Total Menggunakan Penduga-LTS untuk Data 4

Data

ke- � � �� ��� − ���

2

(� − ��)2

1 9,5036 9,5427 9,4396 0,25300 0,1599

2 8,9949 9,0709 8,7935 1,32042 0,7599

3 9,7543 9,6939 9,7580 0,03408 0,0618

4 10,4547 11,0912 10,6474 0,49675 1,3192

5 9,0000 15,0000 8,8000 1,30554 25,5773

6 11,8226 12,5695 12,3847 5,96374 6,9007

7 10,1489 10,0318 10,2591 0,10014 0,0079

8 9,0099 9,1426 8,8126 1,27698 0,6401

9 10,4718 9,6921 10,6692 0,52801 0,0627

10 8,3023 6,9711 7,9139 4,11546 8,8298

11 9,6177 9,3676 9,5845 0,12822 0,3306

12 9,6586 9,1162 9,6364 0,09377 0,6829

13 9,0581 8,7251 8,8737 1,14249 1,4823

14 9,4222 8,6212 9,3362 0,36772 1,7461

15 9,9249 12,0854 9,9747 0,00103 4,5914

16 9,0239 10,8013 8,8303 1,23711 0,7374

17 10,5082 9,6814 10,7154 0,59727 0,0682

18 11,0018 11,2574 11,3423 1,95913 1,7287

19 8,4898 7,6267 8,1521 3,20590 5,3635

20 8,8304 8,7640 8,5846 1,84407 1,3892

Jumlah 25,9708 62,4396

Dari hasil perhitungan pada Tabel 3.14, maka nilai rata-rata kuadrat sisa adalah: �2 = 62,4396−25,9708


(51)

=36,4688 18

= 2,0260

Jadi, nilai rataan kuadrat sisa data 4 adalah 2,0260.

3.5 Regresi Robust Penduga-S

Regresi robust penduga-S dapat diselesaikan melalui MKT terboboti secara iterasi yang disebut Iteratively Reweighted Least Squares (Iterasi kuadrat terkecil terboboti kembali) dengan sisaan awal yang diperoleh dari regresi robust penduga-M.

Proses perhitungan penduga koefisien regresi penduga-M dan pengolahan data 1 yang terdapat pada Tabel 3.1 dapat dilakukan dengan mengikuti prosedur sebagai berikut:

1. Menghitung koefisien regresi menggunakan metode kuadrat terkecil, didapatkan nilai b dan ε�,0.

2. Menghitung nilai ��0= 1,5 (median |ε�,0|) sehingga didapatkan nilai �,0 dan |�,0|.

3. Menentukan nilai ψ(εi*) dan pembobot wi,0 sesuai dengan fungsi Huber. Hasil perhitungan terdapat pada Tabel 3.15.

Prosedur berikutnya yaitu:

4. Melakukan perhitungan bRobust ke-1 sebagai penaksir weighted least square

dengan pembobot wi,0, diperolehlah koefisien bRobust ke 1 , ε�,1, ��1 = 1,5

(median |ε,1|), �,0, ψ(εi*) dan pembobot wi,1, serta nilai ∑ �����=1 ,1�.


(52)

Tabel 3.15 Hasil Perhitungan Koefisien Regresi Iterasi ke-1

� ε,0 |ε�,0| ��∗,0 |��∗,0 | ��,0=

ψ(�,0)

∗,0

-4,54687 1,05104 1,05104 0,97049 0,97049 1,0000 1,41151 0,13339 0,13339 0,12317 0,12317 1,0000 -1,52426 1,52426 -1,40745 1,40745 0,7105 0,98401 0,98401 0,90860 0,90860 1,0000 3,93500 3,93500 3,63344 3,63344 0,2752 0,30945 0,30945 0,28574 0,28574 1,0000 -0,32091 0,32091 -0,29632 0,29632 1,0000 -1,34416 1,34416 -1,24115 1,24115 0,8057 -0,99138 0,99138 -0,91541 0,91541 1,0000 0,74158 0,74158 0,68474 0,68474 1,0000 0,16336 0,16336 0,15084 0,15084 1,0000 0,05976 0,05976 0,05518 0,05518 1,0000 -1,87833 1,87833 -1,73438 1,73438 0,5766 -0,99251 0,99251 -0,91644 0,91644 1,0912 -0,54172 0,54172 -0,50020 0,50020 1,0000 0,43667 0,43667 0,40320 0,40320 1,0000 0,51310 0,51310 0,47378 0,47378 1,0000 0,70242 0,70242 0,64859 0,64859 1,0000 -1,62659 1,62659 -1,50193 1,50193 0,6658 -0,17395 0,17395 -0,16062 0,16062 1,0000

Tabel 3.16 Hasil Perhitungan Koefisien Regresi Iterasi ke-2

� ε�,1 |ε�,1| �∗,1 |��∗,1 | ��,1=

ψ(�,1)

∗,1

-2,75285 1,07199 1,07199 0,96404 0,96404 1,0000 1,23841 0,14876 0,14876 0,13378 0,13378 1,0000 -1,50895 1,50895 -1,35700 1,35700 0,7369 1,00285 1,00285 0,90187 0,90187 1,0000 3,95097 3,95097 3,55310 3,55310 0,2814 0,33025 0,33025 0,29700 0,29700 1,0000


(53)

� ε,1 |ε�,1| ��∗,1 |��∗,1 | ��,1=

ψ(�,1)

∗,1

-0,30224 0,30224 -0,27181 0,27181 1,0000 -1,32506 1,32506 -1,19162 1,19162 0,8392 -0,97434 0,97434 -0,87622 0,87622 1,0000 0,76255 0,76255 0,68576 0,68576 1,0000 0,18264 0,18264 0,16425 0,16425 1,0000 0,07789 0,07789 0,07004 0,07004 1,0000 -1,86008 1,86008 -1,67277 1,67277 0,5978 -0,97438 0,97438 -0,87626 0,87626 1,0000 -0,52242 0,52242 -0,46981 0,46981 1,0000 0,45437 0,45437 0,40861 0,40861 1,0000 0,53131 0,53131 0,47781 0,47781 1,0000 0,72009 0,72009 0,64757 0,64757 1,0000 -1,60783 1,60783 -1,44592 1,44592 0,6916 -0,15848 0,15848 -0,14252 0,14252 1,0000

Selanjutnya, pembobot wi,1 digunakan untuk menghitung koefisien regresi

yang baru yaitu bRobust ke 2. Perhitungan ini dilanjutkan sampai didapatkan nilai

∑ ����=1 ,�� yang konvergen. Selain perhitungan dengan prosedur, pendugaan

koefisien regresi dengan penduga-M dapat juga dihitung menggunakan bantuan program macro MINITAB di Lampiran 4 untuk mendapatkan estimasi parameter regresi. Selanjutnya, hasil output dari program dapat dilihat di Lampiran 5. Sementara itu, perhitungan penaksir koefisien regresi untuk data 2, data 3 dan data 4 juga dilakukan dilakukan dengan prosedur yang sama dengan data 1.

Regresi Robust penduga-M diperoleh melalui MKT terboboti secara iterasi dengan bantuan MACRO MINITAB 16 dapat dilihat di lampiran 5 yakni:

Tabel 3.17 Nilai Koefisien Regresi Penduga-M

Koefisien Regresi

Data 1 Data 2 Data 3 Data 4 Iterai ke-7 Iterasi ke-15 Iterasi ke-12 Iterasi ke-10 �0 -2,31699 0,41707 -0,15310 -2,72275

�1 1,19616 0,93058 1,01610 1,27240


(54)

Berdasarkan nilai pada Tabel 3.26, maka diperoleh model regresi robust penduga-M sebagai berikut:

Data 1: �� =−2,31699 + 1,19616�

Data 2: �� = 0,41707 + 0,93058�

Data 3: �� =−0,15310 + 1,01610�

Data 4: �� =−2,72275 + 1,27240�

Tabel 3.18 Sisaan dari Persamaan Penduga-M Data

ke-

Data 1 Data 2

� � ��� �� � � ��� ��

1 11,8038 11,0423 11,8023 0,75992 10,6759 -0,82208 10,6759 -0,82208 2 8,1046 6,7440 7,3774 0,63332 9,9911 -0,53411 9,9911 -0,53411 3 8,0656 8,3468 7,3308 -1,01600 11,3311 0,65677 11,3311 0,65677 4 10,4036 9,1351 10,1274 0,99232 12,1119 0,00293 12,1119 0,00293 5 8,5000 3,5000 7,8504 4,35037 10,6535 6,15347 10,6535 6,15347 6 11,7014 11,6395 11,6798 0,04024 9,6817 -0,60415 9,6817 -0,60415 7 10,2912 10,2815 9,9929 -0,28857 9,9819 -0,75459 9,9819 -0,75459 8 10,5793 11,7110 10,3376 -1,37344 10,1776 0,36854 10,1776 0,36854 9 9,2151 9,4347 8,7058 -0,72893 8,5563 -0,79318 8,5563 -0,79318 10 11,8172 11,3707 11,8183 0,44760 9,5295 0,51636 9,5295 0,51636 11 10,6973 10,3699 10,4787 0,10885 11,4818 0,23324 11,4818 0,23324 12 9,9292 9,3904 9,5599 0,16952 10,6554 -0,37504 10,6554 -0,37504 13 10,0137 11,4476 9,6610 -1,78665 8,2674 1,09934 8,2674 1,09934 14 9,9285 10,4417 9,5591 -0,88260 8,8641 -1,67037 8,8641 -1,67037 15 10,7070 11,0885 10,4902 -0,59829 9,6177 2,07753 9,6177 2,07753 16 9,6483 8,6174 9,2239 0,60648 10,2068 -2,31937 10,2068 -2,31937 17 9,9878 9,0197 9,6300 0,61031 10,9526 0,04095 10,9526 0,04095 18 9,6268 8,3214 9,1983 0,87683 9,6608 -0,27294 9,6608 -0,27294 19 10,3465 11,6652 10,0591 -1,60608 10,6067 0,44552 10,6067 0,44552

20 8,1715 7,1458 7,4574 0,31167 8,4131 1,04749 8,4131 1,04749

Data ke-

Data 3 Data 4

� � ��� �� � � ��� ��

1 9,5773 9,7371 9,5784 -0,15866 9,5036 9,5427 9,3693 -0,17344

2 9,3945 9,4338 9,3926 -0,04115 8,9949 9,0709 8,7220 -0,34892

3 7,9194 7,7132 7,8938 0,18067 9,7543 9,6939 9,6883 -0,00570

4 10,1013 9,5401 10,1109 0,57073 10,4547 11,0912 10,5793 -0,51183 5 11,0000 15,0000 11,0240 -3,97600 9,0000 15,0000 8,7285 -6,27152 6 10,7799 11,6411 10,8003 -0,84081 11,8226 12,5695 12,3198 -0,24970 7 10,2695 8,6576 10,2818 1,62416 10,1489 10,0318 10,1902 0,15849

8 9,4592 9,7154 9,4584 -0,25702 9,0099 9,1426 8,7411 -0,40149

9 9,4570 8,7120 9,4561 0,74408 10,4718 9,6921 10,6012 0,90906

10 9,4673 10,1323 9,4666 -0,66569 8,3023 6,9711 7,8408 0,86967 11 9,8394 10,0377 9,8447 -0,19296 9,6177 9,3676 9,5145 0,14683 12 11,5536 11,6654 11,5865 -0,07892 9,6586 9,1162 9,5664 0,45020


(55)

Data ke-

Data 3 Data 4

� � ��� �� � � ��� ��

14 9,9497 9,6230 9,9568 0,33381 9,4222 8,6212 9,2657 0,64448

15 10,7975 10,0127 10,8183 0,80560 9,9249 12,0854 9,9053 -2,18003 16 10,0982 10,8020 10,1076 -0,69436 9,0239 10,8013 8,7589 -2,04241 17 11,0523 10,5382 11,0772 0,53894 10,5082 9,6814 10,6475 0,96611 18 10,1207 10,5308 10,1305 -0,40028 11,0018 11,2574 11,2755 0,01808 19 8,9341 10,2095 8,9249 -1,28464 8,4898 7,6267 8,0794 0,45269

20 9,9465 9,7970 9,9535 0,15646 8,8304 8,7640 8,5127 -0,25124

Proses perhitungan penduga koefisien regresi robust penduga-S dan pengolahan data 1 yang terdapat pada Tabel 3.1 setelah didapatkan penduga-M adalah sebagai berikut:

a. Dari sisaan yang diperoleh pada penduga-M, dihitung robust �� sesuai persamaan (2.19) untuk mendapatkan nilai � sesuai persamaan(2.14).

b. Menghitung nilai �� sesuai persamaan (2.21).

c. Digunakan MKT terboboti untuk mendapatkan penduga kuadrat terkecil terboboti:

β * = (X’WX)-1 X’WY

d. Menjadikan sisaan yang diperoleh pada langkah (c) sebagai sisaan pada langkah (a), sehingga didapatkan nilai � dan pembobot �� yang baru.

Hasil perhitungan terdapat pada Tabel 3.19.

Iterasi ulang sampai didapatkan kekonvergenan sehingga diperoleh �0�,�1�, … ,���

yang merupakan penduga-S.

Tabel 3.19 Hasil Perhitungan Koefisien Regresi Iterasi ke-1

�� = 1,31884; � = 1,547

� ε,0 ��∗,0 |��∗,0 | ��,0

-1,87207 0,75992 0,57621 0,57621 0,7418 1,14441 0,63332 0,48021 0,48021 0,8166 -1,01600 -0,77038 0,77038 0,5655 0,99232 0,75242 0,75242 0,5828 4,35037 3,29864 3,29864 12,5787


(56)

� ε�,0 ��∗,0 |��∗,0 | ��,0

0,04024 0,03051 0,03051 0,9992 -0,28857 -0,21881 0,21881 0,9604 -1,37344 -1,04140 1,04140 0,2990 -0,72893 -0,55271 0,55271 0,7610 0,44760 0,33939 0,33939 0,9061 0,10885 0,08253 0,08253 0,9943 0,16952 0,12854 0,12854 0,9862 -1,78665 -1,35472 1,35472 0,0544 -0,88260 -0,66923 0,66923 0,6607 -0,59829 -0,45365 0,45365 0,8354 0,60648 0,45986 0,45986 0,8311 0,61031 0,46277 0,46277 0,8290 0,87683 0,66485 0,66485 0,6647 -1,60608 -1,21780 1,21780 0,1446 0,31167 0,23632 0,23632 0,9539

Tabel 3.20 Hasil Perhitungan Koefisien Regresi Iterasi ke-2

�� = 1,33121;� = 1,547

� ε�,1 �∗,1 |��∗,1 | ��,1

-1,76404 0,59397 0,44619 0,44619 0,8405 1,13022 0,65881 0,49490 0,49490 0,8058 -0,98849 -0,74256 0,74256 0,5923 0,89883 0,67520 0,67520 0,6553 4,35540 3,27177 3,27177 12,0607 -0,12042 -0,09046 0,09046 0,9932 -0,37624 -0,28263 0,28263 0,9344 -1,47602 -1,10878 1,10878 0,2365 -0,76092 -0,57160 0,57160 0,7456 0,28095 0,21105 0,21105 0,9631 0,00015 0,00012 0,00012 1,0000 0,10058 0,07556 0,07556 0,9952


(1)

(2)

(3)

(4)

(5)

Lampiran 7

Perulangan Data Simulasi Data

ke-

Letak Pencilan di Ujung Bawah

Data 1.1 Data 1.2 Data 1.3 Data 1.4

X Y X Y X Y X Y

1 10,9384 11,3667 9,4991 8,2990 11,0241 11,4980 9,5798 9,7206 2 10,9626 9,4702 9,3211 9,7080 10,2882 10,5252 8,5893 7,8797 3 9,2479 9,0498 9,7256 9,2891 11,7282 10,6744 10,1018 8,0740 4 11,4549 11,1408 11,6603 11,4100 12,5672 12,1090 10,6760 11,3832 5 8,5000 5,0000 9,0000 4,0000 9,5000 5,0000 8,5000 3,5000 6 10,7672 11,9199 10,0175 9,7229 9,9557 10,2858 11,2379 10,8806 7 10,9858 11,2756 9,4737 9,7684 10,2784 10,7365 8,3134 7,6695 8 10,2638 10,9304 8,5295 9,3999 10,4886 9,8091 9,9691 10,9018 9 9,4410 9,0994 11,2864 10,1848 8,7464 9,3495 8,9718 7,5066 10 10,7294 12,0933 10,9375 12,9055 9,7922 9,0131 12,1683 12,9687 11 9,1744 9,0206 11,0328 9,9629 11,8901 11,2485 9,9857 8,1493 12 12,3847 13,8371 10,4015 11,7538 11,0021 11,0305 10,0475 9,7115 13 11,2835 10,9246 11,1829 10,4364 8,4359 7,1680 9,1524 7,6817 14 10,1057 9,6997 10,3046 7,7499 9,0771 10,5344 10,4522 10,2707 15 10,8837 11,4819 10,3259 8,9349 9,8870 7,5402 10,7285 9,6489 16 9,5734 9,9752 9,3807 9,3104 10,5200 12,5262 9,8786 10,2048 17 9,6933 9,4426 10,2086 9,6546 11,3214 10,9116 9,3021 8,8980 18 8,5464 9,3974 9,0971 10,0117 9,9333 9,9338 10,1756 10,0576 19 10,4321 10,7468 12,1418 11,1747 10,9497 10,1612 9,7438 9,3538 20 9,5469 9,6804 11,7814 12,2024 8,5925 7,3656 10,9322 9,0888

Data ke-

Letak Pencilan di Tengah Bawah

Data 2.1 Data 2.2 Data 2.3 Data 2.4

X Y X Y X Y X Y

1 11,7466 11,0230 9,4991 8,2990 9,6294 10,0745 9,9737 11,6137 2 9,2999 10,4381 9,3211 9,7080 10,0566 11,9969 9,9014 9,7467 3 10,5085 10,7401 9,7256 9,2891 10,2271 10,7987 9,0930 8,7870 4 10,1879 8,9916 11,6603 11,4100 11,8048 11,3398 11,2763 10,1763 5 10,5000 4,5000 10,5000 5,0000 11,0000 5,0000 10,5000 4,0000 6 9,4888 8,0855 10,0175 9,7229 11,7961 10,8374 11,4849 11,6986 7 10,5127 9,9005 9,4737 9,7684 10,0038 10,2741 10,5413 13,7554 8 10,1746 9,6544 8,5295 9,3999 8,3665 7,1408 9,8215 10,6077 9 10,4603 10,8288 11,2864 10,1848 9,5996 10,3283 10,6959 11,9879 10 11,0999 11,4000 10,9375 12,9055 11,1343 9,5946 9,9392 10,8170 11 10,9145 10,9465 11,0328 9,9629 10,9399 13,4029 10,1324 10,4586 12 9,7326 9,0117 10,4015 11,7538 9,9157 10,6094 10,6071 9,8277 13 9,8506 11,9771 11,1829 10,4364 8,9579 9,2717 9,2339 10,6191 14 8,7324 8,0063 10,3046 7,7499 10,0558 9,5510 10,6184 9,4876 15 9,2742 8,4822 10,3259 8,9349 11,4660 12,2458 10,1097 10,1301 16 11,3603 11,4535 9,3807 9,3104 10,0466 10,9323 10,6876 10,9185 17 9,4754 10,1852 10,2086 9,6546 10,5501 8,3275 9,7214 8,4769


(6)

Data ke-

Letak Pencilan di Tengah Bawah

Data 2.1 Data 2.2 Data 2.3 Data 2.4

X Y X Y X Y X Y

18 9,1325 7,1772 9,0971 10,0117 10,1408 8,6025 8,4386 7,2587 19 11,4565 10,7763 12,1418 11,1747 11,7744 10,7744 9,7110 10,4824 20 11,1202 11,9324 11,7814 12,2024 9,1795 8,8711 9,9838 9,6042

Data ke-

Letak Pencilan di Ujung Atas

Data 3.1 Data 3.2 Data 3.3 Data 3.4

X Y X Y X Y X Y

1 8,6719 8,6400 8,6719 8,6400 10,2224 10,3258 10,8526 9,5500 2 8,5871 10,5205 8,5871 10,5205 9,8870 10,8173 9,6917 10,4372 3 9,7627 10,7408 9,7627 10,7408 11,2809 9,9585 10,1970 10,0010 4 8,3258 9,6695 8,3258 9,6695 10,9198 11,9886 9,4123 10,8935 5 12,0000 7,5000 11,0000 15,5000 11,0000 16,5000 11,5000 16,0000 6 10,9460 9,2059 10,9460 9,2059 9,1298 9,5336 11,0989 10,9861 7 10,7508 11,5065 10,7508 11,5065 10,9793 11,6449 9,5545 11,3926 8 9,1792 9,1246 9,1792 9,1246 11,6585 11,1575 11,4003 10,3292 9 11,3609 9,4410 11,3609 9,4410 9,1680 8,4237 11,7723 10,7008 10 8,6906 7,3321 8,6906 7,3321 9,8956 9,6808 9,4415 10,3168 11 8,7583 7,5432 8,7583 7,5432 8,3057 9,9101 10,0109 9,3026 12 8,7942 9,6925 8,7942 9,6925 10,6002 11,4602 10,5803 10,6670 13 8,3696 8,1116 8,3696 8,1116 9,6727 10,0635 11,6334 12,5298 14 8,1872 7,0140 8,1872 7,0140 10,4314 10,0709 8,3522 9,8387 15 9,8113 9,4855 9,8113 9,4855 9,0970 9,2586 8,5340 8,4451 16 9,9291 8,3090 9,9291 8,3090 10,4914 7,3278 11,1258 11,8301 17 10,9354 11,3335 10,9354 11,3335 10,3250 9,4802 9,4427 10,1533 18 9,2227 9,0989 9,2227 9,0989 9,5942 9,4798 9,2454 9,3401 19 10,2255 9,7902 10,2255 9,7902 9,4215 10,8769 9,7670 9,6008 20 10,7852 10,2624 10,7852 10,2624 9,9620 7,2731 10,1546 11,5003

Data ke-

Letak Pencilan di Tengah Atas

Data 4.1 Data 4.2 Data 4.3 Data 4.4

X Y X Y X Y X Y

1 9,8418 9,0598 10,4826 9,2924 9,4023 8,4200 10,1798 11,8952 2 10,2318 10,1727 10,1954 10,1784 9,4140 8,5685 12,0474 11,1254 3 9,9644 11,4111 8,1208 8,1022 9,9297 9,6469 10,0750 10,1239 4 9,5767 10,9250 10,2277 9,7994 9,1260 9,1610 10,5271 9,6756 5 9,5000 14,0000 9,0000 12,5000 9,0000 14,0000 9,5000 15,0000 6 11,4500 11,8149 9,8738 10,3218 8,0883 8,9640 11,6206 12,1958 7 10,1851 9,9997 10,2206 10,1423 8,8129 7,9337 8,8126 9,6109 8 9,3641 10,1619 8,7680 9,0081 8,6039 10,3237 10,4009 10,8217 9 10,3407 10,2600 9,8686 9,4111 10,5519 11,0033 8,1239 8,5303