Perbandingan Regresi Robust Least Median Of Squares (LMS)dan Least Trimmed Squares (LTS) Dalam Mengatasi Masalah Pencilan

(1)

PERBANDINGAN REGRESI ROBUST LEAST MEDIAN OF

SQUARES (LMS) DAN LEAST TRIMMED SQUARES (LTS)

DALAM MENGATASI MASALAH PENCILAN

SKRIPSI

IDA HUSNA

100803007

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS SUMATERA UTARA

MEDAN

2015


(2)

PERBANDINGAN REGRESI ROBUST LEAST MEDIAN OF SQUARES (LMS) DAN LEAST TRIMMED SQUARES (LTS) DALAM MENGATASI

MASALAH PENCILAN

SKRIPSI

Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains

IDA HUSNA 100803007

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN 2015


(3)

PERSETUJUAN

Judul : Perbandingan Regresi Robust Least Median Of

Squares (LMS)dan Least Trimmed Squares

(LTS) Dalam Mengatasi Masalah Pencilan

Kategori : Skripsi

Nama : Ida Husna

Nomor Induk Mahasiswa : 100803007

Program Studi : Sarjana (S1) Matematika

Departemen : Matematika

Fakultas : Matematika dan Ilmu Pengetahuan Alam

(FMIPA) Universitas Sumatera Utara

Disetujui di

Medan, Januari 2015

Komisi Pembimbing:

Pembimbing 2, Pembimbing 1,

Dr. Suwarno Ariswoyo, M.Si. Dr. Open Darnius, M.Sc NIP. 195003211980031001 NIP. 19641014 199103 1 004

Diketahui oleh:

Departemen Matematika FMIPA USU Ketua,

Prof. Dr. Tulus, M.Si. NIP. 196209011988031 002


(4)

PERNYATAAN

PERBANDINGAN REGRESI ROBUST LEAST MEDIAN OF SQUARES (LMS)

DAN LEAST TRIMMED SQUARES (LTS) DALAM MENGATASI

MASALAH PENCILAN

SKRIPSI

Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya

Medan, Januari 2015

IDA HUSNA 100803007


(5)

PENGHARGAAN

Puji dan syukur penulis panjatkan kepada Allah SWT yang Maha Pemurah dan Maha Penyayang,yang telah senantiasa memberikan rahmat dan hidayah-Nya sehingga penulis dapat menyelesaikan penyusunan skripsi ini dengan judul Perbandingan Regresi Robust Least Median Of Squares dan Least Trimmed Squares dalam Mengatasi Masalah Pencilan.

Terimakasih penulis sampaikan kepada Bapak Dr. Open Darnius, M.Scselaku pembimbing 1dan BapakDr.Suwarno Ariswoyo, M.Siselaku pembimbing 2 yang telah dengan sabar meluangkan waktunya untuk membimbing penulis selama penulisan skripsi ini. Penulis juga mengucapkan terima kasih kepada Ibu Asima Manurung, S.Si, M.Si dan Bapak Dr. Faigiziduhu Bu’ulolo, M.Siselaku dosen penguji penulis yang telah memberikan kritik dan saran yang sangat penting dalam penyempurnaan penulisan skripsi ini. Terimakasih kepada Bapak Prof. Dr.Tulus, M.Si danIbu Dr. Mardiningsih, M.Si selaku ketua dan Sekretaris Departemen Matematika FMIPA USU, Dekan dan Pembantu Dekan FMIPA USU, seluruh Staf dan Dosen Matematika FMIPA USU, Pegawai FMIPA USU dan rekan-rekan kuliah khususnya Komutatif 2010. Akhirnya Penulis mengucapkan terimakasih yang teristimewa kepada orangtua tercinta Ibunda Arni Dawati dan Ayahanda Zakaria (Almarhum), Bapak T. Abdul Manan serta adik penulis yang senantiasa memberikan dorongan, do’a dan motivasi sehingga penulis selalu bersemangat dalam menyelesaikan skripsi ini. Semoga segala bentuk bantuan yang telah diberikan kepada penulis mendapatkan balasan yang lebih baik dari Allah SWT.


(6)

PERBANDINGAN REGRESI ROBUST LEAST MEDIAN OF SQUARES (LMS) DAN LEAST TRIMMED SQUARES (LTS) DALAM

MENGATASI MASALAH PENCILAN

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penaksir parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat kelompok data dengan letak pencilan berbeda-beda yang terdiri atas 100 observasi. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitupenaksir least median of squares (LMS) dan penaksirleast trimmed squares(LTS). Berdasarkan hasil yang diperoleh pada penelitian ini, regresi robustpenaksir LTSmemberikan hasil yang lebih baik daripada penaksir LMS dan metode OLS dengan kriteria pembandingannya menggunakan rata-rata kuadrat sisa.


(7)

THE COMPARISON OF ROBUST REGRESSION LEAST MEDIAN OF SQUARES (LMS) AND LEAST TRIMMED SQUARES (LTS) IN

OVERCOMING OUTLIER

ABSTRACT

Regression analysis was usedto determine the relationshipbetween variables. One of methodparameterestimatorin the regression modelis ordinary least

squares(OLS). This research usedfour groupsof

datawithdifferentoutlierlayoutconsisting of100observations. Then,this paperaimstocomparethetwomethods ofrobustregressionleastmedian ofsquares

(LMS) estimator andleasttrimmed ofsquares(LTS) estimator. Based on the resultsobtained inthis research, the LTSestimatorrobustregressiongivesbetter resultsthantheLMSestimator andOLS, the comparisoncriterionisthe averagesquaredresidual.


(8)

(9)

DAFTAR ISI

Halaman

PERSETUJUAN i

PERNYATAAN ii

PENGHARGAAN iii

ABSTRAK iv

ABSTRACT v

DAFTAR ISI vi

DAFTAR TABEL viii

DAFTAR GAMBAR ix

DAFTAR LAMPIRAN x

BAB 1 PENDAHULUAN 1

1.1 Latar Belakang 1

1.2 Perumusan Masalah 2

1.3 Pembatasan Masalah 3

1.4 Tujuan Penelitian 3

1.5 Kontribusi Penelitian 3

1.6 Metodologi Penelitian 3

1.6.1 Bidang Penelitian 4

1.6.2 Sumber Data 4

1.6.3 Teknik Analisis Data 4

1.6.4 Membuat Kesimpulan 4

BAB 2 TINJAUAN PUSTAKA 5

2.1 Pencilan 5

2.1.1 Pengertian Pencilan 5

2.1.2 Dampak Pencilan 5

2.1.3 Pendeteksian Pencilan 5

2.2 Metode Kuadrat Terkecil 7

2.3 Rata-rata Kuadrat Sisa 9

2.4 Regresi Robust 10

2.5 Metode Penaksir Least Median of Squares (LMS) 11 2.6 Metode Penaksir Least Trimmed Squares (LTS) 13

BAB 3 PEMBAHASAN 14

3.1 Data 14

3.2 Pendeteksian Pencilan 19

3.3 Metode Kuadrat Terkecil 28

3.4 Rata-rata Kuadrat Sisa untuk MKT 41

3.5 Regresi Robust dengan Penaksir LTS 43 3.6 Rata-rata Kuadrat Sisa untuk Penaksir LTS 54 3.7 Regresi Robust dengan Penaksir LMS 55 3.8 Rata-rata Kuadrat Sisa untuk Penaksir LMS 69


(10)

BAB 4 KESIMPULAN DAN SARAN 73

4.1 Kesimpulan 73

4.2 Saran 73

DAFTAR PUSTAKA 75


(11)

DAFTAR TABEL

Nomor Judul Halaman

Tabel

3.1 Data Kelompok 1 14

3.2 Data Kelompok 2 15

3.3 Data Kelompok 3 17

3.4 Data Kelompok 4 18

3.5 Pendeteksian Pencilan untuk Data Kelompok 1 dan Data Kelompok 2

22 3.6 Pendeteksian Pencilan untuk Data Kelompok 3 dan Data

Kelompok 4

25 3.7 Perkalian Variabel Bebas dan Variabel Terikat untuk

Data Kelompok 1

28 3.8 Perkalian Variabel Bebas dan Variabel Terikat untuk

Data Kelompok 2

31 3.9 Perkalian Variabel Bebas dan Variabel Terikat untuk

Data Kelompok 3

35 3.10 Perkalian Variabel Bebas dan Variabel Terikat untuk

Data Kelompok 4

37

3.11 Nilai Sisaan Terurut 43

3.12 Data kelompok 1 untuk penaksir LTS 46

3.13 Data kelompok 2 untuk penaksir LTS 48

3.14 Data kelompok 3 untuk penaksir LTS 49

3.15 Data kelompok 4 untuk penaksir LTS 50

3.16 Data Iterasi Ke-1 57

3.17 Data Iterasi Ke-2 59

3.18 Data Iterasi Ke-3 61

3.19 Data Iterasi Ke-4 61

3.20 Data Iterasi Ke-5 62

3.21 Data Iterasi Ke-6 62

3.22 Data Iterasi Ke-7 62

3.23 Hasil Perhitungan Fungsi Pembobot untuk Data Kelompok 1

66 3.24 Hasil Estimasi Koefisien Regresi dan Rata-rata Kuadrat

Sisa


(12)

DAFTAR GAMBAR

Nomor Judul Halaman

Gambar

3.1 Scatterplot Data Kelompok 1 20

3.2 Scatterplot Data Kelompok 2 20

3.3 Scatterplot Data Kelompok 3 21


(13)

DAFTAR LAMPIRAN

Nomor Judul Halaman

Lampiran

1 Program untuk membangkitkan data menggunakan Software R

77 2 Program MINITAB regresi robust dengan pembobot fungsi

Huber

78 3 Hasil output program MINITAB untuk masing-masing

kelompok data berdasarkan penaksir LMS


(14)

PERBANDINGAN REGRESI ROBUST LEAST MEDIAN OF SQUARES (LMS) DAN LEAST TRIMMED SQUARES (LTS) DALAM

MENGATASI MASALAH PENCILAN

ABSTRAK

Analisis regresi digunakan untuk mengetahui hubungan antar variabel. Salah satu metode penaksir parameter dalam model regresi adalah metode kuadrat terkecil (OLS). Dalam penelitian ini digunakan empat kelompok data dengan letak pencilan berbeda-beda yang terdiri atas 100 observasi. Kemudian tulisan ini bertujuan untuk membandingkan dua metode regresi robust yaitupenaksir least median of squares (LMS) dan penaksirleast trimmed squares(LTS). Berdasarkan hasil yang diperoleh pada penelitian ini, regresi robustpenaksir LTSmemberikan hasil yang lebih baik daripada penaksir LMS dan metode OLS dengan kriteria pembandingannya menggunakan rata-rata kuadrat sisa.


(15)

THE COMPARISON OF ROBUST REGRESSION LEAST MEDIAN OF SQUARES (LMS) AND LEAST TRIMMED SQUARES (LTS) IN

OVERCOMING OUTLIER

ABSTRACT

Regression analysis was usedto determine the relationshipbetween variables. One of methodparameterestimatorin the regression modelis ordinary least

squares(OLS). This research usedfour groupsof

datawithdifferentoutlierlayoutconsisting of100observations. Then,this paperaimstocomparethetwomethods ofrobustregressionleastmedian ofsquares

(LMS) estimator andleasttrimmed ofsquares(LTS) estimator. Based on the resultsobtained inthis research, the LTSestimatorrobustregressiongivesbetter resultsthantheLMSestimator andOLS, the comparisoncriterionisthe averagesquaredresidual.


(16)

BAB 1

PENDAHULUAN

1.1 Latar Belakang

Analisis regresi digunakan untuk membuat model yang menjelaskan hubungan fungsional antara variabel terikat dengan satu atau lebih variabel bebas dari data pengamatan. Kemudian jika dalam sebuah data pengamatan terdapat pencilan, maka model yang dihasilkan perlu dianalisis lebih lanjut, keberadaan pencilan pada suatu data dapat mengganggu proses analisis data, sehingga pendeteksian pencilan merupakan hal yang sangat penting untuk dilakukan.

Ada banyak cara pendeteksiannya, dan penyajiannya dapat berupa grafik atau nilai. Adanya pencilan dalam data dapat mengakibatkan estimasi koefisien regresi yang diperoleh tidak tepat. Hal ini dapat ditunjukkan dengan nilai standar error yang besar apabila menggunakan metode kuadrat terkecil. Kemudian tindakan membuang begitu saja suatu pencilan bukanlah tindakan yang bijaksana karena ada kalanya pencilan memberikan informasi yang cukup berarti. Oleh karena itu, diperlukan suatu estimasi yang bersifat robust atau tahan terhadap pencilan yang dikenal dengan regresi robust.Regresi robustmerupakan metode regresi yang digunakan ketika distribusi dari sisaan tidak normal atau adanya beberapa pencilan yang berpengaruh pada model. Metode ini merupakan alat penting untuk menganalisa data yang dipengaruhi oleh pencilan sehingga dihasilkan model yang robust atau resistance terhadap pencilan. Suatu estimasi yang resistance adalah relatif tidak terpengaruh oleh perubahan besar pada bagian kecil data atau perubahan kecil pada bagian besar data.

Menurut Draper dan Smith (1992), adakalanya pencilan memberikan informasi yang tidak bisa diberikan oleh titik data lainnya, misalnya karena pencilan timbul dari kombinasi keadaan yang tidak biasa yang mungkin saja sangat penting dan perlu diselidiki lebih jauh.


(17)

Menurut Chen (2002), regresi robustadalah metode yang penting untuk menganalisis data yang terkontaminasi oleh pencilan. Untuk menaksir parameter regresi robust dapat digunakan beberapa metode antara lain: M-estimator, Least Median of Squares(LMS)-estimator, Least Trimmed Squares(LTS)-estimator,

S-estimator, dan MM-estimator. Least median of squares (LMS) adalah metode penaksir parameter regresi robustdengan meminimumkan median dari kuadrat sisaan sedangkanleast trimmed squares (LTS) adalah metode penaksir parameter regresi robustdengan meminimumkan jumlah sisaan kuadrat terhadap sebaran data yang sudah terpotong.

Regresi robust least median of squares (LMS) diperkenalkan oleh Rousseeuw pada tahun 1984. Metode least median of squares menduga koefisien regresi dengan meminimumkan median dari kuadrat galat. Prinsip dasar metode regresi robust pendugaleast median of squares adalahmencocokkan sebagian besar data setelah pencilan teridentifikasi sebagai titik yang tidak berhubungan dengan data (Rosseeuw dan Leroy, 1987).

Kemudian menurut (Akbar dan Maftukhah, 2007) least trimmed squares

merupakan salah satu metode penaksir dalam regresirobust yang digunakan untuk mengatasi pencilan. Metode penaksir ini adalah metode penaksiran parameter regresi robust dengan menggunakan konsep pengepasan metode kuadrat terkecil(ordinary least squares) untuk meminimumkan jumlah kuadrat sisaan.

Berdasarkan uraian di atas, maka dalam penelitian tugas akhir ini penulis akan membandingkan metode regresi robust penaksirleast median of squares

(LMS) dan least trimmed squares (LTS) dalam mengatasi permasalahan data pencilan.

1.2 Perumusan Masalah

Keberadaan pencilan dalam suatu data dapat mengakibatkan estimasi koefisisen regresi tidak tepat, sehingga diperlukan suatu estimasi yang bersifat robustatau


(18)

tahan terhadap pencilan yaitu regresi robust. Dalam penelitian ini akan diselidiki empat tipe pencilan data pada regresi linier sederhana yang akan diselesaikan dengan dua metode robust yakni least median of squares(LMS) dan least trimmed squares (LTS) dalam membandingkan metode yang lebih baik.

1.3 Pembatasan Masalah

Data yang digunakan dalam penelitian ini adalah membangkitkanempat kelompok data dengan satu variabel bebas dan satu variabel terikat yang mempunyai jenis pencilan berbeda-beda, kemudian akan ditanggulangi dengan metode regresi robust penaksirleast median of squares dan least trimmed squares.

1.4 Tujuan Penelitian

Tujuan penelitian ini adalah memilih salah satu dari dua metode least median of squares dan least trimmed squaressehingga dapat mengatasi masalah pencilan.

1.5 Kontribusi Penelitian

Manfaat dari penelitian ini adalah:

1. Memberikan pengetahuan tentang tindakan yang harus dilakukan dalam mengidentifikasi dan menanggulangi pencilan.

2. Memberikan pengetahuan dasar tentang regresi robust penduga least median of squares dan penduga least trimmed squares.

3. Hasil penelitian ini dapat dijadikan sebagai bahan referensi untuk peneliti-peneliti berikutnya.


(19)

1.6.1 Bidang Penelitian

Penelitian ini dikelompokkan dalam penelitian tinjauan literatur pada bidang ilmu statistika matematika.

1.6.2 Sumber Data

Data yang akan dianalisis pada penelitian ini adalah menggunakan data bangkitan yang dibangkitkan dengan menggunakan software R 3.1.0 terdiri dari satu variabel bebas (X) dan satu variabel terikat (Y) sebanyak n = 100 observasi.

1.6.3 Teknik Analisis Data

Dalam mengolah data secara cepat dan akurat akan digunakan bantuan software Minitab 16 dan SPSS 16.0 sehingga dapat dipastikan keakuratan perhitungan dan penyajian data. Langkah-langkah yang dilakukan dalam menganalisis data adalah: 1. Mendeteksi adanya pencilan dengan menentukan nilai Leverage, DfFITS

dan Cook’s Distance.

2. Menentukan nilai �0 dan �1 serta rata-rata kuadrat sisa dengan metode kuadrat terkecil.

3. Menentukan nilai �0 dan �1 dengan regresi robust yaitu penaksir LMS dan LTS serta menentukan nilai rata-rata kuadrat sisa dari kedua penaksir. 4. Membandingkan nilai rata-rata kuadrat sisa dari metode kuadrat terkecil dan

regresi robust.

1.6.4 Membuat Kesimpulan

Berdasarkan hasil analisis data yang diperoleh akan dibuat kesimpulan sekaligus memberikan saranyang berkaitan dengan pengembangan penelitian ini, yaitu dengan menggunakan metode yang berbeda.


(20)

BAB 2

TINJAUAN PUSTAKA

2.1 Pencilan

2.1.1Pengertian Pencilan

Secara umum pencilan (outlier) adalah data yang tidak mengikuti pola umum model. Pencilan juga dapat diartikan sebagai suatu keanehan atau keganjilan pada data amatan yang menunjukkan ketidaksesuaian dengan sisa data (Sembiring, 1995). (Hair, dkk, 1995) juga menyatakan bahwa pencilan adalah data yang muncul memiliki karakteristik unik yang terlihat sangat jauh berbeda dari observasi lainnya dan muncul dalam bentuk nilai ekstrim baik untuk sebuah variabel tunggal ataupun variabel kombinasi.

2.1.2 Dampak Pencilan

Berdasarkan pengertian pencilan yaitu jika dalam suatu data terdapat pencilan maka analisis data yang akan dihasilkan akan tidak tepat karena pencilan dapat menyebabkan munculnya nilai rata-rata dan simpangan baku yang tidak konsisten terhadap mayoritas data. Kemudian estimasi koefisien garis regresi yang dihasilkan tidak tepat, disamping itu pada beberapa analisa inferensia dapat menyebabkan kesalahandalam pengambilan keputusan dan kesimpulan. Oleh karena itu dibutuhkan suatu regresi yang robust terhadap pencilan yang dikenal dengan regresi robust.

2.1.3 Pendeteksian Pencilan

Terdapat beberapa metode dan nilai yang digunakan untuk mendeteksi pencilan dalam sebuah analisis yaitu(Soemartini, 2007):


(21)

1. Metode Grafik

Diagram Pencar (Scatter Plot)merupakan salah satu metode untuk melihat apakah terdapat pencilan pada data, dapat dilakukan dengan memplot data dengan observasi ke-i (i=1,2,…,n). Kemudian setelah diperoleh model regresi maka dapat dilakukan dengan cara memplot antara residual dengan nilai prediksi Y(��). Jika terdapat satu atau beberapa data yang terletak jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya pencilan. Kemudian, kelemahan metode ini yaitu yang menentukan data tersebut sebagai pencilan atau tidak tergantung pada kebijakan (judgement) peneliti.

2. Leverage Values, DfFITS, Cook’s Distancedan DfBETA(s)

Untuk mendeteksi ada atau tidak adanya pencilan dapat juga dengan menentukan

Leverage Values, DfFITS, Cook’s Distance, dan DfBETA(s).Berikut definisi dari masing-masing nilai tersebut yaitu:

a. Leverage Value adalah menampilkan nilai leverage (pengaruh) terpusat.

b. DfFITSatau Standardized DfFIT adalah menampilkan nilai perubahan

dalamhargayang diprediksi bilamana case tertentu dikeluarkan dan sudah distandarkan.

c. Cook’s Distance adalah menampilkan nilai jarak Cook

d. DfBETA(s) adalah menampilkan nilai perubahan koefisienregresi

sebagaihasilperubahan yang disebabkan oleh pengeluaran case tertentu. Digunakan untuk mendeteksi pencilan pada variabel bebas.

.

Ketentuan dalam pendeteksian pencilan denganLeverage Value, DfFITS,Cook’s Distance,DfBETA(s)adalah:

a. Jika Leverage Value> (2�−1)

� maka dikatakan pencilan. b. Jika DfFITS> 2�� maka dikatakan pencilan.

c. Jika Cook’s D> � (0,5; p, n-p) maka dikatakan pencilan. d. Jika DfBETA (s) > 2


(22)

keterangan:

n =jumlah observasi (sampel)

p = jumlah parameter

2.2 Metode Kuadrat Terkecil

Analisis regresidigunakan untuk melihat hubungan antara variabel terikatdengan satu atau lebih variabel bebas. Model yang dihasilkan menggunakan analisis regresi adalah model regresi. Kemudian metode kuadrat terkecil merupakan salah satumetode yang sering digunakan untuk mendapatkannilai-nilai penduga (penaksir) parameter dalam pemodelan regresi(Cahyawati, 2009).

Menurut Sumodiningrat (1994) dalam analisis regresi yang menggunakan satu variabel terikat (Y) dan satu variabel bebas (X) disebut regresi linier sederhana. Model regresi linier sederhana dapat dituliskan sebagai berikut:

�� =�0+�1�� + �� 2.1

keterangan:

i = 1, 2, ...,n

Yi= variabel terikat

Xi= variabel bebas

�0= koefisien regresi

�1= koefisien regresi

��= sisaan

nilai�0 dan �1 adalah parameter regresi yang akan diestimasi.

Kemudian model penaksir regresi linier sederhana untuk persamaan (2.1) adalah sebagai berikut:

��� = �̂0 +�̂1�� 2.2

keterangan:

���= nilai Yiyang diestimasi

�̂0,�̂1= penaksir parameter


(23)

Dari persamaan regresi linier sederhana (2.1), nilai residu (sisaan) ke-i

pada model merupakan selisih antara data sebenarnya dengan data dugaan, yaitu:

�� =�� − ��� 2.3

�� = ��− ��̂0+�̂1��� 2.4

Dalam melakukan penaksiran �0 dan �1 dengan metode kuadrat terkecil adalah menemukan nilai-nilai taksiran yang meminimumkan jumlah kuadrat residu yaitu:

Minimum ∑�=1 2 2.5

sehingga:

∑��=1 ��2 = ∑ ���− ����

2

� �=1

= ∑ ��=1 −(�̂0+�̂1 )�2

= ∑ ���=1 − �̂0− �̂1�2 2.6 keterangan:

�� = data sebenarnya

��� = data dugaan

�̂0,�̂1 = penaksir parameter

��2= sisaan kuadrat

Kemudian (Sembiring, 1995) andaikan ∑�=1 2 dinotasikan dengan J dan

J merupakan fungsi dari nilai �̂0 dan �̂1 sehingga nilai-nilaiJ dapat ditentukan dengan menurunkan persamaan (2.6) terhadap �̂0 dan �̂1 kemudian menyamakan tiap turunannya dengan nol, diperolehlah nilai sebagai berikut:

�= � �2

� �=1 J =∑ �� − �̂0− �̂1���

2

� �=1

� =� �2

� �=1

−2�̂0� ��

� �=1

−2�̂1� ��

� �=1

��+���̂0+�̂1��� 2

� �=1


(24)

�� ��̂0

= 0−2� �

� �=1

−0 + 2���̂0 +�̂1���

� �=1

= 0

��

���0 = − ∑ ��

�=1 +∑ ��̂��=1 0+�̂1���= 0 2.7

dan

�� ��̂1

= 0−0−2� �

� �=1

+ 2���̂0+�̂1�����

� �=1

= 0

��

���1 = − ∑ ����

�=1 +∑ ��̂�=1 0+�̂1����� = 0 2.8

Dari persamaan (2.7) maka akan dicari nilai �̂0 sebagai berikut:

� �� � �=1

= ��̂0+ �̂1� ��

� �=1

0 = ∑ ��

�=1 − �̂1∑�=1��

�̂0 =�� − �̂1�� 2.9

Selanjutnya, dari persamaan (2.8) akan dicari nilai �̂1sebagai berikut:

� ���� � �=1

=�̂0� �

� �=1

+�̂1� �2

� �=1 =�∑ ��

�=1 − �̂1∑��=1��

� � � ��

� �=1

+�̂1� �2

� �=1 =∑ ��∑ �� � �=1 � �=1 � −

�̂1[∑�=1��]2

� +�̂1� ��2

� �=1

� ���� �

�=1

∑��=1��∑��=1��

� = −

�̂1[∑�=1��]2

� +�̂1� ��2

� �=1 =�̂1�−

1 � �� �� � �=1 � 2

+� �2

� �=1

� �̂1 =

∑��=1����−

∑�=1�� ∑=1� �

∑� �2 �=1 −

1

��∑��=1���

2 2.10


(25)

Rata-rata kuadrat sisa S2 adalah salah satu cara untuk menentukan kecocokan model, jika semakin kecil rata-rata kuadrat sisa yang dihasilkan maka semakin baik model tersebut (Sembiring, 1995). Metode ini diperoleh dengan menghitung banyaknya parameter dalam model melalui pembagian dengan derajat kebebasannya. Rata-rata kuadrat sisa dapat ditentukan dengan rumus berikut:

�2 = ���

� − � �2 = ��� − ���

� − � �2 = ∑ (�� − ��)

2

� − ∑��(��� − ��)2

� − �

2.11

keterangan:

JKS = jumlah kuadrat sisa

JKT = jumlah kuadrat total

JKR = jumlah kuadrat regresi

n = jumlah sampel

p = jumlah parameter

�� = data sebenarnya

= data dugaan

��� = rata-rata data sebenarnya

2.4 Regresi Robust

Regresirobustadalah suatu metode yang digunakan untuk mengatasi masalah pencilan (Rousseeuw dan Leroy, 1987). Metode ini merupakan alat penting untuk menganalisis data yang dipengaruhi oleh pencilan (outlier) sehinggadapat menghasilkan model yang robust atau resistance terhadap pencilan (Wulandari, 2013).

Dalam regresi robust terdapat salah satu cara yang digunakan untuk mengukur ke-robust-an (kekekaran) suatu estimator(penaksir)yaitu Breakdown


(26)

point. Breakdown pointmerupakan kelompok terkecil adanya pencilan yang mengakibatkan suatu penaksir menghasilkan penaksiran yang jauh berbeda atau bias. Konsep breakdown dilakukan untuk mengetahui kemampuan suatu penaksir dalam menghasilkan nilai taksiran yang resisten terhadap adanya pencilan dalam jumlah tertentu (Akbar dan Maftukhah, 2007).

Banyak metode estimasi yang bisa digunakan dalam regresi robustyaitu penaksir Least Median Of Squares (LMS),Least Trimmed Squares (LTS), penaksir M (M–Estimator), penaksir S dan penaksir MM. Least median of squares

(LMS) adalah metode penaksir parameter regresi robust dengan meminimumkan median dari kuadrat sisaan sedangkan least trimmed squares (LTS) adalah metode penaksir parameter regresi robust untuk meminimumkan jumlah kuadrat residual yang sudah terpotong.

2.5 Metode Penaksir Least Median Of Square (LMS)

Least Median Of Squaremerupakan salah satu metode penaksir dalam regresi

robust yang digunakan untuk mengatasi masalah pencilan. Dengan menggunakan median dari kuadrat sisaannya penduga yang dihasilkan akan lebih kekar dalam menghadapi pencilan (Rousseeuw, 1984). Dalam penelitian (Parmikanti, 2013) menyebutkan LMS merupakan salah satu metode estimasi dalam regresi robust, dengan metode ini data pencilan tidak dibuang begitu saja tetapi diproses dieliminasi melalui sebuah iterasi. Kemudian jika pada metode kuadrat terkecil hal yang perlu dilakukan adalah meminimumkan kuadrat sisa (∑�=1(�)2) maka pada LMS yang perlu dilakukan adalah meminimumkan median kuadrat sisa yaitu:

�= min {�������2} = min {�1,�2, … ,��} 2.12

Untuk nilai �1,�2, … ,� adalah median dari setiap hi pengamatan atau untuk mendapatkan nilai �1 dicari himpunan bagian data sejumlah hi pengamatan yaitu:


(27)

ℎ� = ��2+ (�+1 )2 � 2.13

dengan n= banyaknya data dan p= banyaknya parameter, demikian seterusnya sampai iterasi berakhir pada iterasi ke-syaitu saat hs = hs+1, sehingga akan diperoleh nilai M seperti pada (2.12).

Kemudian karena LMS merupakan penduga (penaksir) pada regresi robust, maka sama halnya dengan penaksir lain pada regresi robust, prinsip dasar dari LMS adalah dengan memberikan bobot (wii)pada data sehingga data pencilan tidak mempengaruhi model parameter taksiran.

Berdasarkan Rousseeuw (1987), bobot wii dirumuskan dengan ketentuan sebagai berikut:

��� = �1, ���� � ��

�0� ≤2,5 0, �������

dan

�0 = 1,4826 (1 + 5

�−�)√� 2.14

Setelah bobot wii dihitung, dapat dibentuk matriks W sebagai berikut:

� = �

�11 �12

�21 �22

⋯ �1�

⋯ �2� ⋮ ⋮

1 ��2

⋱ ⋮

⋯ ���

dengan entri matriks ��� = 0 dan i ≠ j. Bobot wiidihitung berdasarkan fungsi pembobot yang disarankan oleh Huber memakai fungsi obyektif (Montgomery dan Peck,1982: 369) yaitu:

��(�∗) = � ��∗

2, ����� |��

|≤ �

�|�∗|−�2

2 , ����� |��

| > dengan fungsi influence

ψ(�∗) = �

��∗ ����� |��∗|≤ �

� �������∗> �

−� �������∗ <−� dan fungsi pembobot

��� =ψ(εi

)


(28)

dengan �∗=��

�0, r= 2,5 dan setelah bobot wii dihitung maka dibentuk matriks W,

sehingga penaksir parameter regresi LMS dapat dihitung dengan menggunakan rumus:

����� = (����)−1 (����) 2.15

2.6 Metode Penaksir Least Trimmed Squares (LTS)

Salah satu metode penaksir dalam regresirobust yang sering digunakan untuk mengatasi pencilan adalah least trimmed squares. Metode penaksir ini adalah metode penaksiran parameter regresi robustdengan menggunakan konsep pengepasan metode kuadrat terkecil (ordinary least squares) untuk meminimumkan jumlah kuadrat sisaan (Akbar dan Maftukhah, 2007). Penaksir

least trimmed squaresdapat dinyatakan sebagai berikut:

Minimum∑ℎ=1(2:) 2.16

keterangan:

�(2�:�)= kuadrat residual (sisaan kuadrat) yang terurut dari terkecil hingga terbesar. 2

) 1 (

ε

<

ε

(22)<

ε

(23)< …. <

ε

(2i)< … <

ε

(2h)< … <

ε

(2n) n = jumlah pengamatan

p= jumlah parameter

ℎ = ��

2+

(�+ 1 )

2 �=

[�+�+ 1]

2

Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi obyektif terkecil. Nilai h pada persamaan akan membangun breakdown point yang besar sebanding dengan 50%.Kuadrat sisa pada persamaan (2.16) berasal dari persamaan estimasi regresi linier menggunakan konsep metode kuadrat terkecil dengan banyaknya sisaan kuadrat (�(2:�))yang akan diolah adalah sebanyak h


(29)

BAB 3

PEMBAHASAN

3.1 Data

Data yang digunakan dalam penelitian ini adalah data bangkitan yang terdiri dari satu variabel bebas dan satu variabel terikat (program untuk membangkitkan data dengan menggunakan bantuan software R 3.1.0 dapat dilihat pada Lampiran 1). Data yang digunakan dalam penelitian ini terdiri atas empat kelompok data, masing-masing kelompok data mempunyai letak pencilan yang berbeda-beda dan setiap kelompok data terdiri atas 100 observasi.

Tabel 3.1Data Kelompok 1

Data ke- X Y

(1) (2) (3)

1 24,74459 25,49922 2 25,94975 34,56932 3 27,21102 44,89028 4 20,06318 35,16295 5 39,26117 55,17023 6 30,95748 32,41692 7 38,69946 57,61637 8 24,71633 33,82560 9 32,22099 52,10756 10 35,63591 44,01251 11 22,38679 32,36768

Data ke- X Y

(1) (2) (3)

22 36,98364 41,57874 23 38,07973 55,05067 24 23,29239 27,76766 25 37,11979 49,53376 26 44,72131 61,19221 27 47,48107 54,37607 28 39,76654 41,71652 29 40,77041 42,68569 30 34,22317 39,27434 31 22,84071 26,60309 32 40,90212 53,27272


(30)

Tabel 3.2 Data Kelompok 2

12 22,76890 30,32549 13 15,72962 20,03307 14 46,59793 59,78697 15 24,11822 35,31412 16 31,83469 40,48123 17 35,79879 41,68456 18 29,08096 28,59296 19 22,46247 40,77281 20 40,42332 64,28321 21 25,65631 28,06235

(1) (2) (3)

43 44,16298 51,77527 44 32,11075 39,08733 45 30,92658 26,02104 46 32,09130 31,22431 47 28,80555 47,36764 48 23,12979 45,70526 49 30,24056 38,63304 50 35,34783 40,75501 51 30,76370 43,31536 52 5,946296 3,273158 53 30,28623 49,36050 54 17,33047 36,36425 55 24,27338 35,88895 56 27,98330 27,54033 57 28,46568 41,28822 58 18,44030 34,97145 59 34,23751 40,38583 60 22,64944 38,22674 61 37,97051 58,11627 62 30,98596 33,09461 63 27,81915 36,35357 64 30,38004 38,06357 65 33,01645 44,9140 66 27,78347 38,71382 67 19,24524 34,77113 68 36,47550 45,48658 69 30,75822 46,56205 70 36,90459 54,83079 71 12,01599 32,22616

33 29,02380 41,07071 34 21,46592 39,69259 35 40,58374 48,98613 36 46,87386 49,99053 37 29,39212 41,72213 38 28,13137 45,11287 39 42,35948 41,11566 40 46,81812 51,89220 41 11,45585 29,35569 42 22,95527 47,31418

(1) (2) (3)

72 31,47927 45,58298 73 29,25879 35,25151 74 23,99872 31,15234 75 29,04652 44,81313 76 23,64163 35,53205 77 28,95989 51,75827 78 15,94675 35,35665 79 29,55657 40,17118 80 27,62597 34,06391 81 21,14061 31,99603 82 28,11612 45,09487 83 29,45897 42,33661 84 29,29285 41,50928 85 27,71680 41,94250 86 23,22718 23,27884 87 15,72241 14,82477 88 29,71313 43,38035 89 38,58055 46,74921 90 36,27256 56,79541 91 38,16198 55,88744 92 35,94319 49,68207 93 44,36028 57,46872 94 41,41815 41,80003 95 22,10428 35,52095 96 34,66952 39,24439 97 29,75051 38,82558 98 23,90947 20,76767 99 27,00098 34,18201 100 50,00000 65,00000


(31)

Data ke- X Y

(1) (2) (3)

1 53,34214 55,31352 2 26,25136 33,75330 3 10,88355 60,00000 4 40,76054 54,02336 5 21,37247 27,99890 6 12,48756 15,29890 7 26,50885 34,85221 8 21,75967 18,75650

(1) (2) (3)

17 32,79418 46,12006 18 27,22830 31,31616 19 12,61360 19,00168 20 21,76610 27,67234 21 41,55421 40,02359 22 13,50086 24,14656 23 41,51401 44,53297 24 29,04005 34,38035 25 24,06255 35,49478 26 18,78519 25,17787 27 29,24101 33,21404 28 24,27260 31,75176 29 34,20891 44,09627 30 27,19714 33,80143 31 29,18364 46,05653 32 35,06222 36,68072 33 52,75262 56,86589 34 23,13152 31,78830 35 36,06689 48,89894 36 38,12793 45,79216 37 36,41086 41,71336 38 22,99420 17,04031 39 29,30558 41,17550 40 17,15792 30,09538 41 39,04430 48,14031 42 38,20033 45,15760 43 18,59265 28,92927 44 24,85160 38,79070 45 31,20303 29,77027 46 20,60756 24,35796 47 23,61711 26,76816 48 23,42851 41,85236

Data ke- X Y

(1) (2) (3)

9 30,45736 37,20736 10 26,38167 38,39898 11 33,01517 31,34112 12 21,29077 28,52551 13 26,87104 30,61330 14 24,67059 31,52471 15 37,71788 48,91178 16 26,23789 24,41339

(1) (2) (3)

63 38,44170 39,94315 64 24,22177 47,13367 65 32,08192 41,88997 66 17,85944 27,90407 67 20,70278 33,78207 68 28,63277 41,10157 69 26,94137 43,91270 70 33,89437 37,57062 71 14,76380 31,46075 72 41,50944 45,05601 73 19,03085 22,79725 74 32,97805 45,70902 75 16,53484 23,24133 76 28,75271 26,19224 77 19,86411 33,74571 78 37,08485 46,72589 79 26,63582 34,48091 80 29,15980 42,28288 81 34,38659 33,77437 82 30,62378 50,86911 83 33,21825 26,06448 84 31,46558 57,19596 85 26,98805 29,53414 86 18,38541 19,09274 87 43,19519 63,27653 88 26,21121 30,97068 89 30,94748 44,23677 90 31,47820 53,20083 91 40,94829 46,22838 92 33,43278 43,09554 93 25,22880 40,35855 94 39,75549 38,53643


(32)

49 14,92175 23,09555 50 39,23124 45,53324 59 33,24595 45,56611 60 26,75824 34,38471 61 42,57739 53,04641 62 34,76587 42,00166

95 29,85806 55,72730 96 23,73980 34,06974 97 36,69636 53,22274 98 17,61479 30,88599 99 43,39995 51,29532 100 21,16273 32,37453

Tabel 3.3 Data Kelompok 3

Data ke- X Y

(1) (2) (3)

1 16,60849 36,78474 2 20,99639 40,84729 3 35,76885 42,97343 4 47,50563 59,98169 5 25,52563 43,70598 6 32,65760 43,52522 7 34,63220 49,00489 8 35,30503 43,83961 9 35,74264 37,17254 10 34,38473 45,17666 11 29,91268 23,16619 12 33,49929 44,06404 13 20,43011 36,55776 14 26,57563 44,49170 15 33,08429 46,09861 16 27,69186 52,26243 17 32,20885 39,98075 18 31,57274 23,02997 19 25,35646 34,97857 20 32,25274 39,92474 21 26,49884 42,13870 22 18,92887 39,16833 23 20,61227 31,18401 24 33,80334 39,58782 25 27,97932 24,24846 26 15,04196 20,75603 27 29,53431 36,99399 28 42,26966 45,44611 29 35,31827 42,19785

Data ke- X Y

(1) (2) (3)

40 31,03240 51,63043 41 40,75897 32,67099 42 29,48946 30,84335 43 37,73232 44,15409 44 30,80963 17,44293 45 11,19797 24,03819 46 40,49931 46,90160 47 27,67897 36,79854 48 24,97487 33,10301 49 31,43041 35,67424 50 41,36430 53,94065 51 18,42851 26,32006 52 35,68648 51,18505 53 26,08254 32,85181 54 21,35571 37,15159 55 33,08343 39,24751 56 39,45915 49,36376 57 32,26371 46,58488 58 29,77752 31,85549 59 40,52360 39,00853 60 35,20957 39,93557 61 19,00883 24,70060 62 15,60287 36,05882 63 27,28392 33,82839 64 22,25923 44,21626 65 39,57518 46,56289 66 33,32347 42,77791 67 19,08901 39,89865 68 17,27758 32,60186


(33)

30 25,71962 27,28854 31 10,05847 14,91350 32 24,86370 43,03724 33 46,99963 55,72772 34 38,70424 57,32921 35 31,45907 41,66349 36 43,35575 48,17687 37 29,39431 40,21297 38 37,35673 43,39702 39 31,62098 40,42059

(1) (2) (3)

79 37,79537 37,62058 80 29,23991 47,06033 81 31,93475 50,37412 82 22,39107 30,01924 83 22,28542 32,68675 84 37,29705 56,30928 85 43,30303 52,26282 86 16,69417 19,44500 87 37,16748 37,36955 88 24,30172 39,76316 89 27,25944 25,22295

69 13,33586 8,986635 70 47,58513 65,97605 71 48,24881 55,37938 72 28,35026 29,01599 73 27,93389 36,96822 74 14,04516 33,04512 75 33,79499 45,29251 76 29,74637 42,89407 77 18,15913 23,56968 78 27,49074 38,14234

(1) (2) (3)

90 28,88071 40,26224 91 27,13596 50,27035 92 34,36808 35,02501 93 16,39683 27,57033 94 42,53627 50,37801 95 42,04388 49,79590 96 28,74595 38,29136 97 17,67922 30,00145 98 35,87051 49,82878 99 60,77202 10,77202 100 51,81691 67,62898

Tabel 3.4 Data Kelompok 4

Data ke- X Y

(1) (2) (3)

1 27,01297 34,37026 2 27,48365 40,65417 3 30,13122 41,25211 4 26,94716 46,84614 5 23,57049 27,84918 6 35,11658 61,19475 7 35,66173 44,74047 8 37,11606 36,86673 9 29,16333 28,42095 10 45,31556 46,25168 11 27,24070 40,95848 12 26,08336 34,78232 13 30,53664 32,59427 14 31,01817 55,32270 15 28,68901 47,36818 16 34,29074 36,47278

Data ke- X Y

(1) (2) (3)

27 21,79011 24,07100 28 16,80373 28,73012 29 42,04727 58,46106 30 42,48616 54,66238 31 25,04442 36,86439 32 29,71026 33,76228 33 31,39852 35,17709 34 36,52804 27,85017 35 33,00556 48,61517 36 30,04381 48,39684 37 29,15504 33,19374 38 28,84795 33,89881 39 15,69807 3,91317 40 28,86969 38,89128 41 21,69983 53,31343 42 22,96354 40,09691


(34)

17 14,65998 30,75306 18 17,48730 33,55697 19 30,12691 28,38285 20 29,94013 37,88557 21 18,34889 33,14828 22 17,55731 20,31404 23 35,22275 53,98391 24 33,70700 36,79642 25 36,80686 54,79573 26 24,09213 14,14140

(1) (2) (3)

53 24,55412 27,50239 54 28,36736 20,37420 55 26,24908 38,44191 56 27,13237 40,10253 57 22,41054 45,68497 58 45,72712 52,19577 59 17,86739 26,37361 60 34,86972 50,28486 61 30,08584 44,50899 62 16,30457 16,23349 63 20,45595 36,60848 64 39,62797 63,69288 65 23,06165 36,29985 66 34,26105 57,32702 67 40,33570 34,11586 68 41,30349 54,87393 69 25,60622 31,52352 70 31,27615 43,14879 71 18,99707 44,31468 72 31,90844 37,95349 73 17,31506 34,54753 74 29,98044 59,08406 75 22,90638 38,58058 76 28,59820 36,99601

43 27,90382 49,89352 44 27,49237 46,43434 45 28,38288 45,79419 46 34,40308 44,40288 47 36,03373 43,03847 48 34,79871 40,71565 49 37,46100 51,72199 50 20,22499 29,06981 51 19,22040 29,20167 52 27,11574 49,24007

(1) (2) (3)

77 27,18383 37,05706 78 21,99154 31,67718 79 35,02418 40,57255 80 24,70347 39,75115 81 23,04234 21,41075 82 25,97825 45,76960 83 34,28952 42,43533 84 26,71742 32,06980 85 31,26519 55,32701 86 23,71397 42,07665 87 35,96028 56,50225 88 35,90696 33,70689 89 26,92559 42,37279 90 30,38130 42,93243 91 38,12271 50,67338 92 25,78838 36,01918 93 31,62336 48,91462 94 36,33426 43,50603 95 27,74841 45,75707 96 28,15924 36,79820 97 34,27644 40,85242 98 18,07238 42,77081 99 30,36756 49,26409 100 50,08562 70,40087

3.2 PendeteksianPencilan

Pendeteksian pencilan dapat dilakukan dengan metode grafis yaitu scatter plotdan dengan menentukan nilai leveragesdan DfFITS(Difference fitted value FITS).


(35)

Pendeteksian pencilan dengan menggunakan scatter plotuntuk masing-masing kelompok data adalah:

50 40

30 20

10 0

70

60

50

40

30

20

10

0

X

Y

Gambar 3.1Scatter PlotData Kelompok 1

50 40

30 20

10 70

60

50

40

30

20

10

X

Y


(36)

60 50

40 30

20 10

70

60

50

40

30

20

10

X

Y

Gambar 3.3Scatter PlotData Kelompok 3

60 50

40 30

20 10

70

60

50

40

30

20

10

0

X

Y


(37)

Berdasarkan hasil scatter plot pada Gambar 3.1, Gambar 3.2, Gambar 3.3 dan Gambar 3.4 yang diperoleh menunjukkan bahwa data pada Tabel 3.1, Tabel 3.2, Tabel 3.3 dan tabel 3.4masing-masing memilikiletak pencilan yang berbeda-beda. Kemudian pendeteksian pencilan yang akan digunakan adalah menentukan nilai leveragedanDfFITS(Difference fitted value FITS).

Kemudian menurut (Soemartini, 2007) jika diperoleh nilai leveragelebih

besar dari (2�−1)

� maka data dapat dinyatakan sebagai pencilan, selanjutnya jika nilai |DFFITS| lebih besar dari 2��

� maka data dapat dinyatakan sebagai pencilan dengan n = jumlah observasi dan p = jumlah parameter, diperoleh nilai (2�−1)

� =

(2�2)−1

100 = 0,03000 dan nilai 2�

� � = 2�

2

100 = 0,28284. Berikut hasil

pendeteksian pencilan dengan menggunakan nilai leveragedanDfFITS untuk masing-masing kelompok data yaitu:

Tabel 3.5 Pendeteksian Pencilan untuk Data Kelompok 1 dan Data Kelompok 2

Data Ke-

Data Kelompok 1 Data Kelompok 2

Leverage DfFITS |DfFITS| Leverage DfFITS |DfFITS|

(1) (2) (3) (4) (6) (7) (8)

1 0,01424 -0,17731 0,17731 0,08821 -0,1087 0,10866 2 0,01259 -0,03442 0,03442 0,01089 -0,0263 0,02630 3 0,01130 0,10991 0,10991 0,05223 1,3667 1,36670

4 0,02442 0,09605 0,09605 0,02847 0,1495 0,14950 5 0,02114 0,12459 0,12459 0,01734 -0,0645 0,06454 6 0,01006 -0,13373 0,13373 0,04503 -0,2680 0,26801 7 0,01979 0,18347 0,18347 0,01073 -0,0138 0,01381 8 0,01428 -0,02905 0,02905 0,0166 -0,2321 0,23212 9 0,01052 0,14314 0,14314 0,01033 -0,0255 0,02549 10 0,01396 -0,03324 0,03324 0,01081 0,03682 0,03682 11 0,01861 -0,01779 0,01779 0,01225 -0,14690 0,14688 12 0,01780 -0,0648 0,0648 0,01750 -0,05430 0,05427 13 0,03925 -0,20555 0,20555 0,01052 -0,0760 0,07597 14 0,04677 0,11084 0,11084 0,01230 -0,04180 0,04185 15 0,01525 0,00736 0,00736 0,02023 0,07439 0,07439


(38)

(1) (2) (3) (4) (6) (7) (8) 16 0,01033 -0,02692 0,02692 0,01090 -0,15820 0,15816 17 0,01420 -0,07716 0,07716 0,01201 0,07516 0,07516 18 0,01020 -0,16564 0,16564 0,01035 -0,06970 0,06973 19 0,01845 0,15011 0,15011 0,04450 -0,15970 0,15972 20 0,02421 0,32482 0,32482 0,01659 -0,07440 0,07435 21 0,01296 -0,13991 0,13991 0,03101 -0,19690 0,19693 22 0,01620 -0,10599 0,10599 0,04083 -0,02910 0,02910 23 0,01840 0,13640 0,13640 0,03088 -0,08660 0,08662 24 0,01675 -0,12154 0,12154 0,01000 -0,04730 0,04734 25 0,01646 0,04129 0,04129 0,01301 0,02516 0,02516 26 0,03880 0,19589 0,19589 0,02327 -0,08980 0,08976 27 0,05086 -0,09934 0,09934 0,01002 -0,06520 0,06523 28 0,02243 -0,18238 0,18238 0,01276 -0,03430 0,03426 29 0,02520 -0,19366 0,19366 0,01372 0,03037 0,03037 30 0,01215 -0,08589 0,08589 0,01036 -0,03550 0,03553 31 0,01765 -0,13943 0,13943 0,01001 0,10758 0,10758 32 0,02558 0,05482 0,05482 0,01501 -0,10180 0,10184 33 0,01022 0,02172 0,02172 0,08448 -0,02050 0,02051 34 0,02074 0,15678 0,15678 0,0143 -0,02080 0,02076 35 0,02466 -0,03908 0,03908 0,01677 0,09092 0,09092 36 0,04803 -0,22408 0,22408 0,0212 0,00825 0,00825 37 0,01011 0,02600 0,02600 0,01743 -0,04000 0,03996 38 0,01064 0,09648 0,09648 0,01450 -0,26320 0,26323 39 0,03015 -0,29564 0,29564 0,01003 0,04053 0,04053 40 0,04777 -0,15773 0,15773 0,0279 0,04326 0,04326 41 0,05896 0,24632 0,24632 0,02352 0,04186 0,04186 42 0,01741 0,26826 0,26826 0,02137 -0,0054 0,00540 43 0,03662 -0,0665 0,0665 0,02378 -0,0091 0,00909 44 0,01046 -0,05196 0,05196 0,01211 0,0633 0,06330 45 0,01006 -0,23194 0,23194 0,01071 -0,1384 0,13838 46 0,01045 -0,1716 0,1716 0,01891 -0,1237 0,12372 47 0,01030 0,11921 0,11921 0,0136 -0,1052 0,10524 48 0,01707 0,22941 0,22941 0,01386 0,1353 0,13530 49 0,01000 -0,03121 0,03121 0,03539 -0,0841 0,08407 50 0,01355 -0,08387 0,08387 0,02402 -0,0156 0,01557 51 0,01003 0,03002 0,03002 0,01077 0,10191 0,10191 52 0,09180 -0,70537 0,70537 0,06537 -0,0744 0,07437 53 0,01000 0,12604 0,12604 0,02209 0,14741 0,14741 54 0,03317 0,21833 0,21833 0,01276 0,03267 0,03267 55 0,01499 0,01497 0,01497 0,01488 0,10304 0,10304 56 0,01073 -0,17002 0,17002 0,01334 0,02438 0,02438 57 0,01046 0,03323 0,03323 0,01572 -0,0719 0,07191


(39)

(1) (2) (3) (4) (6) (7) (8) 58 0,02937 0,14093 0,14093 0,01019 -0,0735 0,07354 59 0,01216 -0,06808 0,06808 0,0125 0,06281 0,06281 60 0,01805 0,09377 0,09377 0,01058 -0,0229 0,02294 61 0,01817 0,20000 0,20000 0,03454 0,10255 0,10255 62 0,01007 -0,12398 0,12398 0,01454 -0,0099 0,00994 63 0,01084 -0,03195 0,03195 0,02197 -0,1141 0,11411 64 0,01000 -0,04151 0,04151 0,01282 0,20245 0,20245 65 0,01103 0,02294 0,02294 0,01135 0,02095 0,02095 66 0,01086 0,00455 0,00455 0,02582 -0,0187 0,01873 67 0,02682 0,11049 0,11049 0,01870 0,0495 0,0495 68 0,01530 -0,02264 0,02264 0,01001 0,04688 0,04688 69 0,01003 0,07787 0,07787 0,01048 0,10588 0,10588 70 0,01606 0,14428 0,14428 0,01330 -0,067 0,06697 71 0,05609 0,32609 0,32609 0,03597 0,1363 0,13630 72 0,01020 0,05371 0,05371 0,03087 -0,0739 0,07395 73 0,01014 -0,06755 0,06755 0,02263 -0,1414 0,14141 74 0,01545 -0,06666 0,06666 0,01221 0,06742 0,06742 75 0,01021 0,07692 0,07692 0,02986 -0,1046 0,10455 76 0,01609 0,02015 0,02015 0,01000 -0,1552 0,15524 77 0,01024 0,18385 0,18385 0,02058 0,06465 0,06465 78 0,03838 0,24569 0,24569 0,01882 0,04079 0,04079 79 0,01007 0,00087 0,00087 0,01065 -0,0203 0,02031 80 0,01097 -0,06453 0,06453 0,01001 0,05694 0,05694 81 0,02154 -0,00138 0,00138 0,01398 -0,13600 0,13598 82 0,01065 0,09647 0,09647 0,0104 0,16048 0,16048 83 0,01009 0,03408 0,03408 0,01247 -0,23320 0,23323 84 0,01014 0,0243 0,0243 0,01088 0,24748 0,24748 85 0,01091 0,05497 0,05497 0,01046 -0,0920 0,09195 86 0,01687 -0,20881 0,20881 0,02435 -0,21540 0,21536 87 0,03928 -0,36589 0,36589 0,03680 0,36822 0,36822

88 0,01004 0,04575 0,04575 0,01092 -0,06480 0,06482 89 0,01951 -0,04119 0,04119 0,01056 0,06527 0,06527 90 0,01496 0,18653 0,18653 0,01089 0,18800 0,18800 91 0,01858 0,15258 0,15258 0,02905 -0,03370 0,03372 92 0,01443 0,06112 0,06112 0,01272 0,02370 0,02370 93 0,03738 0,09294 0,09294 0,01173 0,08062 0,08062 94 0,02713 -0,23926 0,23926 0,02548 -0,17780 0,17777 95 0,01924 0,05202 0,05202 0,01013 0,23636 0,23636 96 0,01266 -0,09535 0,09535 0,01343 0,00756 0,00756 97 0,01004 -0,02157 0,02157 0,01800 0,16402 0,16402 98 0,01561 -0,26177 0,26177 0,02653 0,05134 0,05134 99 0,01149 -0,05476 0,05476 0,03757 0,04265 0,04265


(40)

(1) (2) (3) (4) (6) (7) (8) 100 0,06371 0,20861 0,20861 0,01775 0,01619 0,01619

Berdasarkan hasil pendeteksian pencilan pada Tabel 3.5 data yang termasuk pencilan untuk data kelompok 1 dilihat berdasarkan nilai yang lebih besar dari nilai leverage adalah data ke-13, 14, 26, 36, 39, 40, 41, 43, 52, 54, 71, 78, 87, 93 dan 100. Kemudian berdasarkan nilai yang lebih besar dari |DfFITS| adalah data ke-13, 20 dan 87. Selanjutnya yang termasuk pencilan untuk data kelompok 2 berdasarkan nilai leverage adalah data ke-1, 3, 6, 19, 21, 22, 23, 33, 49, 52, 61, 71, 72, 87 dan 99. Kemudian berdasarkan nilai |DfFITS| adalah data ke-3 dan 87.

Tabel 3.6 Pendeteksian Pencilan untuk Data Kelompok 3 dan Data Kelompok 4

Data Ke-

Data Kelompok 3 Data Kelompok 4

Leverage DfFITS |DfFITS| Leverage DfFITS |DfFITS|

(1) (2) (3) (4) (5) (6) (7)

1 0,03156 0,13938 0,13938 0,01082 -0,04741 0,04741 2 0,02001 0,12758 0,12758 0,01050 0,02254 0,02254 3 0,01330 0,00191 0,00191 0,01017 0,00255 0,00255 4 0,04333 0,22399 0,22399 0,01087 0,10321 0,10321 5 0,01268 0,09839 0,09839 0,01556 -0,10851 0,10851 6 0,01059 0,03213 0,03213 0,01634 0,23826 0,23826 7 0,01205 0,08558 0,08558 0,01756 -0,01654 0,01654 8 0,01276 0,01677 0,01677 0,02131 -0,17442 0,17442 9 0,01327 -0,0729 0,07288 0,01000 -0,13648 0,13648 10 0,01182 0,03995 0,03995 0,05660 -0,22822 0,22822 11 0,01002 -0,17860 0,17859 0,01065 0,02882 0,02882 12 0,01111 0,03260 0,03260 0,01168 -0,03415 0,03415 13 0,02125 0,06682 0,06682 0,01034 -0,10321 0,10321 14 0,01165 0,09516 0,09516 0,01062 0,16216 0,16216 15 0,01083 0,05918 0,05918 0,01004 0,08762 0,08762 16 0,01082 0,17540 0,1754 0,01471 -0,11471 0,11471 17 0,01038 -0,00510 0,00512 0,04748 0,08105 0,08105 18 0,01016 -0,19470 0,19469 0,03428 0,07571 0,07571 19 0,01287 -0,01070 0,01068 0,01017 -0,14807 0,14807 20 0,01040 -0,00610 0,00610 0,01011 -0,03444 0,03444 21 0,01171 0,06733 0,06733 0,03083 0,04772 0,04772 22 0,02491 0,13784 0,13784 0,03399 -0,21479 0,21479


(41)

(1) (2) (3) (4) (6) (7) (8) 23 0,02085 -0,02350 0,02353 0,01657 0,12780 0,12780 24 0,01133 -0,02280 0,02280 0,01370 -0,09927 0,09927 25 0,01066 -0,15560 0,15560 0,02045 0,13312 0,13312 26 0,03674 -0,17950 0,17948 0,01457 -0,31173 0,31173

27 0,01008 -0,01840 0,01836 0,01967 -0,15947 0,15947 28 0,02606 -0,03220 0,03215 0,03721 -0,01741 0,01741 29 0,01277 -0,00410 0,00411 0,03966 0,16832 0,16832 30 0,01247 -0,11020 0,11025 0,04172 0,07118 0,07118 31 0,05694 -0,29910 0,29912 0,01301 0,00310 0,00310 32 0,01346 0,09851 0,09851 0,01006 -0,07978 0,07978 33 0,04139 0,12565 0,12565 0,01090 -0,08369 0,08369 34 0,01787 0,19047 0,19047 0,01970 -0,31226 0,31226

35 0,01013 0,01954 0,01954 0,01265 0,06610 0,06610 36 0,02913 0,00478 0,00478 0,01014 0,08639 0,08639 37 0,01011 0,01883 0,01883 0,01000 -0,08057 0,08057 38 0,01553 -0,00700 0,00696 0,01002 -0,06938 0,06938 39 0,01017 0,00435 0,00435 0,04230 -0,62830 0,62830

40 0,01005 0,13549 0,13549 0,01001 -0,01205 0,01205 41 0,02224 -0,23060 0,23059 0,01991 0,3292 0,32920

42 0,01009 -0,08740 0,08736 0,01684 0,07922 0,07922 43 0,01614 0,00010 0,00010 0,01028 0,12666 0,12666 44 0,01002 -0,25450 0,25445 0,01049 0,09083 0,09083 45 0,05182 -0,05990 0,05985 0,01011 0,07265 0,07265 46 0,02164 0,01484 0,01484 0,01492 -0,00461 0,00461 47 0,01083 -0,00680 0,00679 0,01845 -0,04884 0,04884 48 0,01332 -0,03180 0,03182 0,01569 -0,06310 0,06310 49 0,01013 -0,04760 0,04762 0,02231 0,07558 0,07558 50 0,02371 0,12861 0,12861 0,02422 -0,06146 0,06146 51 0,02624 -0,08910 0,08910 0,02760 -0,04634 0,04634 52 0,01320 0,10880 0,10880 0,01074 0,12989 0,12989 53 0,01210 -0,04260 0,04258 0,01377 -0,11833 0,11833 54 0,01926 0,06302 0,06302 0,01011 -0,22658 0,22658 55 0,01083 -0,02060 0,02061 0,01150 0,00951 0,00951 56 0,01937 0,06369 0,06369 0,01073 0,01985 0,01985 57 0,01040 0,06988 0,06988 0,01811 0,17822 0,17822 58 0,01004 -0,0779 0,07789 0,05901 -0,0686 0,06860 59 0,02169 -0,1172 0,11716 0,03272 -0,08603 0,08603 60 0,01265 -0,0317 0,03167 0,01583 0,07501 0,07501 61 0,02470 -0,12240 0,12236 0,01016 0,04074 0,04074 62 0,03482 0,14584 0,14584 0,03945 -0,30511 0,30511

63 0,01109 -0,03870 0,03874 0,02350 0,07061 0,07061 64 0,01750 0,15711 0,15711 0,02958 0,29520 0,29520


(42)

(1) (2) (3) (4) (6) (7) (8) 65 0,01961 0,01857 0,01857 0,01662 0,02069 0,02069 66 0,01098 0,01872 0,01872 0,01465 0,17965 0,17965 67 0,02449 0,14781 0,14781 0,03231 -0,33843 0,33843

68 0,02951 0,04344 0,04344 0,03634 0,09392 0,09392 69 0,04302 -0,45990 0,45992 0,01224 -0,07136 0,07136 70 0,04364 0,37277 0,37277 0,01080 0,01345 0,01345 71 0,04629 0,10377 0,10377 0,02840 0,25779 0,25779 72 0,01047 -0,10130 0,10130 0,01135 -0,05665 0,05665 73 0,01068 -0,00680 0,00676 0,03500 0,10177 0,10177 74 0,04033 0,11208 0,11208 0,01012 0,21495 0,21495 75 0,01132 0,04520 0,04520 0,01696 0,05734 0,05734 76 0,01005 0,04618 0,04618 0,01005 -0,03121 0,03121 77 0,02698 -0,13870 0,13872 0,01069 -0,01691 0,01691 78 0,01095 0,01037 0,01037 0,01915 -0,03704 0,03704 79 0,01625 -0,09440 0,09436 0,01615 -0,06905 0,06905 80 0,01015 0,09754 0,09754 0,01353 0,04586 0,04586 81 0,01027 0,11544 0,11544 0,01666 -0,20377 0,20377 82 0,01726 -0,0563 0,05628 0,01180 0,10463 0,10463 83 0,01745 -0,0158 0,01585 0,01471 -0,03074 0,03074 84 0,01544 0,17552 0,17552 0,01106 -0,07279 0,07279 85 0,02898 0,08475 0,08475 0,01080 0,16092 0,16092 86 0,03129 -0,2145 0,21446 0,01528 0,09447 0,09447 87 0,01523 -0,0889 0,08888 0,01827 0,16438 0,16438 88 0,01420 0,06228 0,06228 0,01814 -0,19421 0,19421 89 0,01111 -0,1412 0,14122 0,01089 0,04942 0,04942 90 0,01026 0,02344 0,02344 0,01027 0,01961 0,01961 91 0,01120 0,15859 0,15859 0,02435 0,04956 0,04956 92 0,01181 -0,08360 0,08362 0,01202 -0,01581 0,01581 93 0,03223 -0,04550 0,04555 0,01109 0,08003 0,08003 94 0,02679 0,05579 0,05579 0,01920 -0,04653 0,04653 95 0,02546 0,04976 0,04976 0,01035 0,07959 0,07959 96 0,01030 0,00217 0,00217 0,01018 -0,02929 0,02929 97 0,02834 -0,01250 0,01249 0,01468 -0,05273 0,05273 98 0,01343 0,09032 0,09032 0,03191 0,25811 0,25811 99 0,11497 -2,54870 2,54872 0,01026 0,09383 0,09383 100 0,06222 0,41739 0,41739 0,18071 -0,38840 0,38840

Selanjutnya hasil pendeteksian pencilan pada Tabel 3.6 data yang termasuk pencilan untuk data kelompok 3 dilihat dari nilai leverage adalah data ke-1, 4, 26, 31, 33, 45, 62, 69, 70, 71, 74, 86, 93, 99 dan 100. Kemudian berdasarkan nilai |DfFITS| adalah data ke-31, 69, 70, 99 dan 100. Kemudian untuk


(43)

data kelompok 4 yang termasuk pencilan dilihat berdasarkan nilai leverageadalah data ke-10, 17, 18, 21, 22, 28, 29, 30, 39, 58, 62, 67, 68, 73, 98 dan 100. Sedangkan jika dilihat berdasarkan nilai |DfFITS| maka data yang termasuk pencilan adalah data ke-26, 34, 39, 41, 62, 64, 67 dan 100.

3.3 Metode Kuadrat Terkecil

Prinsip dasar metode kuadrat terkecil adalah untuk meminimumkan jumlah kuadrat sisaan dari model regresi yang terbentuk. Model regresi yang akan dibentuk yaitu regresi linier sederhana dengan persamaan sebagai berikut:

= �0+�1�� + ��

dengan model penaksir regresinya adalah:

��� = �̂0 +�̂1��

Berikut ini perhitungan nilai penaksir paramater �̂0 dan �̂1sehingga model penaksiran dengan metode kuadrat terkecil berdasarkan rumus pada (2.9) dan (2.10) adalah:

1. Model penaksir untuk persamaan regresi linier sederhana dengan metode kuadrat terkeciluntuk data kelompok 1 adalah:

Tabel 3.7 Perkalian Variabel Bebasdan Variabel Terikat untuk Data Kelompok 1

Data ke- X Y XY X2

(1) (2) (3) (4) (5)

1 24,74459 25,49922 630,96769 612,29483 2 25,94975 34,56932 897,06512 673,38942 3 27,21102 44,89028 1.221,51015 740,43945 4 20,06318 35,16295 705,48054 402,53115 5 39,26117 55,17023 2.166,04754 1.541,43910 6 30,95748 32,41692 1.003,54608 958,36526 7 38,69946 57,61637 2.229,72212 1.497,64800 8 24,71633 33,82560 836,04464 610,89697 9 32,22099 52,10756 1.678,95742 1.038,19240 10 35,63591 44,01251 1.568,42577 1.269,91770 11 22,38679 32,36768 724,60858 501,16841


(44)

(1) (2) (3) (4) (5) 12 22,7689 30,32549 690,47813 518,42290 13 15,72962 20,03307 315,11256 247,42082 14 46,59793 59,78697 2.785,94890 2.171,36670 15 24,11822 35,31412 851,71375 581,68858 16 31,83469 40,48123 1.288,70724 1.013,44740 17 35,79879 41,68456 1.492,25698 1.281,55370 18 29,08096 28,59296 831,51067 845,70194 19 22,46247 40,77281 915,85798 504,56251 20 40,42332 64,28321 2.598,54067 1.634,04450 21 25,65631 28,06235 719,97626 658,24599 22 36,98364 41,57874 1.537,73293 1.367,78960 23 38,07973 55,05067 2.096,31502 1.450,06610 24 23,29239 27,76766 646,77509 542,53520 25 37,11979 49,53376 1.838,68282 1.377,87870 26 44,72131 61,19221 2.736,59570 1.999,99530 27 47,48107 54,37607 2.581,83414 2.254,45210 28 39,76654 41,71652 1.658,92162 1.581,37760 29 40,77041 42,68569 1.740,31333 1.662,22650 30 34,22317 39,27434 1.344,09219 1.171,22510 31 22,84071 26,60309 607,63333 521,69785 32 40,90212 53,27272 2.178,96722 1.672,98370 33 29,02380 41,07071 1.192,02814 842,38114 34 21,46592 39,69259 852,03779 460,78551 35 40,58374 48,98613 1.988,04062 1.647,04010 36 46,87386 49,99053 2.343,24867 2.197,15840 37 29,39212 41,72213 1.226,30211 863,89695 38 28,13137 45,11287 1.269,08690 791,37409 39 42,35948 41,11566 1.741,63810 1.794,32580 40 46,81812 51,89220 2.429,49536 2.191,93670 41 11,45585 29,35569 336,29446 131,23655 42 22,95527 47,31418 1.086,10971 526,94437 43 44,16298 51,77527 2.286,55023 1.950,36900 44 32,11075 39,08733 1.255,12351 1.031,10020 45 30,92658 26,02104 804,74178 956,45329 46 32,09130 31,22431 1.002,02870 1.029,85140 47 28,80555 47,36764 1.364,45077 829,75942 48 23,12979 45,70526 1.057,15313 534,98723 49 30,24056 38,63304 1.168,28489 914,49147 50 35,34783 40,75501 1.440,60136 1.249,46940 51 30,76370 43,31536 1.332,54064 946,40505 52 5,946296 3,273160 19,46317 35,35844 53 30,28623 49,36050 1.494,94371 917,25597


(45)

(1) (2) (3) (4) (5) 54 17,33047 36,36425 630,20965 300,34533 55 24,27338 35,88895 871,14624 589,19717 56 27,98330 27,54033 770,66932 783,06491 57 28,46568 41,28822 1.175,29706 810,29471 58 18,44030 34,97145 644,88396 340,04459 59 34,23751 40,38583 1.382,71045 1.172,20730 60 22,64944 38,22674 865,81442 512,99722 61 37,97051 58,11627 2.206,70458 1.441,75970 62 30,98596 33,09461 1.025,46836 960,12990 63 27,81915 36,35357 1.011,32524 773,90488 64 30,38004 38,06357 1.156,37269 922,94683 65 33,01645 44,91400 1.482,90077 1.090,08600 66 27,78347 38,71382 1.075,60404 771,92093 67 19,24524 34,77113 669,17882 370,37930 68 36,47550 45,48658 1.659,14591 1.330,46220 69 30,75822 46,56205 1.432,16578 946,06797 70 36,90459 54,83079 2.023,50766 1.361,94850 71 12,01599 32,22616 387,22912 144,38392 72 31,47927 45,58298 1.434,91895 990,94463 73 29,25879 35,25151 1.031,41666 856,07697 74 23,99872 31,15234 747,61648 575,93875 75 29,04652 44,81313 1.301,66573 843,70050 76 23,64163 35,53205 840,035579 558,92667 77 28,95989 51,75827 1.498,91363 838,67494 78 15,94675 35,35665 563,82362 254,29877 79 29,55657 40,17118 1.187,32251 873,59107 80 27,62597 34,06391 941,04859 763,19411 81 21,14061 31,99603 676,41546 446,92531 82 28,11612 45,09487 1.267,89273 790,51604 83 29,45897 42,33661 1.247,19261 867,83068 84 29,29285 41,50928 1.215,92505 858,07089 85 27,71680 41,94250 1.162,51187 768,22084 86 23,22718 23,27884 540,70171 539,50175 87 15,72241 14,82477 233,08098 247,19402 88 29,71313 43,38035 1.288,96589 882,86998 89 38,58055 46,74921 1.803,61026 1.488,45910 90 36,27256 56,79541 2.060,11518 1.315,69880 91 38,16198 55,88744 2.132,77537 1.456,33670 92 35,94319 49,68207 1.785,73219 1.291,91310 93 44,36028 57,46872 2.549,32880 1.967,83460 94 41,41815 41,80003 1.731,27966 1.715,46310 95 22,10428 35,52095 785,16492 488,59906


(46)

(1) (2) (3) (4) (5) 96 34,66952 39,24439 1.360,58442 1.201,97580 97 29,75051 38,82558 1.155,08053 885,09261 98 23,90947 20,76767 496,54397 571,66261 99 27,00098 34,18201 922,94786 729,05297 100 50,00000 65,00000 3.250,00000 2.500,00000 Jumlah 3.028,179 4.080,565 13.0493,451 98.938,252 Rata-rata 30,29179 40,80563

�̂1 =

∑��=1���� −

∑��=1��∑��=1��

�−1

�[∑��=1��]2+∑��=1��2�

�̂1 =

130.493,451− �4.080,565�3.028,179

100 �

− 1

100(3.028,179)

2+ 98.938,252

�̂1 =

130.493,451−123.566,812

7.239,5927

�̂1 = 0,95677

dan

�̂0 =�� − �̂1��

�̂0 = 40,80563 −0,95677(30,28179)

�̂0 = 11,83277

Jadi, model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil adalah:

��� = �̂0 +�̂1��

��= 11,83277 + 0,95677�

2. Model penaksir untuk persamaan regresi linier sederhana dengan metode kuadrat terkecildata kelompok 2 adalah:

Tabel 3.8 Perkalian Variabel Bebasdan Variabel Terikat untuk Data Kelompok2

Data ke- X Y XY X2

(1) (2) (3) (4) (5)

1 53,34214 55,31352 2.950,54150 2.845,38390 2 26,25136 33,75330 886,07003 689,13390


(47)

(1) (2) (3) (4) (5) 3 10,88355 60,000 653,01300 118,45166 4 40,76054 54,02336 2.202,02130 1.661,42160 5 21,37247 27,99890 598,40565 456,78247 6 12,48756 15,29890 191,04593 155,93915 7 26,50885 34,85221 923,89201 702,71913 8 21,75967 18,75650 408,13525 473,48324 9 30,45736 37,20736 1.133,23800 927,65078 10 26,38167 38,39898 1.013,02920 695,99251 11 33,01517 31,34112 1.034,73240 1.090,00150 12 21,29077 28,52551 607,33007 453,29689 13 26,87104 30,61330 822,61121 722,05279 14 24,67059 31,52471 777,73320 608,63801 15 37,71788 48,91178 1.844,84860 1.422,63850 16 26,23789 24,41339 640,55584 688,42687 17 32,79418 46,12006 1.512,46950 1.075,45820 18 27,22830 31,31616 852,68580 741,38032 19 12,61360 19,00168 239,67959 159,10290 20 21,76610 27,67234 602,31892 473,76311 21 41,55421 40,02359 1.663,14870 1.726,75240 22 13,50086 24,14656 325,99933 182,27322 23 41,51401 44,53297 1.848,74220 1.723,41300 24 29,04005 34,38035 998,40708 843,32450 25 24,06255 35,49478 854,09492 579,00631 26 18,78519 25,17787 472,97107 352,88336 27 29,24101 33,21404 971,21208 855,03667 28 24,27260 31,75176 770,69777 589,15911 29 34,20891 44,09627 1.508,48530 1.170,24950 30 27,19714 33,80143 919,30222 739,68442 31 29,18364 46,05653 1.344,09720 851,68484 32 35,06222 36,68072 1.286,10750 1.229,35930 33 52,75262 56,86589 2.999,82470 2.782,83890 34 23,13152 31,78830 735,31170 535,06722 35 36,06689 48,89894 1.763,63270 1.300,82060 36 38,12793 45,79216 1.745,96030 1.453,73900 37 36,41086 41,71336 1.518,81930 1.325,75070 38 22,99420 17,04031 391,82830 528,73323 39 29,30558 41,17550 1.206,67190 858,81702 40 17,15792 30,09538 516,37412 294,39422 41 39,04430 48,14031 1.879,60470 1.524,45740 42 38,20033 45,15760 1.725,03520 1.459,26520 43 18,59265 28,92927 537,87179 345,68663 44 24,85160 38,79070 964,01096 617,60202


(48)

(1) (2) (3) (4) (5) 45 31,20303 29,77027 928,92263 973,62908 46 20,60756 24,35796 501,95812 424,67153 47 23,61711 26,76816 632,18658 557,76788 48 23,42851 41,85236 980,53843 548,89508 49 14,92175 23,09555 344,62602 222,65862 50 39,23124 45,53324 1.786,32550 1.539,09020 51 31,29257 47,09295 1.473,6594 979,22494 52 49,46080 52,59996 2.601,63610 2.446,37070 53 19,24513 37,20865 716,08531 370,37503 54 33,46781 43,7146 1.463,03190 1.120,09430 55 22,75473 39,05459 888,67665 517,77774 56 23,80648 35,21389 838,31877 566,74849 57 22,24937 28,09292 625,04977 495,03447 58 27,66147 31,34901 867,15970 765,15692 59 33,24595 45,56611 1.514,88860 1.105,29320 60 26,75824 34,38471 920,07432 716,00341 61 42,57739 53,04641 2.258,57770 1.812,83410 62 34,76587 42,00166 1.460,22430 1.208,66570 63 38,44170 39,94315 1.535,48260 1.477,7643 64 24,22177 47,13367 1.141,66090 586,69414 65 32,08192 41,88997 1.343,91070 1.029,24960 66 17,85944 27,90407 498,35106 318,95960 67 20,70278 33,78207 699,38276 428,60510 68 28,63277 41,10157 1.176,85180 819,83552 69 26,94137 43,91270 1.183,06830 725,83742 70 33,89437 37,57062 1.273,43250 1.148,82830 71 14,76380 31,46075 464,48022 217,96979 72 41,50944 45,05601 1.870,24970 1.723,03360 73 19,03085 22,79725 433,85105 362,17325 74 32,97805 45,70902 1.507,39430 1.087,5518 75 16,53484 23,24133 384,29167 273,40093 76 28,75271 26,19224 753,09788 826,71833 77 19,86411 33,74571 670,3285 394,58287 78 37,08485 46,72589 1.732,8226 1.375,2861 79 26,63582 34,48091 918,42731 709,46691 80 29,1598 42,28288 1.232,9603 850,29394 81 34,38659 33,77437 1.161,3854 1.182,4376 82 30,62378 50,86911 1.557,8044 937,8159 83 33,21825 26,06448 865,81641 1.103,4521 84 31,46558 57,19596 1.799,7041 990,08272 85 26,98805 29,53414 797,06885 728,35484 86 18,38541 19,09274 351,02785 338,02330


(49)

(1) (2) (3) (4) (5) 87 43,19519 63,27653 2.733,24170 1.865,82440 88 26,21121 30,97068 811,77900 687,02753 89 30,94748 44,23677 1.369,01660 957,74652 90 31,47820 53,20083 1.674,66640 990,87708 91 40,94829 46,22838 1.892,97310 1.676,76250 92 33,43278 43,09554 1.440,80370 1.117,75080 93 25,2288 40,35855 1.018,19780 636,49235 94 39,75549 38,53643 1.532,03470 1.580,49900 95 29,85806 55,72730 1.663,90910 891,50375 96 23,7398 34,06974 808,80881 563,57810 97 36,69636 53,22274 1.953,08080 1.346,62280 98 17,61479 30,88599 544,05023 310,28083 99 43,39995 51,29532 2.226,21430 1.883,55570 100 21,16273 32,37453 685,13344 447,86114 Jumlah 2.886,792 3.778,431 11.5351,270 90.994,808 Rata-rata 28,86792 37,78431

�̂1 =

115.351,27− �3.778,431�2.886,792

100 �

− 1

100(2.886,792)

2+ 90.994,808

�̂1 =

115.351,27−109.075,4

7.659,1466

�̂1 = 0,81939

dan

�̂0 = 37,78431−0,81939(28,86792)

�̂0 = 14,13014.

Jadi, model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil adalah:

��� = �̂0 +�̂1��

��= 14,13014 + 0,81939�

3. Model penaksir untuk persamaan regresi linier sederhana dengan metode kuadrat terkeciluntuk data kelompok 3 adalah:


(50)

untuk Data Kelompok3

Data ke- X Y XY X2

(1) (2) (3) (4) (5)

1 16,60849 36,78474 610,93895 275,84194 2 20,99639 40,84729 857,64557 440,84839 3 35,76885 42,97343 1.537,11010 1.279,41060 4 47,50563 59,98169 2.849,46780 2.256,78490 5 25,52563 43,70598 1.115,62270 651,55779 6 32,65760 43,52522 1.421,42910 1.066,51880 7 34,63220 49,00489 1.697,14720 1.199,38930 8 35,30503 43,83961 1.547,75860 1.246,44510 9 35,74264 37,17254 1.328,64470 1.277,53630 10 34,38473 45,17666 1.553,38740 1.182,30970 11 29,91268 23,16619 692,96274 894,76842 12 33,49929 44,06404 1.476,11400 1.122,20240 13 20,43011 36,55776 746,87900 417,38939 14 26,57563 44,49170 1.182,39490 706,26411 15 33,08429 46,09861 1.525,13970 1.094,57020 16 27,69186 52,26243 1.447,24380 766,83911 17 32,20885 39,98075 1.287,73390 1.037,41000 18 31,57274 23,02997 727,11929 996,83791 19 25,35646 34,97857 886,93258 642,95006 20 32,25274 39,92474 1.287,68210 1.040,23920 21 26,49884 42,13870 1.116,62660 702,18852 22 18,92887 39,16833 741,41230 358,30212 23 20,61227 31,18401 642,77325 424,86567 24 33,80334 39,58782 1.338,20050 1.142,66580 25 27,97932 24,24846 678,45551 782,84235 26 15,04196 20,75603 312,21142 226,26056 27 29,53431 36,99399 1.092,59210 872,27547 28 42,26966 45,44611 1.920,99170 1.786,72420 29 35,31827 42,19785 1.490,35520 1.247,38020 30 25,71962 27,28854 701,85078 661,49885 31 10,05847 14,91350 150,00701 101,17282 32 24,86370 43,03724 1.070,06500 618,20358 33 46,99963 55,72772 2.619,18240 2.208,96520 34 38,70424 57,32921 2.218,88340 1.498,01820 35 31,45907 41,66349 1.310,69470 989,67309 36 43,35575 48,17687 2.088,74420 1.879,72110 37 29,39431 40,21297 1.182,03260 864,02546 38 37,35673 43,39702 1.621,17060 1.395,52530


(51)

39 31,62098 40,42059 1.278,13860 999,88638 40 31,03240 51,63043 1.602,21620 963,00985 41 40,75897 32,67099 1.331,6360 1.661,29360 42 29,48946 30,84335 909,55377 869,62825 43 37,73232 44,15409 1.666,03630 1.423,72800 44 30,80963 17,44293 537,41010 949,23330 45 11,19797 24,03819 269,17889 125,39453 46 40,49931 46,90160 1.899,48260 1.640,19410 47 27,67897 36,79854 1.018,54580 766,12538 48 24,97487 33,10301 826,74342 623,74413 49 31,43041 35,67424 1.121,25580 987,87067 50 41,36430 53,94065 2.231,21740 1.711,00530 51 18,42851 26,32006 485,03943 339,60998 52 35,68648 51,18505 1.826,61420 1.273,52490 53 26,08254 32,85181 856,85857 680,29889 54 21,35571 37,15159 793,39858 456,06635 55 33,08343 39,24751 1.298,4422 1.094,5133 56 39,45915 49,36376 1.947,85200 1.557,0245 57 32,26371 46,58488 1.503,00100 1.040,94700 58 29,77752 31,85549 948,57749 886,70070 59 40,52360 39,00853 1.580,76610 1.642,16220 60 35,20957 39,93557 1.406,11410 1.239,71380 61 19,00883 24,70060 469,52945 361,33562 62 15,60287 36,05882 562,62113 243,44955 63 27,28392 33,82839 922,97117 744,41229 64 22,25923 44,21626 984,21997 495,47332 65 39,57518 46,56289 1.842,73480 1.566,19490 66 33,32347 42,77791 1.425,50840 1.110,45370 67 19,08901 39,89865 761,62579 364,39030 68 17,27758 32,60186 563,28130 298,51477 69 13,33586 8,986635 119,84451 177,84516 70 47,58513 65,97605 3.139,47910 2.264,34460 71 48,24881 55,37938 2.671,98910 2.327,94770 72 28,35026 29,01599 822,61092 803,73724 73 27,93389 36,96822 1.032,66630 780,30221 74 14,04516 33,04512 464,12394 197,26652 75 33,79499 45,29251 1.530,65980 1.142,10130 76 29,74637 42,89407 1.275,94280 884,84653 77 18,15913 23,56968 428,00481 329,75400 78 27,49074 38,14234 1.048,56120 755,74079 79 37,79537 37,62058 1.421,88390 1.428,49000 80 29,23991 47,06033 1.376,03970 854,97234


(52)

81 31,93475 50,37412 1.608,68490 1.019,82830 82 22,39107 30,01924 672,16286 501,36002 83 22,28542 32,68675 728,43784 496,63994 84 37,29705 56,30928 2.100,17000 1.391,06990 85 43,30303 52,26282 2.263,13830 1.875,15240 86 16,69417 19,44500 324,61817 278,69531 87 37,16748 37,36955 1.388,93200 1.381,42160 88 24,30172 39,76316 966,31316 590,57359 89 27,25944 25,22295 687,56349 743,07707 90 28,88071 40,26224 1.162,80200 834,09541 91 27,13596 50,27035 1.364,13420 736,36033 92 34,36808 35,02501 1.203,74240 1.181,16490 93 16,39683 27,57033 452,06600 268,85603 94 42,53627 50,37801 2.142,89280 1.809,33430 95 42,04388 49,79590 2.093,61280 1.767,68780 96 28,74595 38,29136 1.100,72160 826,32964 97 17,67922 30,00145 530,40229 312,55482 98 35,87051 49,82878 1.787,38380 1.286,69350 99 60,77202 10,77202 654,63741 3.693,23840 100 51,81691 67,62898 3.504,32470 2.684,99220 Jumlah 3.038,096 3.920,031 125.014,720 101.098,800 Rata-rata 30,38096 39,20031

�̂1 =

125.014,72− �3.920,031�3.038,096

100 �

1001 (3.038,096)2+ 101.098,8

�̂1 =

125.014,72−119.094,3

8.798,5109

�̂1 = 0,67289

dan

�̂0 = 39,20031−0,67289(30,38096)

�̂0 = 18,75735

Jadi, model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil adalah:

��� = �̂0 +�̂1��


(53)

4. Model penaksir untuk persamaan regresi linier sederhana dengan metode kuadrat terkeciluntuk data kelompok 4 adalah:

Tabel 3.10 Perkalian Variabel Bebasdan Variabel Terikat untuk Data Kelompok4

Data ke- X Y XY X2

(1) (2) (3) (4) (5)

1 27,01297 34,37026 928,44280 729,70055 2 27,48365 40,65417 1.117,32498 755,35102 3 30,13122 41,25211 1.242,97640 907,89042 4 26,94716 46,84614 1.262,37043 726,14943 5 23,57049 27,84918 656,41882 555,56800 6 35,11658 61,19475 2.148,95033 1.233,17420 7 35,66173 44,74047 1.595,52256 1.271,75900 8 37,11606 36,86673 1.368,34776 1.377,60190 9 29,16333 28,42095 828,84954 850,49982 10 45,31556 46,25168 2.095,92078 2.053,50000 11 27,24070 40,95848 1.115,73767 742,05574 12 26,08336 34,78232 907,23977 680,34167 13 30,53664 32,59427 995,31948 932,48638 14 31,01817 55,32270 1.716,00891 962,12687 15 28,68901 47,36818 1.358,94619 823,05929 16 34,29074 36,47278 1.250,67862 1.175,85480 17 14,65998 30,75306 450,83925 2.14,915010 18 17,48730 33,55697 586,82080 305,80566 19 30,12691 28,38285 855,08757 907,63071 20 29,94013 37,88557 1.134,29889 896,41138 21 18,34889 33,14828 608,23414 336,68176 22 17,55731 20,31404 356,65989 308,25913 23 35,22275 53,98391 1.901,46177 1.240,64210 24 33,70700 36,79642 1.240,29693 1.136,16180 25 36,80686 54,79573 2.016,85876 1.354,74490 26 24,09213 14,14140 340,69645 580,43073 27 21,79011 24,07100 524,50974 474,80889 28 16,80373 28,73012 482,77317 282,36534 29 42,04727 58,46106 2.458,12797 1.767,97290 30 42,48616 54,66238 2.322,39462 1.805,07380 31 25,04442 36,86439 923,24727 627,22297 32 29,71026 33,76228 1.003,08612 882,69955 33 31,39852 35,17709 1.104,50856 985,86706 34 36,52804 27,85017 1.017,31212 1.334,29770


(54)

(1) (2) (3) (4) (5) 35 33,00556 48,61517 1.604,57091 1.089,367 36 30,04381 48,39684 1.454,02547 902,63052 37 29,15504 33,19374 967,76482 850,01636 38 28,84795 33,89881 977,91118 832,20422 39 15,69807 3,91317 61,429217 246,42940 40 28,86969 38,89128 1.122,77920 833,45900 41 21,69983 53,31343 1.156,89237 470,88262 42 22,96354 40,09691 920,76699 527,32417 43 27,90382 49,89352 1.392,21980 778,62317 44 27,49237 46,43434 1.276,59006 755,83041 45 28,38288 45,79419 1.299,77100 805,58788 46 34,40308 44,40288 1.527,59583 1.183,57190 47 36,03373 43,03847 1.550,83661 1.298,42970 48 34,79871 40,71565 1.416,85210 1.210,95020 49 37,461 51,72199 1.937,55747 1.403,32650 50 20,22499 29,06981 587,93662 409,05022 51 19,2204 29,20167 561,26778 369,42378 52 27,11574 49,24007 1.335,18094 735,26336 53 24,55412 27,50239 675,29698 602,90481 54 28,36736 20,3742 577,96227 804,70711 55 26,24908 38,44191 1.009,06477 689,01420 56 27,13237 40,10253 1.088,07668 736,16550 57 22,41054 45,68497 1.023,82485 502,23230 58 45,72712 52,19577 2.386,76224 2.090,96950 59 17,86739 26,37361 471,22758 319,24363 60 34,86972 50,28486 1.753,41899 1.215,89740 61 30,08584 44,50899 1.339,09035 905,15777 62 16,30457 16,23349 264,68007 265,83900 63 20,45595 36,60848 748,86124 418,44589 64 39,62797 63,69288 2.524,01954 1.570,37600 65 23,06165 36,29985 837,13443 531,83970 66 34,26105 57,32702 1.964,08390 1.173,81950 67 40,3357 34,11586 1.376,08709 1.626,96870 68 41,30349 54,87393 2.266,48482 1.705,97830 69 25,60622 31,52352 807,19819 655,67850 70 31,27615 43,14879 1.349,52803 978,19756 71 18,99707 44,31468 841,84908 360,88867 72 31,90844 37,95349 1.211,03666 1.018,14850 73 17,31506 34,54753 598,19256 299,81130 74 29,98044 59,08406 1.771,36612 898,82678 75 22,90638 38,58058 883,74143 524,70224 76 28,5982 36,99601 1.058,01929 817,85704


(55)

(1) (2) (3) (4) (5) 77 27,18383 37,05706 1.007,35282 738,96061 78 21,99154 31,67718 696,62997 483,62783 79 35,02418 40,57255 1.421,02029 1.226,69320 80 24,70347 39,75115 981,99134 610,26143 81 23,04234 21,41075 493,35378 530,94943 82 25,97825 45,76960 1.189,01411 674,86947 83 34,28952 42,43533 1.455,08710 1.175,77120 84 26,71742 32,06980 856,82232 713,82053 85 31,26519 55,32701 1.729,80948 977,51211 86 23,71397 42,07665 997,80442 562,35237 87 35,96028 56,50225 2.031,83673 1.293,14170 88 35,90696 33,70689 1.210,31195 1.289,30980 89 26,92559 42,37279 1.140,91237 724,98740 90 30,38130 42,93243 1.304,34304 923,02339 91 38,12271 50,67338 1.931,80657 1.453,34100 92 25,78838 36,01918 928,87631 665,04054 93 31,62336 48,91462 1.546,84464 1.000,03690 94 36,33426 43,50603 1.580,75941 1.320,17840 95 27,74841 45,75707 1.269,68594 769,97426 96 28,15924 36,79820 1.036,20935 792,94280 97 34,27644 40,85242 1.400,27552 1.174,87430 98 18,07238 42,77081 772,97033 326,61092 99 30,36756 49,26409 1.496,03021 922,18870 100 60,08562 60,40087 3.629,22372 3.610,28170 Jumlah 2.915,319 4.018,501 122.004,196 90.595,901 Rata-rata 29,15319 40,18501

�̂1 =

122.004,196− �4.018,501�2.915,319

100 �

1001 (2.915,319)2+ 90.595,901

�̂1 =

122.004,196−4.852,04592

46,55

�̂1 = 0,86566

dan

�̂0 = 40,18501−0,86566(29,15319)

�̂0 = 14,94827

Jadi, model penduga (penaksir) untuk persamaan regresi linier sederhana dengan metode kuadrat terkecil adalah:


(1)

77

Lampiran1. Program untuk Membangkitkan Data Menggunakan

Software R

muX=30

muY=40

sigmaX=4

sigmaY=5

r=0,5

n=100

Data=matrix(0,n,2)

for(i in 1:n)

{

m=rnorm(1,0,2)

n=rnorm(1,0,2)

Data[i,1]=muX+sigmaX*m+n

Data[i,2]=muY+r*sigmaY*m+sigmaY*sqrt(1-r^2)*n

}

X=Data[,1]

Y=Data[,2]


(2)

Lampiran 2. Program MINITAB Regresi Robust DenganPembobot

Fungsi Huber (dengan r = 2,5)

macro

robust1 X.1 Y

mconstant n s g h r

mcolumn X.1 Y b e eb pseb w b0 b1

mmatrix

let n=count(Y)

regres Y 1 X.1;

coef b;

residual e;

constant;

brief 0.

let b0(1)=b(1)

let b1(1)=b(2)

DO h=1

let s=0.05553

let eb=(abs(e/s))

let r=2.5

DO g=1:n

IF abs(eb(g))<=r

let pseb(g)=eb(g)

ELSEIF eb(g)>r

let pseb(g)=r

ELSE

let pseb(g)=-r

ENDIF

ENDDO

print h

let w=pseb/eb

print w


(3)

79

regres Y 1 X.1;

weights w;

coef b;

residual e;

constant;

brief 0.

let b0(h)=b(1)

let b1(h)=b(2)

ENDDO

print b0 b1

ENDMACRO


(4)

Lampiran 3. Hasil Output Program MINITAB untuk masing-masing

Kelompok Data Berdasarkan Penaksir LMS

Hasil Output Data Kelompok 1

MTB > %D:\\Data1.txt C1 C2

Executing from file: D:\\Data1.txt

Data Display

h 1.00000

Data Display

w

0.01387 0.06637 0.01977 0.03358 0.02405 0.01536 0.01585 0.08387 0.01470 0.07246 0.15700 0.04217 0.02027 0.04119 0.34225 0.07669 0.03155 0.01255 0.01864 0.01008 0.01669 0.02462 0.02046 0.02186 0.06352 0.02113 0.04811 0.01700 0.01702 0.02618 0.01960 0.06021 0.09452 0.01896 0.08282 0.02075 0.07853 0.02181 0.01234 0.02932 0.02116 0.01027 0.06006 0.04003 0.00901 0.01227 0.01741 0.01182 0.06508 0.02834 0.06776 0.00974 0.01624 0.01746 0.16686 0.01254 0.06253 0.02526 0.03302 0.02939 0.01395 0.01656 0.06624 0.04895 0.09305 0.46507 0.03068 0.11150 0.02619 0.01806 0.01560 0.03823 0.03034 0.03812 0.02675 0.12860 0.01136 0.01679 1.00000 0.03305 1.00000 0.02182 0.05988 0.08415 0.03866 0.01288 0.01152 0.04451 0.06953 0.01353 0.01841 0.04013 0.04348 0.01437 0.05467 0.02410 0.09433 0.00996 0.03984 0.02605

Data Display

Row b0 b1 1 12.6608 0.930660

Hasil Output Data Kelompok 2

MTB > %D:\\Data2.txt C1 C2

Executing from file: D:\\Data2.txt

Data Display

h 1.00000

Data Display

w

0.27039 0.36177 0.01847 0.10512 0.18736 0.07532 0.68329 0.05170 0.36326 0.25743 0.06937 0.22382 0.12334 0.24205 0.17613 0.06087 0.13337 0.13321 0.12494 0.15903 0.08370 0.65260 0.18893 0.19257 0.41426 0.15713 0.14001 0.30111 0.35270 0.26118 0.08519 0.11048 1.00000 0.52690 0.13088 1.00000 0.30320 0.04285 0.22511 0.35814 0.33837 1.00000


(5)

81

1.00000 0.15886 0.06877 0.10254 0.10168 0.08008 0.20932 0.91918 0.09324 0.33172 0.09340 0.31588 0.10872 0.43293 0.15994 0.12534 0.16276 0.40856 0.16945 1.00000 0.12007 0.05189 0.46373 0.79383 0.25395 0.19450 0.08858 0.15758 0.13045 0.22117 0.09856 0.14981 0.15385 0.05938 0.20445 0.30909 0.46301 0.16027 0.08001 0.05862 0.04466 0.03950 0.10174 0.06758 0.04964 0.14723 0.14377 0.05142 0.46936 0.43460 0.12287 0.08357 0.03985 1.00000 0.07565 0.29395 0.42572 0.75534

Data Display

Row b0 b1 1 13.4752 0.833183

Hasil Output Data Kelompok 3

MTB > %D:\\Data3LMS.txt C1 C2

Executing from file: D:\\Data3LMS.txt

Data Display

h 1.00000

Data Display

w

0.01536 0.01322 0.71271 0.01137 0.01354 0.03768 0.01516 0.07938 0.01868 0.03207 0.00670 0.03806 0.02597 0.01340 0.02072 0.00708 0.23414 0.00620 0.12518 0.19670 0.01896 0.01372 0.07293 0.05495 0.00789 0.01296 0.06431 0.06001 0.32414 0.01199 0.00992 0.01394 0.01969 0.00840 0.06057 0.42787 0.06278 0.21168 0.27275 0.00878 0.00779 0.01357 1.00000 0.00477 0.04669 0.11789 0.18034 0.04279 0.02487 0.01432 0.02176 0.01251 0.03045 0.02615 0.05942 0.02596 0.01720 0.01517 0.01500 0.04187 0.01537 0.01547 0.03201 0.01004 0.08951 0.06588 0.01269 0.04744 0.00562 0.00692 0.02532 0.01194 0.17977 0.02176 0.02773 0.02554 0.01421 0.11868 0.01602 0.01220 0.01039 0.02766 0.09872 0.00845 0.02410 0.00998 0.01645 0.02262 0.00886 0.05081 0.00794 0.01535 0.04740 0.03510 0.03830 0.55038 0.16142 0.01518 0.00215 0.00752

Data Display

Row b0 b1 1 17.2401 0.723455


(6)

Hasil Output Data Kelompok 4

MTB > %D:\\Data4.txt C1 C2

Executing from file: D:\\Data4.txt

Data Display

h 1.00000

Data Display

w

0.036528 0.075598 0.656471 0.016886 0.019289 0.009132 0.134164

0.014173 0.012293 0.018263 0.059581 0.052718 0.016468 0.010702

0.019080 0.017737 0.046472 0.041700 0.011445 0.048555 0.062486

0.014718 0.016937 0.019742 0.018124 0.006681 0.014859 0.189316

0.020343 0.049301 0.612783 0.020960 0.020819 0.007731 0.028404

0.019450 0.020696 0.024033 0.005877 0.138055 0.007391 0.027462

0.013413 0.018827 0.023060 0.442926 0.046644 0.033221 0.033307

0.042737 0.060683 0.013377 0.016632 0.007565 0.187742 0.086825

0.012766 0.061938 0.035808 0.028095 0.041155 0.011281 0.036618

0.010022 0.104266 0.011377 0.009189 0.034699 0.025885 0.128528

0.011200 0.031349 0.031392 0.007959 0.038054 0.053432 0.101693

0.062698 0.030827 0.042341 0.010733 0.017368 0.065904 0.024094

0.010870 0.021928 0.013883 0.011743 0.035161 0.085926 0.053133

0.115498 0.021957 0.049985 0.021320 0.057285 0.038413 0.011884

0.018028 0.022058

Data Display

Row b0 b1 1 16.0339 0.829704