Pendeteksian dan perbaikan heteroskedastisitas dalam regresi linier menggunakan metode Weighted Least Squares (WLS) dan transformasi variabel.

(1)

PENDETEKSIAN DAN PERBAIKAN HETEROSKEDASTISITAS DALAM REGRESI LINIER MENGGUNAKAN METODE WEIGHTED LEAST

SQUARES (WLS) DAN TRANSFORMASI VARIABEL SKRIPSI

Diajukan untuk Memenuhi Salah Satu Syarat Memperoleh Gelar Sarjana Pendidikan Program Studi Pendidikan Matematika

Oleh:

Yeremia Wedaring Asmoro NIM: 091414062

PROGRAM STUDI PENDIDIKAN MATEMATIKA

JURUSAN PENDIDIKAN MATEMATIKA DAN ILMU PENGETAHUAN ALAM

FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN

UNIVERSITAS SANATA DHARMA

YOGYAKARTA


(2)

ABSTRAK

Yeremia Wedaring Asmoro. 2013. Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel. Skripsi. Program Studi Pendidikan Matematika, Jurusan Pendidikan Matematika dan Ilmu Pengetahuan Alam, Fakultas Keguruan dan Ilmu Pendidikan, Universitas Sanata Dharma Yogyakarta.

Salah satu asumsi penting yang harus terpenuhi jika ingin mendapatkan penaksir koefisien regresi yang Best Linear Unbiased Estmator (BLUE) adalah homoskedastisitas. Jika asumsi homoskedastisitas tidak terpenuhi, maka terjadi pelanggaran asumsi yang disebut heteroskedastisitas.

Konsekuensi adanya heteroskedastisitas antara lain, penaksir tetap linier dan tidak bias. Namun heteroskedastisitas dapat menyebabkan penaksir tidak mempunyai varian yang minimum sehingga penaksir tidak lagi BLUE. Akibat dari varians tidak lagi minimum yaitu menyebabkan perhitungan standard error metode OLS (Ordinary Least Squares) menjadi tidak bisa dipercaya kebenarannya. Sehingga interval estimasi maupun uji hipotesis yang didasarkan pada distribusi t maupun uji F tidak bisa lagi dipercaya untuk evaluasi hasil regresi.

Keberadaan heteroskedastisitas dapat dideteksi menggunakan metode grafis dan uji Rank Spearman. Heteroskedastisitas dapat diperbaiki menggunakan metode WLS (Weighted Least Squares) dan transformasi variabel sehingga penaksir dapat bersifat BLUE (Best Linear Unbiased Estimator).

Kata kunci: Heteroskedastisitas, Regresi linier, Weighted Least Squares (WLS), Transformasi variabel.


(3)

ABSTRACT

Yeremia Wedaring Asmoro. 2013. Detecting and Improving the Heteroskedasticity of Linear Regression by using Weighted Least Squares (WLS) and Transformation Variable Methods. A Thesis. Mathematic Education Study Program, Departement of Mathematic Education Study Program and Science, Faculty Of Teachers Training And Education, Sanata Dharma University Yogyakarta.

One of the important assumption which have to be hold to estimate the regression coefficient which is Best Linier Unbiased Estimator (BLUE) is homoskedasticity. If the assumption of homoskedasticity is not hold, it will violate the assumption, which is called heteroskedasticity.

The consequences of heteroskedasticity are; the estimator is still linear and unbiased. Nevertheless, heteroskedasticity can cause the estimator does not have minimum variance so the estimator is no longer BLUE. It implies the standart error counted by OLS (Ordinary Least Squares) method cannot be trusted. So the interval estimation or hypothesis test based on t distribution or F test cannot be trusted to evaluate the regression result.

The existance of heteroskedasticity can be detected by using graphic method and Rank Spearman test. Heteroskedasticity can be improved by using WLS (Weighted Least Squares) and transformation variable methods. Finally,the estimate is BLUE.

Keywords: Heteroskedasticity, linear regression, Weighted Least Squares (WLS), transformation variable.


(4)

i

(WLS) DAN TRANSFORMASI VARIABEL SKRIPSI

Diajukan untuk Memenuhi Salah Satu Syarat Memperoleh Gelar Sarjana Pendidikan Program Studi Pendidikan Matematika

Oleh:

Yeremia Wedaring Asmoro NIM: 091414062

PROGRAM STUDI PENDIDIKAN MATEMATIKA

JURUSAN PENDIDIKAN MATEMATIKA DAN ILMU PENGETAHUAN ALAM

FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN

UNIVERSITAS SANATA DHARMA

YOGYAKARTA


(5)

(6)

(7)

iv

Tulisan ini dipersembahkan untuk mereka yang ku cintai

Teruntuk:

TUHAN YESUS KRISTUS yang selalu ada saat penulis membutuhkan pertolongan-Nya

Bapak , Bunda, kakak dan adik tercinta yang selalu dan tak pernah lelah memberi motivasi dan keceriaan selama penulisan skripsi ini

Sahabat-sahabatku tercinta yang tak pernah lelah memberi semangat dan motivasi serta kesabaran dalam mendengar keluh kesah penulis selama penulisan skripsi ini

Almamater Universitas Sanata Dharma Yogyakarta

MOTTO HIDUP


(8)

(9)

(10)

vii ABSTRAK

Yeremia Wedaring Asmoro. 2013. Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel. Skripsi. Program Studi Pendidikan Matematika, Jurusan Pendidikan Matematika dan Ilmu Pengetahuan Alam, Fakultas Keguruan dan Ilmu Pendidikan, Universitas Sanata Dharma Yogyakarta.

Salah satu asumsi penting yang harus terpenuhi jika ingin mendapatkan penaksir koefisien regresi yang Best Linear Unbiased Estmator (BLUE) adalah homoskedastisitas. Jika asumsi homoskedastisitas tidak terpenuhi, maka terjadi pelanggaran asumsi yang disebut heteroskedastisitas.

Konsekuensi adanya heteroskedastisitas antara lain, penaksir tetap linier dan tidak bias. Namun heteroskedastisitas dapat menyebabkan penaksir tidak mempunyai varian yang minimum sehingga penaksir tidak lagi BLUE. Akibat dari varians tidak lagi minimum yaitu menyebabkan perhitungan standard error metode OLS (Ordinary Least Squares) menjadi tidak bisa dipercaya kebenarannya. Sehingga interval estimasi maupun uji hipotesis yang didasarkan pada distribusi t maupun uji F tidak bisa lagi dipercaya untuk evaluasi hasil regresi.

Keberadaan heteroskedastisitas dapat dideteksi menggunakan metode grafis dan uji Rank Spearman. Heteroskedastisitas dapat diperbaiki menggunakan metode WLS (Weighted Least Squares) dan transformasi variabel sehingga penaksir dapat bersifat BLUE (Best Linear Unbiased Estimator).

Kata kunci: Heteroskedastisitas, Regresi linier, Weighted Least Squares (WLS), Transformasi variabel.


(11)

viii ABSTRACT

Yeremia Wedaring Asmoro. 2013. Detecting and Improving the Heteroskedasticity of Linear Regression by using Weighted Least Squares (WLS) and Transformation Variable Methods. A Thesis. Mathematic Education Study Program, Departement of Mathematic Education Study Program and Science, Faculty Of Teachers Training And Education, Sanata Dharma University Yogyakarta.

One of the important assumption which have to be hold to estimate the regression coefficient which is Best Linier Unbiased Estimator (BLUE) is homoskedasticity. If the assumption of homoskedasticity is not hold, it will violate the assumption, which is called heteroskedasticity.

The consequences of heteroskedasticity are; the estimator is still linear and unbiased. Nevertheless, heteroskedasticity can cause the estimator does not have minimum variance so the estimator is no longer BLUE. It implies the standart error counted by OLS (Ordinary Least Squares) method cannot be trusted. So the interval estimation or hypothesis test based on t distribution or F test cannot be trusted to evaluate the regression result.

The existance of heteroskedasticity can be detected by using graphic method and Rank Spearman test. Heteroskedasticity can be improved by using WLS (Weighted Least Squares) and transformation variable methods. Finally,the estimate is BLUE.

Keywords: Heteroskedasticity, linear regression, Weighted Least Squares (WLS), transformation variable.


(12)

ix

KATA PENGANTAR

Puji dan syukur penulis panjatkan kepada Tuhan Yesus Kristus atas Kasih dan limpahan berkatNya sehingga penulis dapat menyelesaikan skripsi yang berjudul “Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel”

Dalam proses penulisan skripsi ini, penulis mengalami banyak kesulitan dan hambatan. Namun berkat bantuan dan dukungan dari berbagai pihak, akhirnya dapat terselesaikan juga. Oleh karena itu, penulis ingin mengucapkan terimakasih kepada:

1. Ibu Ch. Enny Murwaningtyas, S.Si, M.Si, selaku dosen pembimbing yang telah meluangkan waktu, tenaga, pikiran serta kesabaran dalam membimbing, mengarahkan serta mendampingi penulis selama proses penyusunan skripsi.

2. Bapak Hongki Julie, S.Pd., M.Si. yang telah membantu dalam penulisan skripsi ini.

3. Bapak Dr. Marcellinus Andy Rudhito, S.Pd. selaku ketua program studi Pendidikan Matematika yang telah banyak membimbing penulis selama kuliah.

4. Bapak Dominikus Arif Budi Prasetyo M.Si. selaku dosen pemimbing akademik yang telah banyak membimbing dan memberi masukan selama penulis kuliah.


(13)

x

5. Bapak Drs. Sukardjono, M.Pd. dan Sutrisno, M.Sc. yang telah menjadi dosen penguji skripsi, terimakasih atas bimbingan dan sarannya selama ini.

6. Bapak ibu Dosen pendidikan matematika yang telah banyak memberikan bekal ilmu yang sangat berguna bagi penulis.

7. Ibu Heny, Bapak Sugeng dan Mas Arif di sekertariat JPMIPA atas segala bantuan dan kerja samanya slama penulis kuliah.

8. Bundaku tercinta Yuni Lestari, beserta Bapak Nanik Santoso yang telah memberikan smangat, dukungan, nasihat serta doa yang tak henti untuk penulis.

9. Saudara-saudaraku terkasih, Aditya Lukas Santoso dan Yehezkiel Anugrah Putra Pamungkas yang telah memberikan keceriaan dan semangat bagi penulis.

10. Sahabat-sahabatku tersayang Brigita Padhang, Maria Ursula, Helena Agustin dan Yustina Dayu yang telah memberikan semangat, keceriaan dan perjalanan hidup yang sangat berarti.

11. Teman-teman Pendidikan Matematika angkatan 2009 atas kebersamaan dan keceriaan selama penulis menempuh kuliah.


(14)

xi DAFTAR ISI

HALAMAN JUDUL ... i

HALAMAN PERSETUJUAN PEMBIMBING ... ii

HALAMAN PENGESAHAN ... iii

LEMBAR PERSEMBAHAN ... iv

PERNYATAAN KEASLIAN KARYA ... v

LEMBAR PERNYATAAN PERSETUJUAN KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS ... vi

ABSTRAK ... vii

ABSTRACT ... viii

KATA PENGANTAR ... ix

DAFTAR ISI ... xi

DAFTAR TABEL ... xiii

DAFTAR GAMBAR ... xiv

BAB I. PENDAHULUAN ... 1

A. Latar Belakang ... 1

B. Rumusan Masalah ... 2

C. Tujuan penulisan ... 3

D. Pembatasan Masalah ... 3

E. Metode Pembahasan ... 3


(15)

xii

BAB II. LANDASAN TEORI ... 5

A. Probabilitas ... 6

B. Variabel Acak / Variabel Random ... 7

C. Matriks ... 17

BAB III. ANALISIS REGRESI LINIER... 27

A. Analisis Regresi Linier Sederhana ... 27

B. Analisis Regresi Linier Berganda ... 50

C. Inferensi Analisis Regresi Linier ... 70

BAB IV. PENDETEKSIAN DAN PERBAIKAN HETEROSKEDASTISITAS DALAM REGRESI LINIER MENGGUNAKAN WLS DAN TRANSFORMASI VARIABEL ... 76

A. Sifat Alamiah Heteroskedastisitas... 76

B. Konsekuensi Keberadaan Heteroskedastisitas ... 78

C. Cara Pendeteksian Keberadaan Heteroskedastisitas ... 80

D. Cara Memperbaiki Kondisi Heteroskedastisitas ... 87

BAB V. KESIMPULAN ... 103

DAFTAR PUSTAKA ... 105


(16)

xiii

DAFTAR TABEL

Tabel 3.1 Data banyaknya suatu senyawa kimia ... 48

Tabel 3.2 Data residual ... 50

Tabel 4.1 Data harga saham dan konsumen setelah perang dunia II ... 83

Tabel 4.2 Hasil uji Rank Spearman menggunakan SPSS ... 85

Tabel 4.3 Data gaji rata-rata ahli ekonomi yang diklasifikasikan sesuai dengan gelar yang dicapai ... 86

Tabel 4.4 Hasil pengujian Rank Spearman melalui SPSS ... 87

Tabel 4.5 Data mengenai pengeluaran per kapita negara dan pendapatan perkapita……….. 93


(17)

xiv

DAFTAR GAMBAR

Gambar 3.1 Pembagian variasi menjadi dua komponen ... 48

Gambar 4.1 Homoskedastisitas ... 76

Gambar 4.2 Heteroskedastisitas ... 77

Gambar 4.3 Pola hipotesis residual kuadrat yang ditaksir ... 79

Gambar 4.4 Diagram pencar untuk contoh 4.1 ... 84

Gambar 4.5 Diagram pencar yang diperoleh pada contoh 4.2 ... 86

Gambar 4.6 Error varians proporsional terhadap ��2……….. …92

Gambar 4.7 Error variance proporsional terhadap �� ... 97


(18)

1

BAB I PENDAHULUAN

A. LATAR BELAKANG

Matematika merupakan ilmu yang mendasari berbagai macam ilmu, antara lain ekonomi, sosial, kesehatan dan lain-lain. Matematika dapat diaplikasikan dengan ilmu-ilmu lain, sehingga muncullah matematika ekonomi dan matematika statistik. Suatu cabang ilmu yang menggunakan campuran teori ekonomi, matematika ekonomi, matematika statistika, statistika ekonomi adalah ekonometrika. Ekonometrika didefinisikan sebagai hasil dari sebuah cara pandang mengenai peran ilmu ekonomi, berisi aplikasi matematika statistik pada data ekonomi untuk meminjamkan dukungan empiris pada model-model yang dibangun oleh matematika ekonomi dan untuk mendapatkan hasil empiris.

Dalam ekonometrika, alat utama yang digunakan adalah regresi. Dalam penulisan ini hanya akan dibahas regresi linier, yaitu regresi linier sederhana dan regresi linier berganda. Analisis regresi dapat dikatakan sebagai usaha untuk meramalkan perubahan, sehigga regresi dapat mengungkapkan keingintahuan apa yang akan terjadi di massa depan untuk memberikan sumbangan dalam menentukan keputusan yang terbaik. Regresi dapat dinyatakan dengan rumus:

� = �0+�1 �1 +�2 �2+⋯+�� �� +��

dengan Y adalah variabel terikat, X adalah variabel bebas, � adalah parameter dan

adalah error (kesalahan residual). Sedangkan k menyatakan banyaknya variabel bebas serta i menyatakan pengamatan.


(19)

Dalam regresi linier, agar taksiran parameter mempunyai sifat BLUE (Best Linear Unbiased Estimator) maka model regresi harus memenuhi beberapa asumsi sehingga estimasi yang akan dilakukan dapat menghasilkan hasil yang benar dan efektif. Salah satu asumsi yang harus dipenuhi adalah asumsi homoskedastisitas, jika asumsi homoskedastisitas tidak terpenuhi maka akan terjadi heteroskedastisitas. Heteroskedastisitas adalah kondisi dimana variansi error ada yang tidak sama dalam setiap pengamatan. Variansi error ada yang tidak sama menyebabkan kesimpulan yang dicapai tidak valid. Sehingga jika terjadi kondisi heteroskedastisitas maka harus diatasi agar kesimpulan yang dicapai valid.

Berdasarkan latar belakang di atas, penulis mengambil judul

“Pendeteksian dan Perbaikan Heteroskedastisitas dalam Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel”.

B. RUMUSAN MASALAH

Berdasarkan latar belakang di atas, pokok-pokok perumusan masalah yang akan ditulis yaitu :

1. Apa yang dimaksud dengan heteroskedastisitas dan konsekuensinya?

2. Bagaimana mendeteksi keberadaan heteroskedastisitas pada model regresi linier?


(20)

C. TUJUAN PENULISAN

Berdasarkan rumusan masalah di atas maka tujuan dari penulisan ini adalah untuk:

1. Memahami apa itu heteroskedastisitas dan konsekuensinya.

2. Memahami cara mendeteksi keberadaan heteroskedastisitas pada model regresi linier.

3. Memahami cara memperbaiki heteroskedastisitas pada model regresi linier.

D. PEMBATASAN MASALAH

Pembatasan masalah yang dibahas dalam penulisan ini yaitu:

1. Dalam mendeteksi keberadaan heteroskedastisitas digunakan metode grafis dan dan uji Rank Spearman.

2. Metode yang digunakan untuk memperbaiki keberadaan heteroskedstisitas adalah WLS (Weighted Least Square) dan transformasi variabel.

E. METODE PEMBAHASAN

Metode yang digunakan dalam penulisan skripsi ini adalah metode studi pustaka atau studi literatur. Studi literatur dilakukan dengan mempelajari materi dari buku-buku acuan yang berkaitan dengan masalah ini. Jadi dalam skripsi ini tidak ada penemuan baru.


(21)

F. SISTEMATIKA PEMBAHASAN

Penulisan ini dibagi menjad lima bab, setiap bab dibagi menjadi beberapa sub bab. Adapun sistematika penulisan ini adalah sebagai berikut:

Bab I merupakan bagian awal dari penulisan skripsi ini, berisi latar belakang masalah, rumusan masalah, tujuan penelitian, pembatasan masalah, manfaat penelitian serta sistematika penulisan.

Bab II menjelaskan tentang teori yang menjadi dasar dalam penulisan skripsi ini.

Bab III berisi tentang analisis regresi linier sederhana, analisis regresi linier berganda serta inferensi analisis regresi.

Bab IV berisi penjelasan tentang heteroskedastisitas, cara pendeteksian dan cara memperbaiki heteroskedstisitas.


(22)

5 BAB II

LANDASAN TEORI

A. Probabilitas

Pada sekali pelemparan sebuah mata uang logam ada dua hasil yang mungkin muncul, yaitu gambar (G) dan angka (A). Dua hasil yang mungkin ini dapat dihimpun menjadi T = {G, A}. Kumpulan (himpunan) dari semua hasil yang mungkin muncul atau terjadi pada suatu percobaan tersebut adalah ruang sampel, yang dilambangkan dengan himpunan T, sedangkan anggota dari T adalah titik sampel. Titik sampel yang dihasilkan pada percobaan sekali pelemparan sebuah mata uang logam adalah G dan A.

Definisi 2.1 (Walpole dan Myers, 1995)

Ruang sampel merupakan himpunan semua hasil yang mungkin dari suatu percobaan statistika, biasanya dilambangkan dengan huruf T .

Contoh 2.1

Tentukan ruang sampel pada percobaan pelemparan dua mata uang logam! Jawab :

Hasil yang mungkin pada percobaan pelemparan dua buah mata uang logam adalah GG, GA, AG, AA. Dapat ditulis T = { GG, GA, AG, AA}


(23)

Definisi 2.2 (Salam, 1989)

Titik sampel adalah setiap kemungkinan hasil dalam suatu ruang sampel atau anggota ruang sampel.

Contoh 2.2

Tentukan titik sampel pada percobaan sekali pelemparan sebuah dadu bersisi enam!

Jawab :

Titik sampel pada percobaan tersebut adalah: 1, 2, 3, 4, 5, 6.

Dalam percobaan sekali pelemparan sebuah mata uang logam, jika muncul gambar {G}, hasil yang muncul dinamakan kejadian munculnya G, yang dapat dinyatakan dalam suatu himpunan A = {G} yang merupakan himpunan bagian dari T.

Definisi 2.3 (Walpole dan Myers, 1995)

Suatu kejadian adalah himpunan bagian dari ruang sampel.

Contoh 2.3

Tentukan A jika A menyatakan suatu himpunan muncul mata dadu angka genap pada sekali pelemparan mata dadu sisi enam!

Jawab :


(24)

Definisi 2.4 (Salam, 1989)

Misalkan A merupakan sebuah kejadian dalam sebuah ruang sampel. Dengan P(A) melambangkan probabilitas kejadian A, akan ditekankan proporsi kemungkinan kejadian A akan muncul dalam sebuah percobaan yang dilakukan secara berulang dalam sebuah eksperimen. Jika (�) adalah banyaknya seluruh kemungkinan kemunculan hasil percobaan yang sama pada sebuah percobaan dan jika ( ) adalah banyaknya kejadian A yang cenderung sering muncul, didefinisikan frekuensi relatif muncul A adalah:

= ( )

(�)

Untuk nilai n yang besar dan mendekati ∞, frekuensi relatif ini akan memberikan sebuah pendekatan yang sangat bagus mengenai probabilitas A. Probabilitas terjadinya kejadian A dirumuskan:

� = lim →∞

( ) (�)

Sifat dari probabilitas: 0≤ �( )≤ 1 untuk setiap A.

B. Peubah Acak / Variabel Random

Dalam suatu percobaan, keterangan numerik hasil percobaan sering dibahas. Misalnya, ruang sampel yang rinci bagi percobaan pelemparan uang logam sebanyak tiga kali dapat ditulis T = {AAA, GGG, AGG, GAA, AGA, GAG, AAG, GGA}. Bila yang dibutuhkan adalah banyaknya sisi gambar muncul,


(25)

maka nilai numerik 0, 1, 2, 3 dapat diberikan pada setiap titik sampel. Bilangan-bilangan 0, 1, 2, 3 merupakan besaran acak yang nilainya ditentukan oleh hasil percobaan. Nilai-nilai tersebut dapat dipandang sebagai nilai-nilai yang dapat diambil oleh suatu variabel random atau variabel random X tertentu, yang dalam hal ini menyatakan barapa kali sisi gambar muncul bila sekeping uang logam dilemparkan sebanyak tiga kali.

Definisi 2.5 (Walpole dan Myers, 1995)

Peubah acak ialah suatu fungsi yang mengaitkan suatu bilangan real pada setiap unsur dalam ruang sampel.

Berdasarkan banyaknya kemungkinan hasil suatu percobaan, ada dua macam variabel random yaitu, variabel random diskrit dan variabel random kontinu. Variabel random diskrit adalah variabel random yang hanya memiliki nilai tertentu, yaitu merupakan bilangan bulat dan asli. Dalam praktek, variabel random digunakan untuk data yang berupa cacahan. Variabel random kontinu adalah variabel random yang memiliki nilai-nilai pada suatu interval tertentu, nilainya dapat berupa bilangan bulat maupun pecahan. Dalam praktek , variabel random kontinu digunakan untuk data yang diukur.

Nilai harapan / ekspektasi merupakan salah satu konsep yang berkaitan dengan variabel random. Nilai harapan variabel random digunakan untuk mendefinisikan rataan dari variabel random. Kata harapan mempunyai arti


(26)

harapan dalam jangka panjang, misalnya dari percobaan yang diulang berkali-kali. Nilai harapan variabel random X dilambangkan dengan E(X).

Definisi 2.6 (Walpole dan Myers, 1995)

Misalkan X suatu peubah acak dengan distribusi peluang f(x). Nilai harapan X adalah:

� =

. , .

+∞

−∞

,

Sifat-sifat nilai harapan:

Teorema 2.1 (Walpole & Myers, 1995: 113)

Jika dan adalah konstanta, maka � + = � + (2.1) Bukti:

Jika X diskrit:

� + = +

= + ( )

= + ( )

� + = � + bila X kontinu maka


(27)

= +

� + = aE(X) + b ▄

Teorema 2.2 (Walpole & Myers, 1995)

Jika X dan Y adalah variabel random bebas, maka

� = � �( ) (2.2) Bila X diskrit

Bukti:

� = � �( )

= ,

Karena X dan Y tidak saling bergantung maka probabilitas gabungannya adalah:

, = ( )

sehingga

� = ( ) = ( )

= � �( ) ▄ bila X kontinu

Bukti:

� = −∞−∞∞ , karena X dan Y bebas, maka dapat ditulis


(28)

dengan dan ( ) menyatakan masing-masing distribusi X dan Y, maka

� = −∞−∞∞ ,

= −∞∞ ( ) −∞∞ ( )

=� �( ) ▄

Teorema 2.3 (Walpole & Myers, 1995)

Nilai harapan suatu konstanta adalah sama dengan konstanta itu sendiri, yaitu � = (2.3) Bukti:

Akibat dari Teorema 2.1, jika = 0 maka

� =

= ( )

= ( )

� =

bila kontinu

� =

=

� = b ▄


(29)

Teorema 2.4 (Walpole & Myers, 1995)

Jumlah nilai harapan atau selisih dua atau lebih fungsi suatu peubah acak X sama dengan jumlah atau selisih nilai harapan fungsi tersebut, yaitu

� ( ) ± ( ) = � ( ) ±� ( ) (2.4)

Bukti:

Jika X diskrit maka

� ( ) ± ( ) = ( ) ± ( )

= ( ) ± ( )

= � ( ) ±� ( ) Jika X kontinu maka

� ( ) ± ( ) = ±

∞ −∞

( )

= ∞ −∞

± ∞ −∞

=� ( ) ±� ( ) ▄

Selain nilai harapan, variansi juga termasuk salah satu konsep yang berkaitan dengan variabel random.

Definisi 2.7 (Walpole & Myers, 1995)

Misalkan X peubah acak dengan distribusi peluang f(x) dan rataan . Variansi X adalah:


(30)

� = �2 = � − 2 = −−∞∞ 2 bila X kontinu

Sifat-sifat Varians:

Teorema 2.5 (Walpole, 1995)

Variansi variabel random X adalah: �2 = � 2 − �2( )

=� 2 − 2 (2.5) Bukti:

Berdasarkan Teorema 2.1 dan Definisi 2.7, maka

�2 =� − 2

= � 2 −2 + 2

= � 2 −2 + 2 = � 2 −2 2+ 2 = � 2 − 2 ▄

Teorema 2.6 (Walpole, 1992) Jika a dan b adalah konstanta, maka

+ = 2 ( ) (2.6) Bukti:

Jika E = , maka � + = + . Oleh sebab itu,

� + =� + − − 2

= � − 2

= 2� − 2


(31)

Teorema 2.7 (Walpole, 1995)

Jika X dan Y adalah variabel random bebas, maka

+ = + (2.7) Bukti:

Jika � = 1 dan � = 2 maka � + = 1 + 2, oleh sebab itu Var (X+Y) = � + − 12 2

= � − 1 2+ − 2 2+ 2 − 1 ( − 2) = � + � + 2� − 1 ( − 2) Karena X dan Y bebas, maka

� − 1 ( − 2) = � − 1 �( − 2) = 1− 1 ( 2− 2) = 0

Sehingga � + = � + � ( )

Definisi 2.8 (Walpole dan Myers, 1995)

Misalkan X dan Y peubah acak dengan distribusi peluang gabungan f(x,y). Kovariansi X dan Y adalah:

bila X dan Y diskrit

, = � − − = − − ( , )


(32)

, = � − − = − − ( , ) ∞

−∞ ∞ −∞

Bila nilai X yang besar sering berkaitan dengan nilai Y yang besar atau nilai X yang kecil berkaitan dengan nilai Y yang kecil maka nilai − positif akan berkaitan dengan nilai − yang positif dan nilai negatif − akan berkaitan dengan nilai negatif − . Jadi − − cenderung positif. Jadi tanda kovariansi (+ atau -) menunjukkan apakah hubungan antara dua variabel random yang berkaitan positif atau negarif. Kovarians bernilai positif jika rata-rata pada variabel random X dan Y bergerak dalam arah yang sama, dan bernilai negatif jika rata-rata variabel random X dan Y bergerak berlawanan arah. Bila X dan Y adalah bebas, maka kovariansnya nol.

Distribusi normal termasuk dalam landasan teori karena berguna dalam pembahasan asumsi kenormalan pada regresi linier. Distribusi normal merupakan distribusi kontinu yang mensyaratkan variabel yang diukur harus kontinu . Probabilitas suatu peristiwa yang berdistribusi normal dari variabel acak kontinu ditunjukkan oleh daerah di bawah kurva normal. Pada suatu observasi, berapapun nilai rata-rata dan nilai standar deviasinya, luas seluruh daerah di bawah kurva normal adalah 1.

Distribusi probabilitas normal untuk setiap nilai x yang membentuk kurva normal mempunyai persamaan umum:

= 1

� 2�


(33)

µ = rata-rata populasi

σ = simpangan baku populasi

π = konstanta yang nilainya mendekati 3,14159 e = konstanta yang nilainya mendekati 2,7182

x = setiap nilai variabel acak kontinu yang besarnya - ∞ < x < +∞.

Distribusi normal f(x) didefinisikan pada interval terbuka - ∞ < x < +∞. Distribusi normal dengan parameter µ dan σ2

biasanya ditulis N (µ , σ2). Dengan memperhatikan persamaan umum dan grafik distribusi normal f(x), tampak bahwa bentuk kurva normal ditentukan oleh dua parameter, yaitu rata-rata (µ) dan simpangan baku (σ). Bila nilai σ mengecil, bentuk kurva akan lebih rapat dan semakin runcing dan sebagian besar nilai x akan berkumpul atau mendekati rata-rata µ. Sebaliknya jika nilai σ semakin besar, bentuk kurva akan semakin besar, bentuk kurva akan semakin renggang dan tumpul dimana sebagian besar nilai-nilai x akan menjauhi nilai-nilai rata-rata µ.

Sifat-sifat distribusi normal:

a. Grafik simetri terhadap garis tegak x = µ

b. Grafik selalu berada di atas sumbu x atau f(x) > 0 c. Mempunyai 1 nilai modus

d. Luas daerah di bawah kurva f(x) dan di atas sumbu x sama dengan 1 yaitu

P (-∞ < x < +∞) = 1

� 2�

−12µ 2 ∞


(34)

Distribusi normal jika digambarkan dalam grafik maka:

C. Matriks

Agar lebih mudah dalam penulisan dan pembahasan analisis regresi linier majemuk maka digunakanlah dasar-dasar aljabar matriks.

Definisi 2.10 (Gujarati, 2012)

Matriks adalah kelompok bilangan (real dan kompleks) yang disusun dalam suatu jajaran berbentuk persegi atau persegi panjang yang terdiri atas baris dan kolom.

Matriks dapat dinotasikan dengan huruf kapital yang tercetak tebal, serta dalam penulisannya menggunakan kurung biasa atau kurung siku. Ordo matriks atau ukuran matriks merupakan banyaknya baris dan banyaknya kolom yang terdapat dalam matriks.

Secara umum, matriks A yang berukuran × dituliskan:

= =

11 12 … 1

21 22 … 2

1 1 …

X �


(35)

dimana adalah unsur yang muncul dalam baris ke I dan kolom ke j dari A dan

adalah pernyataan secara ringkas untuk matriks A yang unsur khasnya

adalah .

Contoh 2.4

Beri contoh matriks A yang berukuran 3 x 4! Jawab:

3 4 =

11 13 22 25

4 7 12 34

8 18 9 17

Dalam penulisan ini, tipe-tipe matriks yang digunakan antara lain: a. Matriks persegi

Matriks persegi merupakan matriks yang memiliki jumlah baris dan jumlah kolom yang sama.

Contoh:

= 1 3

4 2 =

1 5 7

3 8 9

11 4 66

b. Matriks diagonal

Matriks diagonal merupakan matriks persegi dengan sekurang-kurangnya satu unsur tidak nol pada diagonal utama (yaitu diagonal dari sudut atas kiri ke sudut kanan bawah) dan nol untuk semua unsur lainnya.


(36)

Contoh:

= 13 0

0 2 =

1 0 0

0 8 0

0 0 66

c. Matriks skalar

Matriks skalar adalah suatu matriks yang mempunyai ordo 1 × 1.. Contoh:

= 32

d. Matriks identitas

Matriks identitas merupakan matriks diagonal yang semua unsur diagonalnya adalah satu.

Contoh:

=

1 0 0

0 1 0

0 0 1

e. Matriks simetris

Matriks simetris adalah suatu matriks persegi yang unsur-unsurnya di atas diagonal utama merupakan pencerminan dari unsur-unsur bawah diagonal utama.

f. Matriks nol

Matriks nol adalah suatu matriks yang semua unsurnya nol dan dinyatakan dengan 0.


(37)

Dalam matriks juga terdapat operasi penjumlahan, pengurangan serta pembagian. Operasi matriks ini bermanfaat dalam mencari penaksir menggunakan OLS pada regresi linier majemuk.

1. Operasi penjumlahan dan pengurangan

Jika = dan = dua matriks yang mempunyai ordo yang sama × , maka jumlahnya didefinisikan sebagai matriks = berordo × , dengan setiap elemen C adalah jumlah elemen A dan B yang seletak. Sehingga + = + .

Contoh:

Jika = 1 2 3

0 1 4 dan =

2 3 0

−1 2 5 , maka tentukanlah + ! Jawab:

+ = 1 + 2 2 + 3 3 + 0

0 + (−1) 1 + 2 4 + 5 =

3 5 3

−1 3 9 . 2. Operasi Pengurangan

Misalkan = dan = dua matriks yang mempunyai ordo yang sama × , dapat didefinisikan pengurangan matriks

= −

dimana C adalah matriks yang berordo sama dengan A dan B, dan diperoleh sebagai = − untuk semua i dan j; yaitu C didapatkan dengan mengurangkan setiap elemen B dari elemen A yang seletak.


(38)

Contoh:

Jika diketahui matriks =

2 3 5

1 18 3

6 7 9

dan =

5 1 0

10 4 3

2 5 12

, maka −

adalah? Jawab:

− =

2−5 3−1 5−0

1−10 18−4 3−3

6−2 7−5 9−12

= −

3 2 5

−9 14 0

4 2 −3

3. Operasi Perkalian a. Perkalian skalar

Jika sebuah matriks A dikalikan dengan suatu skalar λ (suatu bilangan real) maka setiap elemen matrriks A dikalikan dengan λ, jadi = . Contoh:

Misalkan matriks = 1 2 3

0 1 4 dan λ = 2, maka adalah? Jawab:

= 2 1 2 3

0 1 4 =

2 4 6

0 2 8

b. Perkalian matriks

Misalkan A adalah matriks berordo × dan B berordo × , maka hasil kali AB didefinisikan sebagai suatu matriks C yang berordo × sedemikian rupa sehingga:

= =1


(39)

= 1, 2, 3,…, dan = 1, 2, 3,…, . Unsur baris ke dan kolom ke dari C diperoleh dengan mengalikan unsur dari baris ke dari A dengan unsur yang sesuai dari kolom ke dari matriks B dan menjumlahkan untuk semua unsur. Agar perkalian matriks AB mempunyai hasil perkalian, maka banyaknya kolom matriks A harus sama dengan banyaknya baris pada matriks B.

Contoh:

Tentukanlah hasil kali AB jika 2×3= 3 4 7

5 3 1 dan 3×2 =

1 3

5 2

4 7

!

Jawab:

= 2×2= 3 × 1 + 4 × 5 + 7 × 45 × 1 + 3 × 5 + 1 × 4 3 × 3 + 4 × 2 + 7 × 75 × 3 + 3 × 2 + 1 × 7

= 51 66

24 28 Sifat-sifat perkalian matriks:

i. Perkalian matriks pada umumnya tidak komutatif, secara umum ≠ . ii. Jika AB dan BA ada, matriks yang dihasilkan belum tentu memiliki ordo

yang sama.

iii. Suatu vektor baris yang dikalikan dibelakang dengan suatu vekor kolom adalah suatu skalar.

iv. Suatu vektor kolom yang dikalikan di depan suatu vektor baris adalah suatu matriks.

v. Perkalian matriks adalah asosiatif, yaitu = ( ), dimana A berordo × , B berordo × , dan C berordo × .


(40)

4. Transposisi Matriks

Suatu matriks berordo × yang diperoleh dari penukaran baris dengan kolom matrik A × merupakan transpose dari A dan dinyatakan oleh (A transpose).

Contoh:

Tentukan transpose matriks = 1 2 3

5 2 6

2 6 8

1 3 6

!

Jawab: =

1 2 3

5 2 6

2 6 8

1 3 6

Sifat-sifat transposisi: i. = .

ii. + = +

iii. = Bukti:

Tetapkan matriks = berordo × dan = berordo × sehingga matriks = = berordo × . Elemen pada posisi baris ke

dan kolom ke dari AB adalah = =1 , dan ini juga merupakan elemen pada posisi baris ke dan kolom ke pada matriks .

Elemen-elemen pada baris ke dari adalah 1 , 2 ,…, dan elemen-elemen pada kolom ke dari matriks adalah 1, 2,…, . Maka elemen pada baris ke dan kolom ke dari adalah


(41)

5. Determinan

Untuk setiap matriks persegi A, terdapat hubungan sebuah angka yang dikenal sebagai determinan dari matriks, dilambangkan dengan det A atau |A|. proses penemuan nilai sebuah determinan disebut sebagai evaluasi dari determinan. Hal ini dilakukan dengan mengubah isi dari matriks dalam pola yang telah ditentukan.

Evaluasi matriks 2 × 2 Jika = 11 12

21 22

maka determinannya dievaluasi sebagai berikut:

= 11 12

21 22 = 11 22− 12 21

yang didapatkan dengan mengalikan silang secara berlawanan elemen pada diagonal utama dan mengurangi hasil perkalian silang dengan elemen diagonal lainnya dari matriks A.

Evaluasi sebuah determinan 3 × 3

Jika =

11 12 13

21 22 23

31 32 33

maka

= 11 22 33 + 12 23 31+ 13 21 32 − 13 22 31− 11 23 32

− 12 21 33 Jika =

11 12 … 1

21 22 … 2

1 2

… …


(42)

maka = 1 �1 + 2 �2 + + �

�1 merupakan kovaktor dari matriks A. Sifat-sifat determinan

i. sebuah matriks dengan nilai determinan nol disebut sebagai matriks singular, sedangkan sebuah matriks dengan nilai determinan tidak nol disebut sebagai matriks non singular.

ii. jika semua elemen dari setiap baris martriks A adalah nol, determinannya adalah nol.

iii. = artinya bahwa determinan matriks A dan determinan dari transpose A adalah sama.

iv. Dengan menukar dua baris atau dua kolom manapun dari matriks A akan mengubah tanda dari .

v. Jika setiap elemen dari sebuah baris atau sebuah kolom dari matriks A dikalikan dengan skalar λ, maka dikalikan dengan λ.

6. Inversi Matriks

Suatu kebalikan (invers) dari matriks persegi A, dinyatakan dengan −1, jika ada, adalah matriks persegi yang unik sedemikian rupa sehingga:

−1= −1 =

dimana I adalah matriks identitas yang ordonya sama dengan matriks A. Sebagai contoh:

= 2 4

6 8 −

1 = −1 1 2 6

8 −

1 4

−1 = 1 0


(43)

Sifat-sifat invers matriks: i. −1 = −1 −1

Bukti:

menurut definisi −1 = −1 =� , maka

−1 = −1 = −1 −1 = −1 −1 =

−1 = −1 = dan

−1 −1 = −1 −1 =

� −1 = −1 = ▄ ii. −1 = −1

Cara menentukan inverse dari sebuah matriks akan digunakan dalam menentukan vektor OLS � . Jika matriks A merupakan matriks persegi dan non singular, dimana ≠0, inverse −1 dapat ditemukan sebagai:

−1 = 1

( )

Contoh:

Jika terdapat matriks = 4 8

5 9 , maka invers matriks A adalah? Jawab:

−1= 1

5×8 − 4×9 −

9 8

5 −4

=1 4 −

9 8

5 −4 =

−94 2 5

4 −1


(44)

27 BAB III

ANALISIS REGRESI LINIER

Analisis regresi diperkenalkan oleh Francis Galton. Ia menemukan bahwa, bagi orang tua yang tinggi akan mempunyai anak laki-laki yang tinggi pula, tetapi secara rata-rata tidaklah setinggi orang tua mereka. Begitu pula bagi orang tua yang pendek akan mempunyai anak laki-laki yang pendek, tetapi secara rata tidaklah sependek orang tua mereka, namun selalu lebih mendekati rata-rata. Dengan demikian ada kecenderungan bahwa secara rata-rata sifat-sifat beberapa kelompok tertentu pada generasi selanjutnya akan bergerak ke arah rata-rata populasi (tidak tepat sama dengan generasi sebelumnya).

Definisi 3.1

Analisis regresi adalah studi ketergantungan satu variabel, variabel tak bebas, pada satu atau lebih variabel lain, variabel yang menjelaskan (explanatory variabels), dengan maksud menaksir dan atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dipandang dari segi nilai yang diketahui atau tetap (dalam pengambilan sampel berulang) variabel yang menjelaskan (yang belakangan).

Variabel tak bebas yaitu variabel yang nilainya tergantung atau ditentukan dari variabel lainnya. Sedangkan variabel yang menjelaskan adalah variabel yang nilainya diberikan atau variabel yang nilainya mempengaruhi variabel tak bebas. Misalnya seorang ahli agronomi mempelajari ketergantungan


(45)

hasil panen gandum, pada suhu, curah hujan, jumlah cahaya matahari, dan pupuk. Ketergantungan seperti itu memungkinkan peramalan hasil panen rata-rata dengan dasar infomasi mengenai variabel yang menjelaskan. Hasil panen disebut variabel tak bebas (dependent variabel), dan suhu, curah hujan, jumlah cahaya matahari, pupuk disebut variabel yang menjelaskan (explanatory variabel). Dalam penulisan ini akan digunkan lambang huruf Y untuk variabel tak bebas dan huruf X untuk variabel yang menjelaskan, 1, 2,…, merupakan variabel yang menjelaskan yang ke k.

A. Analisis Regresi Linier Sederhana

Analisis regresi linier sederhana hanya mempelajari dua variabel, yaitu satu variabel tak bebas dan satu variabel yang menjelaskan yang berhubungan secara linier. Linieritas dalam regresi adalah linieritas dalam parameter yang artinya parameter yang terdapat dalam model regresi berpangkat satu dan tidak dibagi atau dikalikan dengan parameter lain. Upaya untuk mengetahui hubungan antara variabel tak bebas dengan variabel yang menjelaskan dimulai dengan mencari bentuk terdekat dari hubungan tersebut dengan cara menyajikan data yang telah diketahui dalam sebuah kurva atau grafik yang disebut diagram pencar (Scaater plot). Diagram pencar menggambarkan titik-titik pengamatan, dan setiap titik pengamatan ditentukan oleh pasangan ( , ).

Jika diambil suatu garis yang mewakili rata-rata dari seluruh titik-titik pengamatan, maka akan diperoleh garis lurus. Garis lurus tersebut adalah garis regresi. Secara ilmu ukur, garis regresi merupakan suatu tempat kedudukan rata-rata Y pada X tertentu.


(46)

Rata-rata dari seluruh titik-titik pengamatan merupakan rata-rata bersyarat variabel tak bebas Y untuk variabel bebas X tertentu, dilambangkan ( | ), ( | ) juga sering disebut nilai harapan Y pada X tertentu. Jika titik-titik pengamatan tersebut berada di sekitar garis regresi maka menunjukkan bahwa kedua variabel tersebut saling berhubungan secara linier. Jelas bahwa rata-rata bersyarat ( | ) merupakan fungsi dari .Setelah bentuk hubungan antara variabel X dan variabel Y tersebut diketahui, lalu selanjutnya merumuskan ke dalam suatu persamaan matematis.

Misalkan terdapat data populasi dari penelitian belanja konsumsi suatu keluarga (Y) yang dipengaruhi oleh pendapatan keluarga (X), dan setelah digambarkan dalam diagram pencar ternyata data tersebut berada disekitar nilai rata-rata bersyarat Y untuk X tertentu [ ( | )], maka ( | ) merupakan fungsi dari . Nilai-nilai ( | ) ternyata membentuk garis lurus, maka dapat disimpulkan bahwa ( | ) merupakan fungsi linier dari . Karena dalam keadaan nyata tidak diperoleh data seluruh populasi, maka bentuk fungsi belum diketahui, sehingga sebagai pendekatan pertama model persamaan garis regresi populasi (PRP) dapat dituliskan:

= 0+ 1 (3.1.1) dimana 0 dan 1 merupakan parameter-paremeter yang tidak diketahui (besarnya) tetapi bersifat tetap dan dikenal sebagai koefisien regresi. 0 dan 1 secara berturut-turut dikenal sebagai intersep dan koefisien kemiringan.

Karena nilai Y yang sebenarnya tidak selalu sama dengan nilai harapan dari Y, maka model (3.1.1) dapat ditulis:


(47)

= 0+ 1 +� (3.1.2) dimana � merupakan variabel gangguan yang bersifat acak dari model (3.1.1) dan dapat mengambil nilai positif maupun negatif.

Sebagaimana diketahui bahwa belanja konsumsi masing-masing keluarga tidak hanya dipengaruhi oleh faktor pendapatan, tetapi dapat juga dipengaruhi oleh jumlah anggota keluarga, umur, tingkat pendidikan, selera dan lain-lain. Dalam regresi sederhana, jumlah anggota keluarga, umur, tingkat pendidikan, selera dinamakan variabel gangguan.

0 dan 1 merupakan parameter-parameter yang tidak diketahui, sehingga persamaan garis regresi populasi juga tidak diketahui. Oleh karena itu, parameter-parameter 0 dan 1 ditaksir atau diduga melalui sampel. Selain itu dalam beberapa kasus praktik, yang dimiliki hanyalah data sampel Y yang berhubungan dengan beberapa nilai X yang tetap. Persamaan regresi yang didapatkan berdasarkan data sampel merupakan persamaan regresi sampel (PRS). Persamaan regresi sampel (PRS) yang digunakan untuk menaksir persamaan regresi populasi adalah:

= 0+ 1 (3.1.3) dimana dibaca sebagai “Y-topi” atau “Y-cap”

= merupakan penaksir dari

0 = merupakan penaksir dari 0 1 = merupakan penaksir dari 1

Persamaan (3.1.3) dapat dinyatakan menjadi bentuk sthokastik sebagai berikut: = 0+ 1 + (3.1.4)


(48)

dimana menunjukkan nilai residu. Secara konsep, sama dengan � dan

dianggap sebagai taksiran untuk �.

Setelah model linier dianggap tepat untuk memodelkan hubunan antara variabel Y dengan X, maka selanjutnya adalah penaksiran parameter 0 dan 1. Agar PRS dapat menaksir PRP dengan baik, maka 0 harus sedekat mungkin dengan 0 dan 1 juga harus sedekat mungkin dengan 1. Garis regresi sampel yang baik terletak sangat dekat dengan garis regresi populasi, yaitu dengan kuadrat penyimpangan terhadap pengamatan sekecil-kecilnya menggunakan metode kuadrat terkecil biasa (OLS).

Penaksiran dengan metode kuadrat terkecil biasa (OLS) akan menghasilkan dugaan yang baik jika asumsi-asumsi tentang variabel gangguan

� dapat dipenuhi. Berdasarkan tujuannya ada dua asumsi yang biasanya berlaku untuk � yaitu:

a. Untuk penaksiran parameter, diasumsikan � sebagai variabel random yang didistribusikan identik dan tidak berkorelasi , dengan rata-rata nol dan varians yang konstan. Dengan perkataan lain:

1. � = 0

Asumsi ini menyatakan bahwa nilai yang diharapkan bersyarat � , tergantung pada tertentu adalah nol. Misalnya ada sebuah model regresi linier sederhana :

= 0+ 1 + �


(49)

Jika diasumsikan bahwa � ) sehingga ( | ) = 0+ 1 . Dengan kata lain secara rata-rata dapat menerangkan . Tetapi jika terjadi pelanggaran terhadap asumsi tersebut, misalnya � ) dengan sebagai konstanta, maka

( | ) = 0+ 1 +

atau ( | ) = �+ 1 , � = 0+

Akibatnya penaksir 1 memang masih tak bias, tetapi penaksir 0 menjadi bias. Namun dalam prakteknya intersep ( 0) kurang begitu penting peranannya sehingga dapat diabaikan. Yang terpenting adalah koefisien regresi 1 yang dapat dipakai untuk mengukur besarnya pengaruh X terhadap Y secara kuantitatif. Koefisien regresi ini tidak terpengaruh walaupun asumsi � = 0 tidak terpenuhi.

2. Tidak ada autokorelasi

(�,� ) = � − � � − �

= (� ,� )

= 0 i ≠ j

Hal ini menunjukkan, dengan tertentu simpangan setiap dua Y yang manapun dari nilai rata-ratanya tidak berkorelasi. Asumsi ini dikenal tidak ada autokorelasi. Jika asumsi ini tidak dipenuhi, maka penaksir OLS tidak efisien. 3. Tidak ada Heteroskedastisitas

� � = � − � 2 = (�2)


(50)

Asumsi tersebut menyatakan bahwa variansi � untuk tiap adalah suatu angka konstan positif yang sama dengan �2. Secara teknis asumsi tersebut homoskedastisitas. Jika asumsi ini tidak terpenuhi, maka akan terjadi Heteroskedastisitas. Heteroskedastisitas tidak merusak sifat ketidakbiasan dan konsekuensi dari penaksir OLS. Tetapi heteroskedastisitas menyebabkan penaksir tidak lagi mempunyai variansi minimum atau efisien.

b. Untuk pengujian hipotesis dan penyusunan selang kepercayaan, diasumsikan residu berdistribusi normal � ~ �(0,�2).

Alasan mengapa variabel gangguan berdistribusi normal adalah:

1) Variabel gangguan dapat dianggap sebagai gabungan dari sejumlah pengaruh tambahan. Jika pengaruh tambahan ini semakin besar, maka distribusi variabel ini akan cenderung mendekati distribusi normal.

2) Uji statistik t dan F tidak dapat diterapkan jika variabel gangguan tidak berdistribusi normal.

c. Uji Linieritas

Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada.

Metode kuadrat terkecil (OLS) dikemukakan oleh Carl Friedrich Gauss, seorang ahli matematika asal Jerman. Metode kuadrat terkecil merupakan suatu metode penaksiran parameter yang meminimumkan 2 (jumlah residual kuadrat) sehingga diperoleh penaksir parameter 0 dan 1. Dalam metode ini, pertamakali harus diingat mengenai PRP dua variabel:


(51)

= 0+ 1 +� (3.1.5) PRP tidak dapat diamati secara langsung, sehingga PRP ditaksir menggunakan PRS:

= 0+ 1 +

= + (3.1.6) Persamaan (3.1.6) dapat diubah menjadi:

= −

= − 01 (3.1.7) menunjukkan perbedaan (residual) antara nilai nyata dan nilai estimasi dari Y.

Prinsip kuadrat terkecil adalah memilih 0 dan 1 sedemikian sehingga diperoleh 2 sekecil mungkin untuk suatu sampel tertentu. Penaksir parameter

0 dan 1 dapat diperoleh dengan menurunkan � = − 0− 1 2

terhapap

0 dan 1 secara parsial dan menyamakan hasilnya masing-masing dengan nol, sehingga didapat:

∂K

∂ 0

= 2

− 0− 1 −1 = 0 (3.1.8) ∂K

∂ 1

= 2

− 0− 1 − = 0 (3.1.9) Persamaan (3.1.8) dan (3.1.9) diatur, sedemikian rupa menjadi:

− n 0− 1 = 0  = n 0+ 1 (3.1.10)

− 0 − 1 2 = 0  = 0 + 1 2 (3.1.11)

Dari persamaan (3.1.10) dan (3.1.11), nilai 0 dan 1, dapat dicari dengan: = n 0+ 1 dibagi dengan n


(52)

=

n 0

+

1

0

=

1

0= 1

( − 1 ) (3.1.12) Untuk mendapatkan 1, persamaan (3.1.12) disubstitusikan ke persamaan (3.1.11), menjadi:

= ( − 1 ) + 1 2

= ( − 1 2) + 1 2

− = 1 2 − 1 2

− = 1 2− 2

n

=

1 n

2

2

n −

n 2n 2

=

1

1

=

n −

n 2− 2

(3.1.13)

Persamaan (3.1.13) kemudian dipecahkan secara simultan: bagian pembilang:

− = − + −

= − − + 2

= − − +

= − − +


(53)

= − − bagian penyebut:

2 2

= 2− 2

2

+

2

= 2− 2 + 2

= 2− 2 + = 2− 2 + 2

= − 2 sehingga diperoleh:

1

=

( −X)(Yi−Y)

( −X )2

=

2

(3.1.14)

dimana X dan Y adalah rata-rata sampel X dan Y, lalu didefinisikan

=

(

X )

dan

= (Y1−Yi) . Sehingga persamaan (3.1.12) menjadi:

0 = Y − 1X (3.1.15) Setelah asumsi-asumsi klasik terpenuhi maka penaksir-penaksir koefisien dengan OLS memiliki sifat-sifat sebagai berikut:

1) Penaksir-penaksir kuadrat terkecil merupakan fungsi linier dari Y = 0

Seblumnya akan dibuktikan bahwa = 0, yaitu

= ( – )

= 1 − + 2− + + −

= 1 + 2+ + −


(54)

= −

= 0 (3.1.16) Selanjutnya akan dibuktikan 1adalah penaksir linier dari Y, yaitu

Berdasarkan persamaan (3.1.14)

1 = 2

=

( 2– )

=

( )

2

)

2

berdasarkan (3.1.16), = 0

1 =

( )

2

1 = (3.1.17) di mana = 2

Jadi terbukti bahwa 1 merupakan fungsi linier dari Y. Lalu akan dibuktikan 0 merupakan fungsi linier dari Y: Berdasarkan persamaan (3.1.15)

0 = − 1

= − 1

kemudian disubstitusi dengan persamaan (3.1.17)


(55)

0 = ( 1

− ) (3.1.18)

Jadi terbukti bahwa 0 merupakan fungsi linier dari Y.

2) Penaksir-penaksir tersebuat tidak bias, =

 = 0

Terlebih dahulu akan dibuktikan = 0 , yaitu: Berdasarkan definisi

= ( 2)

= 2

Berdasarkan (3.1.16), = 0

= 0 (3.1.19)

 Setelah itu akan dibuktikan = 1, yaitu:

= ( + )

= +

Berdasarkan (3.1.18), = 0

=

=

2

sesuai dengan definisi

= 22


(56)

 Akan dibuktikan 2 = 12 , yaitu: 2

= ( 2)2

= 2 ( 2)

= 22 ( 12)

= 22 ( 12)

2

= 12 (3.1.21)

Berdasarkan persamaan (3.1.18)

0 = ( 1

− )

= 1− ( 0+ 1 +� )

= 1 0+ 1 +� − ( 0+ 1 +� ) = 0+ 1 + � − 01 − � Berdasarkan persamaan (3.1.19) dan (3.1.20), yaitu = 0 , = 1

0 = 0+ 1 + �

− 1 − � 0 = 0+

− � (3.1.22)

Selanjutnya , akan dibuktikan 0 = 0, yaitu:

0 = 0+ � − �

= 0+1 (� )− (�) karena � = 0

0 = 0 (3.1.23) Jadi terbukti bahwa 0 = 0


(57)

1 = ( 0+ 1 +� )

= 0 + 1 + �

Berdasarkan persamaan (3.1.19) dan (3.1.20), yaitu = 0 , = 1

1 = 1+ � (3.1.24) Lalu akan dibuktikan 1 = 1, yaitu:

1 = ( 1+ �)

= 1+ (� )

karena (�) = 0

1 = 1 (3.1.25) Jadi terbukti bahwa 1 = 1

3) Penaksir-penaksir tersebut memiliki varian minimum. Terlebih dahulu ditentukan Var 1 dan Var 0

Var 1 = ( 1− ( 1))2

= ( 1 − 1)2

= ( 1 + � − 1)2 = ( �)2

= ( 12�12 +

22�22+ + 2 1 2�1�2+ + 2 −1 � −1� ) = ( 2�2+ 2 � �)

= 2 �2 + 2 (� �)

berdasarkan asumsi 3 di mana �2 = �2 dan asumsi 2 � � = 0 Var 1 = 2�2

di mana 2 = 12 maka dapat ditulis


(58)

Var ( 0) = ( 0− 0)2

= ( 0+

1

(�)− � − 0)2 = (1 (�)− � )2

= ( [(1− )�]2 = �2 (1 )2

= �2 12−2 + 2 2

=�2( 12−2 + 2 2)

karena = 0 dan 2 = 12

Var ( 0) =

2

(

1

+

2

2

)

=

2

(

2+ 2 2

)

=

2

(

( − )2+2 2

)

=

2

(

(

22 + 2)+ 2

2

)

=

2

(

(

22 + 2)+ 2

2

)

=

2

(

22( )2 +2( )2

2

)

Var ( 0) =

2

(

2

2

)

(3.1.27)

Untuk menentukan varians 0 dan 1 minimum perlu dibandingkan dengan varians dari beberapa penaksir * yang tidak bias. Dimisalkan 1* = di mana ≠ tetapi = + , sehingga

1 ∗

= ( 0+ 1 +� )

= ( 0+ 1 +� )

= 0 + 1 + �

( 1 ∗


(59)

karena (�) = 0

( 1∗)= 0 + 1 (3.1.28)

Karena * penaksir yang tidak bias, maka pada persamaan (3.18) = 0 dan

= 1, dan diketahui = + , maka:

= +

karena = 0, maka haruslah = 0

= +

= ( + )

= +

Karena = 1, maka haruslah = + = 0 sehingga = 1

1 memiliki varians yang minimum. Bukti :

Var ( 1*)= [ 1 ∗

− 1 2

]

= [( �)2] = �2 2

= �2 ( + )2

= �2( 2 + 2 + 2 ) = �2( 2 + 2 + 2 2)

karena = = 0

Var ( 1∗) =�2( 2 + 2) Var ( 1

) =�2 2 +�2 2

= Var ( 1)+ �2 2 (3.1.29) Karena 2 selalu positif, maka Var ( 1

) > var ( 1), hanya apabila 2 = 0 maka Var ( 1

) = var ( 1). Hal ini menunjukan bahwa 1 memiliki varians yang minimum.


(60)

0 memiliki varians yang minimum

Misalkan 0∗ = (1− ) dan diketahui = 0 + 1 +� , maka 0

= (1− ) 0 + 1 +� 0

= 0(1− ) + 1( −

) + (1− )�

( 0 ∗

) = 0(1− ) + 1( − ) + ( � − �) ( 0∗) = 0(1− ) + 1 ( − ) + (�)− �

karena � = 0

( 0∗) = 0(1− ) + 1 ( − )− �

Agar ( 0∗) = 0 maka = 0, = 1, dan � = 0, diketahui = + sehingga = 0 dan = 0.

Akan dibuktikan 0 memiliki varians yang minimum, yaitu: Var ( 0∗) = [ 0∗− 0 ]2

= ( [(1− )�]2 = �2 (1− )2 = �2 ( 1

2+

2 221 )

= �2 (1+ 2 2 2 )

karena = + dan = 0 Var ( 0∗) =�2 (1+ 2 ( + )2)

= �2 (1+ 2 2+ 2 2)

= �2 (1+ 2 2+ 2 2)

= �2 (1+ 2 2) +�2 2 2

= �2 1+ 2 12 +�2 2 2


(61)

Karena 2 selalu positif, maka Var ( 0∗) > var ( 0), hanya apabila 2 = 0 maka Var ( 0

) = var ( 0). Hal ini menunjukan bahwa 0 memiliki varians yang minimum.

Persamaan (3.1.14) dan (3.1.15) merupakan bukti bahwa estimasi-estimasi dengan OLS adalah fungsi dari data sampel. Tetapi, karena data dari sampel ke sampel kemungkinan berubah, maka penaksiran juga akan berubah sesuai dengan fakta yang ada. Sehingga ukuran atau ketepatan taksiran 0 dan 1 sangat diperlukan. Dalam statistik, standar error digunakan untuk mengukur ketepatan taksiran 0 dan 1. Standar error adalah standar deviasi sebuah distribusi sampling dari sebuah estimator, maka standar error suatu penaksir merupakan akar kuadrat dari varians suatu penaksir. Berdasarkan persamaan (3.1.26) dan (3.1.27) maka rumus untuk mencari standar error suatu penaksir adalah:

0 =

2

2

2 (3.1.31)

1 = �

12

(3.1.32)

Semua besaran pada persamaan (3.1.31) dan (3.1.32) dapat ditaksir melalui data, kecuali

2

.

Tetapi dengan menggunakan rumus berikut,

2 dapat ditaksir:

� 2 = 2

−( +1) (3.1.32) dengan k menyatakan jumlah variabel bebas dan n menyatakan jumlah

pengamatan.

Setelah menaksir koefisien regresi, menentukan sifat-sifat penaksir dan menentukan standar error selanjutnya ditentukan seberapa baik garis regresi sampel mencocokkan data. Apabila data hasil observasi terletak dalam garis regresi maka akan diperoleh kecocokan yang sempurna. Tetapi umumnya hasil


(62)

observasi akan menyebar disekitar garis regresi sampel, sehingga dapat menghasilkan yang positif maupun negatif. Yang diharapkan adalah bahwa gangguan disekitar garis regresi sampel sekecil mungkin.

Untuk menghitung 2, sebelumnya, akan ditentukan bentuk simpangan dari persamaan (3.1.4) = 0+ 1 + , dimana X maupun Y dinyatakan sebagai simpangan dari nilai rata-ratanya, dan dibuktikan bahwa residual tidak berkorelasi dengan yang ditaksir. Pertama diketahui rata-rata = 0.

Bukti:

dari persamaan (3.1.8) maka

−2 − 0+ 1 = 0 karena persamaan (3.1.7) maka

−2 − = 0

−2 = 0

= 0 (3.1.33) Untuk mengetahui bentuk simpangan dari persamaan = 0+ 1 + , maka persamaan tersebut dijumlahkan pada kedua sisinya sehingga

= 0+ 1 +

karena = 0, maka

= 0+ 1

persamaan di atas dibagi dengan n, sehingga

= 0+ 1


(63)

− = 0− 0 + 1 − 1 +

− = 1 − +

= 1 + (3.1.34) = − 1 (3.1.35) dimana = − dan = − . Persamaan (3.1.34) disebut sebagai bentuk simpangan. Dalam bentuk simpangan, PRF yang ditaksir dapat ditulis sebagai = 1 (3.1.36) sehingga persamaan (3.1.34) dapat ditulis

= + (3.1.37) Selanjutnya akan dibuktikan residual tak berkorelasi dengan , yaitu:

dari persamaan (3.1.36) dapat ditulis

= 1

karena persamaan (3.1.35), maka dapat ditulis

= 1 − 1

= 1 − 1

2 2

karena menurut persamaan (3.1.14) yaitu 1

=

2

, maka

= 22

2

2

= 2

2 −

2

2

= 0 (3.1.38) Untuk menghitung 2,persamaan (3.1.37) dikuadratkan pada kedua sisi dan menjumlahkan untuk semua sampel, sehinga diperoleh:


(64)

2 = 2+ 2+ 2 karena menurut persamaan (3.1.38), maka

2 = 2

+ 2

menurut persamaan (3.1.36), maka 2 =

1

2 2

+ 2 (3.1.39) Persamaan (3.1.39) dapat digambarkan sebagai berikut 2 =

− 2 , merupakan total variasi nilai Y sebenarnya di sekitar rata-rata sampel,

dapat juga disebut sebagai jumlah kuadrat total (TSS). 2 = − 2 =

1 2 2

merrupakan variasi nilai Y yang ditaksir disekitar rata-ratanya, dapat juga disebut sebagai jumlah kuadrat akibat regresi (ESS). 2 merupakan residual atau variasi yang tidak dapat dijelaskan dari nilai Y di sekitar garis regresi, atau dapat disebut sebagai jumlah kuadrat residu (RSS). Jadi persamaan (3.1.39) dapat ditulis TSS = ESS + RSS, dan dapat digambarkan dalam Gambar 3.1.

Gambar 3.1 Pembagian variasi menjadi dua komponen

Dengan membagi TSS = ESS + RSS dengan TSS pada kedua sisi, maka diperoleh:


(65)

1 = − 2

− 2+

2

− 2 Sehingga dapat didefinisikan

2 = − 2

− 2 = Sifat dari 2 :

a. 2 merupakan besaran non negatif.

b. Batasannya adalah 0 ≤ 2≤ 1. Jika 2 = 1 berarti kecocokan sempurna, sedangkan 2 yang bernilai nol berarti tidak ada hubungan antara variabel tak bebas dengan variabel yang menjelaskan.

Contoh 3.1

Data dalam Tabel 3.1 menyatakan data banyaknya suatu senyawa kimia (y) yang larut dalam 100 gram air pada berbagai sumbu x.

Tabel 3.1 Data banyaknya seuatu senyawa kimia X 0 C y (gram)

0 8 6 8

15 12 10 14

30 25 21 24

45 31 33 28

60 44 39 42

75 48 51 44


(66)

Penyelesaian:

= 675 = 488 2 = 37125 = 25005 = 37,5 = 27,11

1

=

n − n 2− 2

=

18 25005 − 675 (488)

18 371,25 − 625 2

= 0,568

0 = Y − 1X = 27,11−0,568 (37,5) = 5,825 Jadi model regresinya adalah = 5,825 + 0,568X Untuk mencari residualnya menggunakan rumus = −

1 = 1− 1

= 8 – (5,825 + 0,568 (0)) = 2.17

2 = 2− 2

= 6 – (5,825 + 0,568 (0)) = 0.17

18 = 18 − 18

= 44 – (5,825 + 0,568 (75)) = – 4.40


(67)

Tabel 3.2 Data residual

0.00 8.00 2.17

0.00 6.00 0.17

0.00 8.00 2.17

15.00 12.00 -2.34

15.00 10.00 -4.34

15.00 14.00 -0.34

30.00 25.00 2.15

30.00 21.00 -1.85

30.00 24.00 1.15

45.00 31.00 -0.37

45.00 33.00 1.63

45.00 28.00 -3.37

60.00 44.00 4.12

60.00 39.00 -0.88

60.00 42.00 2.12

75.00 48.00 -0.40

75.00 51.00 2.60

75.00 44.00 -4.40

Total | | 36.572

B. Analisis Regresi Linier Berganda

Belanja konsumsi suatu keluarga tidak hanya dipengaruhi oleh pendapatan keluarga tersebut, tetapi juga dipengaruhi oleh kekayaan, jumlah keluarga, umur dan lain-lain. Dengan semakin banyaknya variabel bebas


(68)

(kekayaan, jumlah anggota keluarga dan lain-lain) yang terdapat dalam model regresi berganda, maka pendekatan yang digunakan adalah notasi matriks agar lebih mudah dalam penulisan.

Model regresi linier berganda adalah suatu model regresi yang menghubungkan secara linier antara suatu variabel tak bebas Y dengan himpunan variabel bebas 1, 2,…, yaitu:

= 0+ 1 1+ 2 2+ + +� , i = 1, 2,…, n (3.2.1) dengan:

k : banyaknya variabel bebas

i : pengamatan ke – i

n : banyaknya pengamatan

persamaan (3.2.1) merupakan bentuk sederhana dari persamaan-persamaan berikut: 1 = 0+ 1 11 + 2 12 + + 1 +�1

2 = 0+ 1 21+ 2 22 + + 2 +�2 ………..

= 0 + 1 1+ 2 2 + + +� (3.2.2) Persamaan (3.2.2) dapat dinotasikan dalam bentuk matriks:

1 2 =

1 11 12 1

1 21 22 2

1 1 2

0 1 +

�1

�2

(3.2.3)

Y = Xβ + Ɛ (3.2.4) dengan:

Y = vektor variabel tak bebas berordo × 1 X = matriks variabel bebas berordo × ( + 1)


(69)

β = vektor parameter yang tak diketahui berordo ( + 1) × 1

Ɛ = vektor gangguan acak berordo × 1

Asumsi yang digunakan dalam analisis regresi linier berganda sama dengan asumsi-asumsi yang harus dipenuhi dalam analisis regresi linier sederhana, hanya saja dalam analisis regresi linier berganda ditambahkan asumsi tidak ada multikolineritas. Asumsi-asumsi tersebut antara lain:

a. Dalam analisis regresi sederhana, asumsi yang pertama adalah � = 0 untuk semua i. Sesuai dengan asumsi tersebut, asumsi dalam regresi berganda jika direpresentasikan dalam matriks akan menjadi

� =

�1

�2

=

(�1) (�2) (� )

= 0 0 0

=

Sehingga � = , dimana � merupakan matriks berordo × 1 dan merupakan vektor nol.

b. Asumsi-asumsi lain pada analisis regresi sederhana adalah

� � = � − � � − � = � �

= 0 dan

� � = � − � 2

= � 2

=�2 .


(70)

� = �.�

�.� =

�1

�2

�1 �2 �

=

�1�1 �1�2 �1�

�2�1 �2�2 �2�

� �1 � �2 … � �

=

�12 (�1�2) (�1� )

(�21) (�22) (

2� )

(� �1) (� �2) … (� 2)

Sesuai dengan asumsi pada analisis regresi sederhana mengenai varians dan kovarians, maka

�.� =

�2 0 0

0 �2 0

0 0

… �2

=�2

1 0 0

0 1 0

0 0

1

�.� = �2

dimana I merupakan matriks identitas.

�2 0 0

0 �2 0

0 0

… �2

merupakan matriks varians-kovarians dari faktor gangguan

� , elemen dari diagonal utama matriks akan menjadi varians, dan elemen-elemen lainnya akan menjadi kovarians. Jika elemen-elemen-elemen-elemen pada diagonal utama matriks varians kovarians bukan merupakan bilangan konstan positif yang sama


(71)

dengan �2, maka akan terjadi heterokedastisitas. Dan akan terjadi autokorelasi jika elemen-elemen selain elemen diagonal utama tidak bernilai nol.

c. Tidak ada multikolinearitas yaitu tidak terdapat hubungan linier yang tepat diantara variabel bebas X. Dapat juga dikatakan bahwa tidak adanya sekelompok angka dari �1,2,,… ,� , yang semuanya tidak bernilai nol secara bersamaan. Dikatakan terdapat hubungan linier yang tepat jika kondisi berikut terpenuhi:

�1 1+ �2 2+ + � = 0 dalam notasi matriks dapat direpresentasikan:

� =

dimana � adalah sebuah vektor baris 1 × dan X adalah sebuah vektor kolom × 1. Jika asumsi ini tidak dipenuhi maka koefisien regresi dari variabel-variabel X tidak dapat ditentukan dan standar erornya tidak terhingga.

Secara garis besar, metode kuadrat terkecil (OLS) dalam regresi berganda sama dengan OLS pada regresi sederhana. Untuk menentukan penaksir OLS, harus diketahui model PRS dalam bentuk stokhastik terlebih dahulu, yaitu:

= 0+ 1 1 + + + (3.2.5) = − 0− 1 1 − − (3.2.6) Dalam notasi matriks, persamaan (3.2.6) dapat ditulis:

�= − � (3.2.7) Konsep pada regresi berganda, sama dengan pada regresi sederhana yaitu residual, yang merupakan penaksir dari � .

Penaksir kuadrat terkecil diperoleh dengan meminimumkan:


(72)

Jika menggunakan notasi matriks, meminimumkan jumlah residual kuadrat sama dengan meminimumkan � �, karena:

� �= 1 2

1 2

= 12+ 22+ + 2

= 2 (3.2.9) Dari persamaan (3.2.6), maka 2 dapat ditulis menjadi:

�= − �

2 = � �= ( )

= − � ( − � )

= − � − � +� �

= − � + � � (3.2.10) Sesuai dengan sifat-sifat transpose matriks, ( � ) =� , dan karena � merupakan matriks simetri dan matriks skalar berordo 1 × 1, dengan penjabaran sebagai berikut:

1×( +1) ( +1)× ×1 =� 1×( +1) ( +1)×1

= � 1×1

maka bentuk � sama dengan transposenya, yaitu � .

Menggunakan kondisi Karush-Kuhn-Tucker untuk mencari � yang meminimumkan � �, langkah pertamanya adalah dengan mendiferensialkan � � secara parsial lalu menyamakan dengan nol, sehingga


(73)

�� � �

=

�( − � + � � ) �

=

� �

� � �

+

�� �

=

0

Penjabaran �( − � + � � )

� sangat panjang, sehingga dalam menghitung

hasil �� �

� dilakukan secara bertahap, yaitu sebagai berikut:

= 1 2

1 2

= 1 1+ 2 2+ +

= 12+ 22+ + 2

maka

�( )

=

� 12+ 22+ + 2

=

0 (3.2.11)

� = 0 1 2

1 11 12

1

1 1

21 31 22 32 2 3 … … 1 1 2 1 2 3

= 0 1 2

1 + 2+ 3+ +

11 1+ 21 2 + 31 3+ + 1 12 1+ 22 2 + 32 3+ + 2

… … … …

1 1+ 2 2+ 3 3+ +

=

0 1+ 2 + 3 + + + 1 11 1+ 21 2+ 31 3+ + 1

+ 2 12 1 + 22 2 + 32 3 + + 2


(74)

Sehingga � �

� 0

=

0 1+ 2+ 3+ + + 1 11 1+ 21 2+ 31 3+ + 1 + 2 12 1+ 22 2+ 32 3+ + 2

+ + ( 1 1+ 2 2+ 3 3+ + )

� 0

= 1 + 2+ 3+ + (3.2.12)

� � � 1

=

0 1+ 2+ 3+ + + 1 11 1+ 21 2+ 31 3+ + 1

+ 2 12 1+ 22 2+ 32 3+ + 2

+ + ( 1 1+ 2 2+ 3 3+ + )

� 1

= 11 1+ 21 2 + 31 3+ + 1 (3.2.13)

� � � 2

=

0 1+ 2+ 3+ + + 1 11 1+ 21 2+ 31 3+ + 1

+ 2 12 1+ 22 2+ 32 3+ + 2

+ + ( 1 1+ 2 2+ 3 3+ + )

� 2

= 12 1+ 22 2 + 32 3+ + 2 (3.2.14)

� �

=

0 1+ 2+ 3+ + + 1 11 1+ 21 2+ 31 3+ + 1 + 2 12 1+ 22 2+ 32 3+ + 2

+ + ( 1 1+ 2 2+ 3 3+ + )


(75)

Jadi, sesuai dengan hasil turunan pertama � terhadap yaitu pada persamaan (3.2.12), (3.2.13), (3.2.14), dan (3.2.15) maka:

� �

=

� �

� 0

� � � 1

� � � 2

� � �

=

1 + 2 + 3 + +

11 1 + 21 2 + 31 3 + + 1 12 1 + 22 2 + 32 3 + + 2

1 1 + 2 2 + 3 3 + +

= 1

11 12

1

1 1

21 31 22 32

2 3

… …

1 1 2

1 2 3


(76)

Penjabaran bagian

adalah sebagai berikut:

= 0 1 2

1 11 12

1

1 1

21 31 22 32 2 3 … … 1 1 2 1 1 1 1 11 12 21 22 31 32 1 2 … … 1 2 3 0 1 2

= 0+ 1 11+ 2 12…+ 1 0+ 1 21 + 2 22…+ 2

0+ 1 31 + 2 32…+ 3 …. 0+ 1 1+ 2 2…+

×

0+ 1 11 + 2 12 + + 1 0+ 1 21 + 2 22 + + 2 0+ 1 31 + 2 32+ …+ 3

… … … …

0+ 1 1+ 2 2+ …+ =

0+ 1 11+ 2 12+ + 1 0 + 1 11 + 2 12 + + 1 +

0+ 1 21 + 2 22+ + 2 0 + 1 21 + 2 22 + + 2 +

0+ 1 31+ 2 32+ + 3 0+ 1 31+ 2 32 + …+ 3 +

…+ 0+ 1 1+ 2 2+ + ( 0+ 1 1+ 2 2+ …+ ) (3.2.17)

Hasil perkalian bagian pertama dari persamaan (3.2.17) adalah:

0+ 1 11 + 2 12 + + 1 0+ 1 11+ 2 12+ + 1

=

0 0+ 1 11+ 2 12+ + 1 + 1 11 0+ 1 11+ 2 12 + + 1

+ 2 12 0+

1 11+ 2 12+ + 1 + +


(77)

=

0 2

+ 0 1 11 + 0 2 12+ + 0 1 +

1 11 0+ 1 2

112+ 1 11 2 12 + + 1 11 1 +

2 12 0+ 2 12 1 11 + 2 2

122+ + 2 12 1 + +

1 0+ 1 1 11+ 1 2 12 + + 2

1 2

(3.2.18)

Hasil perkalian bagian ke dua dari persamaan (3.2.17) adalah:

0+ 1 21 + 2 22 + + 2 0+ 1 21 + 2 22 + + 2

=

0 2

+ 0 1 21+ 0 2 22+ + 0 2 +

1 21 0+ 1 2

212 + 1 21 2 22+ + 1 21 2 +

2 22 0+ 2 22 1 21+ 2 2

222 + + 2 22 2 + +

2 0+ 2 1 21+ 2 2 22+ + 2

2 2

(3.2.19)

Hasil perkalian bagian ke tiga dari persamaan (3.2.17) adalah:

0+ 1 31+ 2 32+ …+ 3 0+ 1 31+ 2 32 + …+ 3

=

0 2

+ 0 1 31+ 0 2 32+ + 0 3 +

1 31 0+ 1 2

312 + 1 31 2 22+ + 1 31 3 +

2 32 0+ 2 32 1 31+ 2 2

322 + + 2 32 3 + +

3 0+ 3 1 31+ 3 2 32+ + 2

3 2

(3.2.20)

Hasil perkalian bagian ke ( + 1) dari persamaan (3.2.17) adalah:


(78)

=

0 2

+ 0 1 1+ 0 2 2+ + 0 +

1 1 0+ 1 2

12+ 1 1 2 2+ + 1 1 +

2 2 0+ 2 2 1 1+ 2 2

22+ + 2 2 + +

0+ 1 1+ 2 2+ +

2 2

(3.2.21)

Sehingga menurut persamaan (3.2.18), (3.2.19), (3.2.20), dan (3.2.21), maka hasil dari � � adalah sebagai berikut:

� � =

0 2

+ 0 1 11 + 0 2 12 + + 0 1 +

1 11 0+ 1 2

112+ 1 11 2 12 + + 1 11 1 +

2 12 0+ 2 12 1 11 + 2 2

122+ + 2 12 1 + +

1 0 + 1 1 11 + 1 2 12 + + 2

1 2 +

0 2

+ 0 1 21 + 0 2 22 + + 0 2 +

1 21 0 + 1 2

212+ 1 21 2 22 + + 1 21 2 +

2 22 0+ 2 22 1 21 + 2 2

222+ + 2 22 2 + +

2 0+ 2 1 21 + 2 2 22 + + 2

2 2 +

0 2

+ 0 1 31 + 0 2 32 + + 0 3 +

1 31 0 + 1 2

312+ 1 31 2 22 + + 1 31 3 +

2 32 0+ 2 32 1 31 + 2 2

322+ + 2 32 3 + +

3 0 + 3 1 31 + 3 2 32+ + 2

3 2

… …

+ 0 2

+ 0 1 1+ 0 2 2+ + 0 +

1 1 0+ 1 2

12+ 1 1 2 2+ + 1 1 +

2 2 0+ 2 2 1 1+ 2 2

22+ + 2 2 + +

0 + 1 1+ 2 2+ +


(1)

106

LAMPIRAN

Lampiran 1

Hasil regresi

Coefficientsa

Model

Unstandardized Coefficients

Standardized Coefficients

t Sig.

B Std. Error Beta

1 (Constant) 595.648 229.499 2.595 .032

X -.126 .068 -.549 -1.856 .101

a. Dependent Variable: Y

Uji Rank Spearman

Correlations

X ABS_RES1

Spearman's rho X Correlation Coefficient 1.000 -.745*

Sig. (2-tailed) . .013

N 10 10

ABS_RES1 Correlation Coefficient -.745* 1.000

Sig. (2-tailed) .013 .

N 10 10


(2)

Metode Grafis

Transformasi variabel

Coefficientsa

Model

Unstandardized Coefficients

Standardized Coefficients

t Sig.

B Std. Error Beta

1 (Constant) .294 .519 .566 .587

K 543.939 40.538 .978 13.418 .000


(3)

ANOVAb

Model Sum of Squares df Mean Square F Sig.

1 Regression 463.616 1 463.616 180.074 .000a

Residual 20.597 8 2.575

Total 484.212 9

a. Predictors: (Constant), K b. Dependent Variable: W

Uji Rank Spearman setelah ditransformasi

Correlations

K ABS_RES1

Spearman's rho K Correlation Coefficient 1.000 -.382

Sig. (2-tailed) . .276

N 10 10

ABS_RES1 Correlation Coefficient -.382 1.000

Sig. (2-tailed) .276 .


(4)

Lampiran 2

Hasil regresi

Coefficientsa

Model

Unstandardized Coefficients

Standardized Coefficients

t Sig.

B Std. Error Beta

1 (Constant) 188.813 22.703 8.317 .000

SP -1.253 .236 -1.759 -5.306 .000

HP .380 .078 2.160 4.847 .000

VOL -.013 .022 -.029 -.599 .551

WT -1.853 .205 -1.504 -9.040 .000

a. Dependent Variable: MGP

Hasil uji rank Spearman

Correlations

SP HP VOL WT

ABS_RES 1 Spearman's

rho

SP Correlation

Coefficient

1.000 .887** .302** .687** -.583**

Sig. (2-tailed) . .000 .006 .000 .000

N 81 81 81 81 81

HP Correlation

Coefficient

.887** 1.000 .444** .925** -.476**

Sig. (2-tailed) .000 . .000 .000 .000

N 81 81 81 81 81

VOL Correlation

Coefficient

.302** .444** 1.000 .540** -.283*


(5)

N 81 81 81 81 81

WT Correlation

Coefficient

.687** .925** .540** 1.000 -.347**

Sig. (2-tailed) .000 .000 .000 . .001

N 81 81 81 81 81

ABS_RES 1

Correlation Coefficient

-.583** -.476** -.283* -.347** 1.000

Sig. (2-tailed) .000 .000 .010 .001 .

N 81 81 81 81 81

**. Correlation is significant at the 0.01 level (2-tailed).

*. Correlation is significant at the 0.05 level (2-tailed).

Hasil regresi setelah ditransformasi

Coefficientsa

Model

Unstandardized Coefficients

Standardized Coefficients

t Sig.

B Std. Error Beta

1 (Constant) 2.450 1.185 2.068 .042

LogSP .444 .711 .167 .624 .535

LogHP -.462 .302 -.632 -1.532 .130

LogVOL -.024 .042 -.021 -.581 .563

LogWT -.584 .222 -.497 -2.625 .010

a. Dependent Variable: LogMGP

ANOVAb

Model

Sum of

Squares df Mean Square F Sig.

1 Regression 1.315 4 .329 250.959 .000a

Residual .100 76 .001


(6)

a. Predictors: (Constant), LogWT, LogVOL, LogSP, LogHP b. Dependent Variable: LogMGP

Hasil uji Rank Spearman setelah ditransformasi

Correlations

LogSP LogVOL LogHP LogWT ABS_RES2

Spearman's rho

LogSP Correlation

Coefficient

1.000 .302** .887** .687** -.141

Sig. (2-tailed) . .006 .000 .000 .210

N 81 81 81 81 81

LogVOL Correlation Coefficient

.302** 1.000 .444** .540** -.159

Sig. (2-tailed) .006 . .000 .000 .157

N 81 81 81 81 81

LogHP Correlation

Coefficient

.887** .444** 1.000 .925** -.097

Sig. (2-tailed) .000 .000 . .000 .390

N 81 81 81 81 81

LogWT Correlation

Coefficient

.687** .540** .925** 1.000 -.079

Sig. (2-tailed) .000 .000 .000 . .482

N 81 81 81 81 81

ABS_RE S2

Correlation Coefficient

-.141 -.159 -.097 -.079 1.000

Sig. (2-tailed) .210 .157 .390 .482 .

N 81 81 81 81 81