Uji Regresi Linier Analisis Regresi Komponen Utama

Jika ���� = � 2 � maka matriks kovarian untuk �̂ diberikan oleh � 2 = � ′ � −1 . Jika �� = �� dan ���� = � 2 �, maka penduga kuadrat terkecil �̂ mempunyai varian minimum diantara semua variabel penduga tak bias linier. Bukti: �����̂� = � ����̂ − ���̂�� ��̂ − ���̂��� ′ � = �[ � + � ′ � −1 � ′ � − �� + � ′ � −1 � ′ � − � ′ ] = �[� ′ � −1 � ′ �� ′ � −1 � ′ � ′ ] = �[� ′ � −1 � ′ �� ′ ��′� −1 ] = � ′ � −1 � ′ �� ′ � −1 �� ′ � = � ′ � −1 �� 2 = � ′ � −1 � 2 2.20

2.6 Uji Regresi Linier

Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada hubungan linier antara varaiabel tak bebas Y dan variabel bebas � 1 , � 2 , … , � � . Uji yang digunakan adalah uji mengggunakan statistik F berbentuk: � ������ = ��� � � ��� �−�−1 � 2.21 dengan: JKR = Jumlah Kuadrat Regresi JKS = Jumlah Kuadrat Sisa k = Derajat kebebasan JKR n– k- 1 = Derajat kebebasan JKS Dalam uji hipotesis, digunakan daerah kritis: � ditolak jika � ������ � ����� dengan: � ����� = � �,�−�−1,� Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah koefisien tersebut layak dipakai dalam persamaan atau tidak. Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut: � ∶ � � = 0 artinya koefisien regresi ke- � tidak signifikan atau variabel bebas ke-� tidak berpengaruh nyata terhadap �. � 1 ∶ � � ≠ 0 artinya koefisien regresi ke-� signifikan atau variabel bebas ke-� berpengaruh nyata terhadap �. Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah: � ������ ��̂ � � = �� � ���� ��� � � 2.23 Jika �� ������ ��̂ � �� � �−�−1;�2 , maka � ditolak yang artinya variabel bebas ke- � berpengaruh nyata terhadap �.

2.7 Analisis Klaster

2.7.1 Konsep Dasar

Analisis klaster merupakan suatu kelas teknik, dipergunakan untuk mengklasisfikasi objek atau kasus responden ke dalam kelompok yang relatif homogen, yang disebut klaster cluster. Objek kasus variabel dalam satu klaster cenderung mirip satu sama lain dan berbeda jauh tidak sama dengan objek dari klaster lainnya. Analisis klaster disebut juga analisis klasifikasi atau taksonomi numerik numerical taxonomy. Setiap objek hanya masuk ke dalam 1 klaster saja, tidak terjadi tumpang tindih overlapping Supranto, 2010. Gambar 2.1: Pengklasteran Ideal X 2 X 1 Gambar 2.1 menunjukkan hasil pengklasteran yang ideal, di mana setiap objek variabel kasus hanya masuk atau menjadi anggota dari salah satu klaster tidak mungkin menjadi anggota dari dua klaster atau lebih. Gambar 2.1 menunjukkan situasi di mana klaster dipisahkan secara berbeda distincly separated pada dua variabel. Perhatikan bahwa setiap objek kasus variabel hanya masuk ke dalam1 klaster dan tidak terjadi tumpang tindih, kalster saling meniadakan mutually exclusive. Sebaliknya pada gambar 2.2 menunjukkan hasil pengklasteran yang sering terjadi dalam praktik, yaitu terjadi tumpang tindih, artinya objek variabel yang seharusnya menjadi anggota klaster 1, menjadi anggota klaster 2, dan sebaliknya. Gambar 2.2: Pengklasteran dalam praktik X 2 X 1

2.7.2 Melakukan Analisis Klaster

Adapaun langkah-langkah yang diperlukan untuk melakukan analisis klaster adalah: 1. Merumuskan Masalah Hal yang paling penting dalam perumusan masalah analisis klaster ialah pemilihan variabel-variabel yang akan digunakan untuk pengklasteran Memasukkan satu atau dua varaiebel yang tidak relevan akan mendistorsi hasil pengklasteran yang kemungkinan besar sangat bermanfaat. Pada dasarnya set variabel yang dipilih harus menguraikan kemiripan similarity, yang memang benar-benar relevan dengan permasalahn yang akan dibahas. 2. Memilih Ukuran Jarak Oleh karena tujuan analisis klaster adalah untuk mengelompokkan objek variabel yang mirip dalam klaster yang sama, maka beberapa ukuran diperlukan untuk mengakses seberapa mirip atau berbeda objek objek atau varaiabel varaiabel tersebut.Pendekatan yang paling biasa ialah mengukur kemiripan dinyatakan dalam jarak distance antara pasangan objek. Ukuran kemiripan yang yang paling biasa dipakai ialah jarak euclidean euclidean distance atau nilai kuadratnya yang merupakan akar dari jumlah kuadrat perbedaan deviasi di dalam nilai untuk setiap variabel. Rumusnya adalah sebagai berikut: ��, � = �∑ � � − � � 2 2.25 3. Memilih Suatu Prosedur Pengklasteran Gambar 2.3: Klasifikasi Prosedur Pengklasteran Clustering Procedure Hierarchical Devisive Agglomerative Optimizing Paralle Sequential Non- Hierarchical Prosedur pengklasteran bisa hierarki dan bisa juga non hierarki. Pengklasteran hierarki ditandai dengan pengembangan suatu hierarki atau struktur mirip pohon tree like structure. Metode hierarki bisa aglomeratif atau devisif agglomerative or divisive. Pengklasteran agglomeratif dimulai dengan setiap objek dalam suatu klaster yang terpisah. Klaster dibentuk dengan mengelompokkan objek variabel ke dalam klaster yang semakin membesar., yaitu semakin banyak elemen atau objek yang menjadi anggotanya. Proses ini dilanjutkan sampai semua objek menjadi anggota dari suatu klaster tunggal. Sebaliknya pengklasteran devisif dimulai dari semua objek dikelompokkan menjadi klaster tunggal. Kemudian klaster dibagi atau dipisah, sampai setiap objek berada di dalam klaster yang terpisah. Hasil dari kedua metode agglomeratif dan devisif bisa disajikan dalam bentuk dendogram, sebagai suatu diagram dua dimensi. Di sini akan dibahas prosedur agglomerasi hierarkis, khususnya metode pertalian linkage method, yaitu single linkage method metode pertalian tunggal, complete linkage method metode pertalian lengkap, average linkage method metode pertalian rata-rata. Berikut adalah langkah-langkah di dalam pengklasteran agglomeratif hierarkis untuk mengelompokkan N objek responden kasus variabel. a. Mulai dengan N kelompok klaster, masing-masing kelompok suatu objek tunggal dan matriks simetris N x N berjarak D = {di k }. Centroid Variance Linkage Ward’s Method Average Linkage Complete Linkage Single Linkage b. Selidiki jarak matriks untuk pasangan kelompok yang paling mirip atau paling dekat. Misalkan jarak yang paling mirip yaitu U dan V = d uv . c. Gabungkan kelompok atau klaster U dan V. Klaster ini disebut klaster UV. Perbaharui entry di dalam matriks jarak dengan: i. Menghapus menghilangkan baris dan kolom, sesuai dengan klaster U dan V. ii. Tambah satu baris dan kolom memberikan jarak antara klaster UV dan sisa klaster. d. Ulangi langkah 2 dan 3 sebanyak N-1 kali. Seluruh objek akan berada dalam 1 klaster kelompok setelah algoritma selesai. Catat identitas klaster yang digabung dan tingkatan distance or similarities pada saat mana penggabungan terjadi. Jenis prosedur pengklasteran yang kedua yaitu metode nonhierarki atau yang sering disebut K-means clustering sangat berbeda dengan metode hierarki. Dalam metode ini, kita terlebih dahulu menentukan jumlah klaster dan pusat klaster sembarang, sehingga hasil klaster bergantung pada bagaimana pusat center dipilih. 4. Menentukan Banyaknya Klaster Isu utama dalam analisis klaster ialah menetukan berapa banyaknya klaster. Dalam kenyataannya, tidaka ada aturan baku untuk menentukan berapa sebetulnya banyaknya klaster, namun demikian ada beberapa petunjuk yang bisa dipergunakan, yaitu: a. Pertimbanngan teoritis, konseptual, praktis, mungkin bisa diusulkan disarankan untuk menetukan berapa banyaknya klaster yang sebenarnya. b. Di dalam pengklasteran hierarki, jarak dimana klaster digabung bisa dipergunakan sebagai kriteria. Hal paling mudah adalah dengan melihat dendogram. c. Di dalam pengklasteran nonhierarki, rasio jumlah varian dalam klaster dengan jumlah varian antarklaster dapat diplotkan melawan banyaknya klaster, di luar titik ini biasanya tidak perlu. d. Besarnya relatif klaster harus berguna . 5. Menginterpretasi dan Memprofil Klaster

2.8 Analisis Komponen utama

Analisis komponen utama merupakan teknik statsistik yang dapat digunakan untuk mereduksi sejumlah variabel bebas menjadi beberapa variabel baru yang bersifat orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya. Analisis komponen utama bertujuan untuk mengubah dari sebagian besar variabel asli yang digunakan yang saling berkorelasi menjadi satu set variabel baru yang lebih kecil saling bebas dan merupakan kombinasi linier dari variabel asalnya. Selanjutnya variabel baru ini dinamakan komponen utama principal component. Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga lebih mudah untuk menginterpretasikan data tersebut.

2.8.1 Menentukan Komponen Utama

Komponen utama ditentukan melalui matriks kovarian Ʃ dan matriks korelasi � dari � 1 , � 2 , … , � � . Matriks kovarian Ʃdigunakan untuk membentuk komponen utama apabila semua variabel yang diamati mempunyai satuan pengukuran yang sama. Sedangkan matriks korelasi � digunakan apabila variabel yang diamati tidak mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan, sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel baku.

2.8.1.1 Komponen Utama Berdasarkan Matriks Kovarian Ʃ

Dipunyai matriks kovarian Ʃdari � buah variabel, � 1 , � 2 , … , � � . Total varian dari variabel-variabel tersebut didefinisikan sebagai ��Ʃ = �����Ʃ yaitu penjumlahan dari unsur diagonal matriks Ʃ. Melalui matriks kovarian Ʃ bisa diturunkan akar ciri-akar cirinya, yaitu: � 1 ≥ � 2 ≥ ⋯ ≥ � � ≥ 0 dan vektor ciri-vektor cirinya � 1 , � 2 , … , � � . Komponen utama dari vektor berukuran � × 1, � = �� 1 , � 2 , … , � � � ′ adalah kombinasi linier terbobot dari variabel asal yang dapat menerangkan keragaman terbesar. Komponen utama pertama dapat dituliskan sebagai: � 1 = � 11 � 1 + � 12 � 2 + ⋯ + � 1 � � � � 1 = � 1 ′ � 2.29 dengan: � 1 ′ � = �� 11 , � 12 , … , � 1 � � ′ dan � 1 ′ � 1 = 1 Varian dari komponen utama pertama adalah: � 2 � 1 = � � � �1 � �1 � �� � � =1 � �=1 = � 1 ′ ∑ � 1 2.30 Vektor pembobot � ′ adalah vektor normal, koefisisen � �1 adalah unsur-unsur dari vektor ciri yang berhubungan dengan akar ciri terbesar � 1 yang diturunkan dari matriks kovarian Ʃ dipilih sedemikian sehingga � 2 � 1 mencapai maksimum dengan kendala � 1 ′ � 1 = 1. Menggunakan teknik pemaksimuman berkendala Lagrange diperoleh persamaan: �� 1 , � 1 = � 2 � 1 − � 1 � 1 ′ � 1 − 1 = � 1 ′ � � 1 − � 1 � 1 ′ � 1 − 1 Fungsi ini mencapai maksimum jika turunan parsial pertama �� 1 , � 1 terhadap � 1 sama dengan nol. �� � 1 , � 1 �� 1 = 2 ∑ � 1 − 2� 1 � 1 = 0 atau ∑ � 1 = � 1 � 1 2.31 Persamaan 2.31 dipenuhi oleh � 1 dan � 1 yang merupakan pasangan akar ciri dan vektor ciri matriks Ʃ. Akibatnya, � 1 ′ ∑ � 1 = � 1 ′ � 1 � 1 = � 1 � 1 ′ � 1 = � 1 . Oleh karena itu, varian � 1 = � 2 � 1 = � 1 ′ ∑ � 1 = � 1 harus maksimum, maka � 1 adalah akar ciri yang terbesar dari matriks Ʃdan� 1 adalah vektor ciri yang bersesuaian dengan � 1 . Komponen utama kedua adalah kombinasi linier terbobot variabel asal yang tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa kovarian data setelah diterangkan oleh komponen utama pertama. Komponen utama kedua dapat dituliskan sebagai: � 2 = � 21 � 1 + � 22 � 2 + ⋯ + � 2 � � � � 2 = � 2 ′ � 2.32 dengan: � 2 ′ � = �� 21 , � 22 , … , � 2 � � ′ dan � 2 ′ � 2 = 1 Vektor pembobot � ′ adalah vektor normal yang dipilih sehingga keragaman komponen utama kedua maksimum, serta orthogonal terhadap vektor pembobot � 1 ′ dari komponen utama pertama. Agar varian dari komponen utama kedua maksimum, serta antara komponen utama kedua tidak berkorelasi dengan komponen utama pertama, maka vektor pembobot � 2 dipilih sedemikan sehingga � 2 = � 2 ′ � tidak berkorelasi dengan � 1 = � 1 ′ �. Varian komponen utama kedua � 2 adalah: � 2 � 2 = � � � �2 � �2 � �� � � =1 � �=1 = � 2 ′ ∑ � 2 2.33 Varian tersebut akan dimaksimumkan dengan kendala � 2 ′ � 2 = 1 dan ���� 1 , � 2 = ���� 1 �, � 2 � = � 1 ′ ∑ � 2 = 0. Karena � 1 adalah vektor ciri dari Ʃ dan Ʃ adalah matriks simetris, maka: � 1 ′ Ʃ = Ʃ� 1 ′ = �� 1 ′ = �� 1 ′ . Kendala � 1 ′ ∑ � 2 = �� 1 ′ � 2 = 0 dapat dituliskan sebagai � 1 ′ � 2 = 0. Jadi fungsi Lagrange yang dimaksimumkan adalah: �� 2 , � 2 , � = � 2 ′ ∑ � 2 − � 2 � 2 ′ � 2 − 1 − �� 1 ′ � 2 − 0 2.34 Fungsi ini mencapai maksimum jika turunan parsial pertama �� 2 , � 2 , � terhadap � 2 sama dengan nol, sehingga diperoleh: �� � 1 , � 1 , � �� 2 = 2 ∑ � 2 − 2� 2 � 2 − � ∑ � 1 = 0 2.35 Jika persamaan 2.35 dikalikan dengan � 1 ′ maka diperoleh: 2 � 1 ′ ∑ � 2 − 2� 2 � 1 ′ � 2 − �� 1 ′ ∑ � 1 = 0 karena ∑ � 1 = � 1 � 1 2 � 1 ′ � � 2 − 2� 2 � 1 ′ � 2 − �� 1 � 1 ′ � 1 = 0 2 � 1 ′ � � 2 − 0 − �� 1 = 0 Oleh karena 2 � 1 ′ ∑ � 2 = 0 maka � = 0. Dengan demikian persamaan 2.35 setelah diturunkan terhadap � 2 menjadi ��� 1 , � 1 , � �� 2 = 2 � � 2 − 2� 2 � 2 = 0 ∑ � 2 − � 2 � 2 = 0 2.36 Jadi � 2 dan � 2 merupakan pasangan akar ciri dan vektor ciri dari matriks varian kovarian Ʃ. Seperti halnya penurunan pada pencarian � 1 , akan diperoleh bahwa � 1 adalah vektor yang bersesuaian dengan akar ciri terbesar kedua dari matriks Ʃ. Secara umum komponen utama ke-j dapat dituliskan sebagai berikut: � � = � 1 � � 1 + � 2 � � 2 + ⋯ + � �� � � � � = � � ′ � 2.37 dengan: � � ′ = �� �1 , � �2 , … , � �� � ′ dan � � ′ � � = 1 vektor pembobot � � ′ diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu: � 2 � � = � � ′ ∑ � � 2.38 dengan kendala: � � ′ � � = 1 serta � � ′ � � = 0 untuk i ≠ j Dengan kendala ini, maka akar ciri � � dapat diinterpretasikan sebagai ragam komponen utama ke-j sesama komponen utama tidak berkorelasi. Vektor pembobot � � ′ yang merupakan koefisien pembobot variabel asal bagi komponen utama ke- j diperoleh dari matriks peragam Ʃ yang diduga dengan matriks S berikut: � = 1 �−1 ∑ � ℎ − �̅� ℎ − �̅ ′ � ℎ=1 2.39

2.8.1.2 Komponen Utama Berdasarkan Matriks Korelasi �

Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka varaiabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku Vincent Gasperz, 1991. Variabel asal perlu ditransformasi ke dalam variabel baku Z, dalam catatan matriks adalah: � = �−µ � 2.40 dengan: Z = variabel baku X = variabel asal µ = rata-rata variabel asal σ = standard deviasi Komponen utama dari Z dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi yang diduga dengan matriks �, dimana vektor pembobot � � ′ diperoleh dengan memaksimumkan keragaman komponen utama ke- j dengan kendala: � � ′ � � = 1, serta � � ′ � � = 0, untuk � ≠ �. Semua formula yang telah diturunkan berdasarkan variabel-variabel � 1 , � 2 , … , � � dengan matriks Ʃ akan berlaku untuk peubah-peubah � 1 , � 2 , … , � � dengan nilai matriks �. Sehingga diperoleh komponen utama ke- jdengan menggunakan variabel baku yaitu: � � = � � ′ � dengan: � � = komponen utama ke- j � � ′ = vektor ciri ke- j � = variabel baku

2.8.2 Kriteria Pemilihan Komponen Utama

Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula terdapat p variabel bebas menjadi k komponen utama dimana � �. Kriteria pemilihan k didasarkan pada akar ciri yang lebih besar dari satu, dengan kata lain hanya komponen utama yang memiliki akar ciri lebih besar dari satu yang dilibatkan dalam analisis.

2.9 Analisis Regresi Komponen Utama

Aroef, M. A. 1991 mengatakan bahwa analisis komponen utama bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru yang tidak berkorelasi. Variabel baru y disebut komponen utama yang merupakan hasil transformasi dari variabel asal x yang modelnya dalam catatan matriks adalah: y= A x dimana A adalah matriks yang melakukan transformasi terhadap variabel asal x, sehingga diperoleh vektor komponen y. Secara umum komponen utama ke-j dapat dituliskan sebagai berikut: � � = � 1 � � 1 + � 2 � � 2 … + � �� � � Regresi komponen utama adalah teknik yang digunakan untuk meregresikan komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil. Tahap pertama pada prosedur regresi komponen utama yaitu menentukan komponen utama yang merupakan kombinasi linier dari beberapa variabel X, dan tahap kedua adalah variabel tak bebas diregresikan pada komponen utama dalam sebuah model regresi linier. Persamaan regresi komponen utama berdasarkan matriks kovarian pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks korelasi yaitu variabel X 1 , X 2 , …, X p diganti dengan variabel baku Z 1 , Z 2 , …, Z p . Kedua persamaan tersebut digunakan sesuai dengan pengukuran variabel-variabel yang diamati. Apabila diberikan notasi W 1 , W 2 , …, W k sebagai banyaknya komponen utama yang dilibatkan dalam analisis regresi komponen utama, dimana k lebih kecil daripada banyaknya variabel penjelas asli X, yaitu sejumlah pkp. Maka bentuk umum persamaan regresi komponen utama adalah: � = � + � 1 � 1 + � 2 � 2 + … + � � � � 2.41 dengan: Y = variabel tak bebas W i = variabel komponen utama δ i = parameter model regresi komponen utama Komponen utama merupakan kombinasi linier dari variabel Z: � 1 = � 11 � 1 + � 21 � 2 + … + � �1 � � � 2 = � 12 � 1 + � 22 � 2 + … + � �2 � � . . . … . . . . … . . . . … . � � = � 1 � � 1 + � 2 � � 2 + … + � �� � � dengan: W i = komponen utama α ij =koefisien komponen utama Z i = variabel baku Komponen utama W 1 , W 2 , …, W k dalam persamaan di atas disubstitusikan ke dalam persamaan bentuk umum regresi komponen utama, kemudian diselesaikan secara aljabar, maka diperoleh: Ŷ = � + � 1 � 1 + � 2 � 2 + … + � � � � 2.42 dengan: β = δ = Ŷ β 1 = δ 1 α 11 + δ 2 α 12 + … + δ k α 1k . . . … . . . . … . . . . … . β p = δ 1 α p1 + δ 2 α p2 + … + δ k α pk BAB 3 METODOLOGI PENELITIAN Langkah-langkah yang digunakan dalam penelitian ini adalah sebagai berikut : 1. Studi Literatur Tahap ini dilakukan dengan mengidentifikasi permasalahan, mengkaji dan memahami teori-teori yang dipelajari diantaranya mengenai evaporasi, konsep dasar analisis klaster, analisis komponen utama dan regresi. Penelusuran referensi ini bersumber dari buku, jurnal penelitian maupun situs internet mengenai hal-hal yang berhubungan dengan evaporasi,analisis klaster, analisis komponen utama dan regresi. 2. Mengumpulkan data, yaitu dengan melakukan peninjauan dan pengambilan data di stasiun Badan Meteorologi Klimatologi dan Geofisika BMKG Stasiun Klimatologi Klas I Sampali Medan secara langsung. 3. Menguraikan penyelesaian masalah dengan: a. Mendefinisikan variabel-variabel pengamatan, yaitu: X 1 = temperatur °C X 2 = kecepatan angin ms X 3 = tekanan mbar X 4 = intensitas radiasi matahari X 5 = kelembaban Y = evaporasi mm b. Melakukan analisis klaster Adapun langkah-langkah dalam melakukan analisis klaster adalah sebagai berikut: i. Membakukan data Data yang akan dibakukan adalah variabel � 1 , � 2 , � 3 , � 4 , � 5 dengan menggunakana rumus: � = �−� � ii. Menghitung jarak antar variabel yang diamati dengan menggunakan rumus euclidean, yaitu: � �,� = �� �� �� − � �� � 2 � �=1 Algoritma penghitungan jarak berdasarkan pada teori di bab 2.7.2. iii. Menentukan banyaknya klaster iv. Memprofil klaster c. Melakukan analisis komponen utama untuk masing-masing klaster yang sudah didapat. Adapun langkah-langkah yang untuk melakukan analisis komponen utama adalah sebagai berikut: i. Membakukan data berdasarkan variabel yang diperoleh dari analisis klaster ii. Menghitung koefisien korelasi iii. Menghitung nilai eigen dan vektor eigen iv. Mendapatkan komponen utama d. Memodelkan evaporasi terhadap komponen utama yang sudah didapatkan menggunakan analisis regresi. 4. Membuat kesimpulan. BAB 4 PEMBAHASAN

4.1 Pengumpulan Data