Analisa Pembahasan

4.2.8 Analisis Correlation Matrix

Dari Tabel 2. Dapat kita lihat ada 3 jenis data yaitu negatif, positif dan angka 1. hasil negative menunjukkan hubungan yang cukup kuat antar variabel dan nilai keduanya berbanding terbalik. Apabila Korelasi 2 variabel apabila menunjukkan hasil positive menunjukkan hubungan yang lemah antar variabel dan nilai keduanya berbanding Dari Tabel 2. Dapat kita lihat ada 3 jenis data yaitu negatif, positif dan angka 1. hasil negative menunjukkan hubungan yang cukup kuat antar variabel dan nilai keduanya berbanding terbalik. Apabila Korelasi 2 variabel apabila menunjukkan hasil positive menunjukkan hubungan yang lemah antar variabel dan nilai keduanya berbanding

Menentukan Reproduced correlation matrix (Rr) dan Residual Correlation Matrix (Res). “Rr” diperoleh dari perkalian antara matriks

loading factor dari hasil rotasi L ∗ dengan transpos-nya , dan “Res” adalah matriks yang diperoleh dengan mengurangkan matriks ragam peragam sampel S dengan Rr. Semakin kecil nilai Res (< 0.05) maka semakin baik hasil factoringnya (Dwipurwani et al., 2009).

Correlation matrix, yaitu matrix korelasi yang merupakan sajian dari hasil korelasi antar butir yang menunjukkan koefisien korelasi (r) antara butir satu dengan butir lainnya, yang mungkin dapat atau tidak dimasukkan ke dalam analisis. loading menerangkan korelasi antara variabel asal dengan faktornya. Besaran korelasi yang besar menyatakan hubungan yang erat antara faktor dan variabel asal sehingga variabel dapat digunakan untuk menafsirkan faktor (Yunitasari dan Japariyanto, 2013).

4.2.9 Analisis Grafik PCA

Pada Grafik 7. Dpat kita lihat ada 2 hasil yaitu grafik menurun dan grafik naik. Grafik turun merupakan nilai eigenvalue dimana pada F1 sampai F5 mengalami penurunan cukup tanjam. Grafik naik merupakan cumulative cortabillity (%) dimana mulai dari F1 sampai F5 mengalami kenaikan hingga pada F% yaitu axis terakhir berada pada nilai puncak 100%.

Dalam hal ini kita menggunakan prosedur Principal Component Analysis (PCA) untuk mengatasi multikolinearitas. Prosedur PCA pada dasarnya bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali (Soemartini, 2008).

Principal component analysis adalah kombinasi linear dari variabel awal yang secara geometris kombinasi linear ini merupakan sistem koordinat baru yang diperoleh dari rotasi sistem semula [6]. Metoda PCA sangat berguna digunakan jika data yang ada memiliki jumlah variabel yang besar dan memiliki korelasi antar variabelnya.

Perhitungan dari principal component analysis didasarkan pada perhitungan nilai eigen dan vektor eigen yang menyatakan penyebaran data dari suatu dataset. Tujuan dari analisa PCA adalah untuk mereduksi variabel yang ada menjadi lebih sedikit tanpa harus kehilangan informasi yang termuat dalam data asli/awal (Hendro et al., 2012).

4.2.10 Analisis Biplot

Pada Grafik 8. Dapat kita lihat ada empat kuadran, pada semua kuadran tersebar titik-titik yang jumlahnya berbeda setiap kuadrannya. Data terbanyak berada di kuadran tiga. Pada kuadran pertama faktor yang mempengaruhi adalah anomali temperatur. Pada kuadran kedua yang mempengaruhi adalah SOI dan Nini 3.4. Pada kuadran ketiga faktor yang mempengaruhi adalah DMI dan anomali chlorofil. Sedangkan pada kuadran keempat tidak ada faktor yang mempengaruhi.

Analisis biplot komponen utama didasarkan pada Singular Value Decomposition (SVD). SVD bertujuan menguraikan suatu matriks X berukuran n x p yang merupakan matriks variabel ganda yang terkoreksi terhadap rataannya dimana n adalah banyaknya objek pengamatan dan p adalah banyaknya variabel, menjadi 3 buah matriks. Pendekatan langsung untuk mendapatkan nilai singularnya, dengan persamaan yang digunakan adalah matriks X berukuran n x p yang berisi n objek dan p variabel yang dikoreksi terhadap rata- ratanya dan mempunyai rank r (Diyah et al., 2014).

Biplot adalah upaya membuat gambar di ruang berdimensi banyak menjadi gambar di ruang dimensi dua. Pereduksian dimensi ini harus dibayar dengan menurunnya besar informasi yang terkandung dalam Biplot. Biplot yang mampu memberikan informasi sebesar 70 % dari seluruh informasi dianggap cukup (Heriyanto dan Kinansi, 2013).