peubah dominan dari sederet peubah yang dilibatkan dan dapat pula mengidentifikasi peubah-peubah yang hanya berpengaruh dan berinteraksi secara
lokal dalam kelompok tertentu Jang et al. 1997; Tran et al. 2009; Kissi Ramdani 2010.
Beberapa keunggulan yang dimiliki oleh decision tree adalah Breiman et al. 1984:
1. Struktur datanya dapat dilihat secara visual sehingga berdasarkan model
yang dihasilkan dapat memudahkan dalam eksplorasi data dan pengambilan keputusan.
2. Proses pendugaan nilai respon sangat mudah dilakukan dengan menelusuri
pohon klasifikasi atau regresi yang dihasilkan. 3.
Kemampuan identifikasi prioritas peubah yang mempengaruhi respon dapat diketahui dengan mudah.
4. Mempunyai kemampuan untuk mengidentifikasi interaksi antar peubah
yang berpengaruh secara lokal sebagai akibat diterapkannya pengambilan keputusan secara bertahap dalam himpunan-himpunan bagian data
pengukuran. 5.
Hasil keluaran yang diperoleh lebih mudah untuk diinterpretasikan.
2.4.1 Classification Regression Tree CART
Untuk membangun sebuah decision tree pohon keputusan yang cocok, algoritme CART pertamakali menumbuhkan tree secara luas berdasarkan pada
gugus data pelatihan, dan kemudian memangkas kembali pohon didasari oleh sebuah prinsip kompleksitas biaya minimum. Hasilnya adalah runutan tree dengan
ukuran yang bervariasi, tree terakhir yang dipilih adalah tree dengan ukuran terbaik.
Pembentukan pohon regresi memerlukan 4 komponen Abdul Kudus, 1999 diacu dalam Suherlan 2006, yaitu :
1. Satu gugus pertanyaan dikotomus dengan bentuk ”Apakah x
i
∈ A?” dengan x
i
merupakan suatu amatan contoh dan A ⊂ x ruang peubah penjelas. Jawaban dari pertanyaan tersebut menentukan sekatan partition,
atau split bagi ruang peubah penjelas. Amatan dengan jawaban ”ya” masuk
ke anak ruang A sedangkan yang ”tidak” masuk ke ruang komplemen A. Anak ruang contoh yang terbentuk disebut simpul node.
2. Kriteria goodnes of split φs,t yang merupakan alat evaluasi bagi
pemilahan yang dilakukan oleh pemilah split s pada simpul t. 3.
Ukuran yang digunakan untuk menentukan ukuran pohon yang layak right sized tree.
4. Statistik yang digunakan sebagai ringkasan dari tiap simpul akhir.
2.4.2. Aturan Pemilahan
Pohon regresi dibentuk melalui pemilahan data pada tiap simpul ke dalam dua simpul anak. Aturannya adalah sebagai berikut:
1. Tiap pemilahan tergantung pada nilai yang hanya berasal dari satu peubah
penjelas. 2.
Untuk peubah kontinu X
j
, pemilahan hanya berasal dari pertanyaan ”Apakah X
j
≤ c ?” untuk c ∈ ℜ. Jadi jika ruang contohnya berukuran n dan terdapat sebanyak-banyaknya n nilai amatan yang berbeda pada peubah X
j
, maka akan terdapat sebanyak-banyaknya n-1 split yang berbeda yang
dibentuk oleh gugus pertanyaan {”Apakah X
j
≤ c ?”}, dengan i= 1, 2, ...,n-1 dan c nilai tengah-tengah antara dua nilai amatan peubah X
j
berurutan yang berbeda.
2.4.3. Aturan Growing dan Kriteria Goodness of Split φt
Pohon regresi dibentuk dengan pemilahan yang rekursif berdasarkan kriteria tertentu. Proses pemilahan dilakukan pada tiap simpul dengan cara :
1. Cari semua kemungkinan pemilahan tiap peubah penjelas.
2. Pilih ”pemilahan terbaik” dari masing-masing peubah penjelas dan pilih
”pemilah terbaik” dari kumpulan ”pemilahan terbaik” tersebut. ”Pemilahan terbaik adalah pemilahan yang memaksimumkan ukuran kehomogenan di
dalam masing-masing simpul anak relatif terhadap simpul induknya dan yang memaksimumkan ukuran pemilahan separation antara dua simpul
anak tersebut.