BAB 2 LANDASAN TEORI 2.1 Pengertian Regresi - Perbandingan Metode Backward Dan Metode Forward Untuk Menentukan Persamaan Regresi Linier Berganda (Studi Kasus : Jumlah Kecelakaan Lalu Lintas Di Kotamadya Medan)

BAB 2 LANDASAN TEORI

2.1 Pengertian Regresi

  Regresi pertama kali dipergunakan sebagai konsep statistika oleh Sir Francis Galton (1822 – 1911). Beliau memperkenalkan model peramalan, penaksiran, atau pendugaan, yang selanjutnya dinamakan regresi, sehubungan dengan penelitiannya terhadap tinggi badan manusia. Galton melakukan suatu penelitian di mana penelitian tersebut membandingkan antara tinggi anak laki-laki dan tinggi badan ayahnya. Galton menunjukkan bahwa tinggi badan anak laki-laki dari ayah yang tinggi setelah beberapa generasi cenderung mundur (regressed) mendekati nilai tengah populasi. Dengan kata lain, anak laki-laki dari ayah yang badannya sangat tinggi cenderung lebih pendek dari pada ayahnya, sedangkan anak laki-laki dari ayah yang badannya sangat pendek cenderung lebih tinggi dari ayahnya, jadi seolah- seolah semua anak laki-laki yang tinggi dan anak laki-laki yang pendek bergerak menuju kerata-rata tinggi dari seluruh anak laki-laki yang menurut istilah Galton disebut dengan “regression to mediocrity”. Dari uraian tersebut dapat disimpulkan bahwa pada umumnya tinggi anak mengikuti tinggi orangtuanya (Sudjana, 1996).

  Istilah “ regresi” pada mulanya bertujuan untuk membuat perkiraan nilai satu variabel (tinggi badan anak) terhadap satu variabel yang lain (tinggi badan orang tua). Pada perkembangan selanjutnya analisis regresi dapat digunakan sebagai alat untuk membuat perkiraan nilai suatu variabel dengan menggunakan beberapa variabel lain yang berhubungan dengan variabel tersebut (Algafari, 2000).

  Jadi prinsip dasar yang harus dipenuhi dalam membangun suatu persamaan regresi adalah bahwa antara suatu variabel tidak bebas (dependent variable) dengan sebab akibat (hubungan kausalitas), baik didasarkan pada teori, hasil penelitian sebelumnya, maupun yang didasarkan pada penjelasan logis tertentu (Algafari, 2000).

2.1.1 Analisis Regresi Linier

  Perubahan nilai suatu variabel tidak selalu terjadi dengan sendirinya, namun perubahan nilai variabel itu dapat disebabkan oleh berubahnya variabel lain yang berhubungan dengan variabel tersebut. Untuk mengetahui pola perubahan nilai suatu variabel yang disebabkan oleh variabel lain diperlukan alat analisis yang memungkinkan untuk membuat perkiraan (prediction) nilai variabel tersebut pada nilai tertentu variabel yang mempengaruhinya (Algafari, 2000).

  Teknik yang umum digunakan untuk menganalisis hubungan antara dua atau lebih variabel adalah analisis regresi. Analisis regresi (regression analisis) merupakan suatu teknik untuk membangun persamaan garis lurus dan menggunakan persamaan tersebut untuk membuat perkiraan (Algafari, 2000). Analisis regresi merupakan teknik yang digunakan dalam persamaan matematik yang menyatakan hubungan fungsional antara variabel-variabel. Analisis regresi linier atau regresi garis lurus digunakan untuk : 1.

  Menentukan hubungan fungsional antar variabel dependen dengan independen. Hubungan fungsional ini dapat disebut sebagai persamaan garis regresi yang berbentuk linier.

2. Meramalkan atau menduga nilai dari satu variabel dalam hubungannya dengan variabel yang lain yang diketahui melalui persamaan garis regresinya.

  Analisis regresi tediri dari dua bentuk yaitu : 1.

  Analisis Regresi Linear Sederhana 2. Analisis Regresi Linear Berganda bertujuan untuk mempelajari hubungan antara dua variabel, yakni variabel dependent (terikat) dan variabel independent (bebas). Sedangkan analisis regresi berganda adalah bentuk regresi dengan model yang memiliki hubungan antara satu variabel

  dependent dengan dua atau lebih variabel independent (Sudjana, 1996).

  Variabel independent adalah variabel yang nilainya tidak tergantung dengan variabel lainnya, sedangkan variabel dependent adalah variabel yang nilainya tergantung dari variabel yang lainnya (Algafari, 2000).

  Analisis regresi linear dipergunakan untuk menelaah hubungan antara dua variabel atau lebih, terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan baik, atau untuk mengetahui bagaimana variasi dari beberapa variabel independen mempengaruhi variabel dependen dalam suatu fenomena yang komplek. Jika, X , X , . . ., X adalah variabel-variabel independent dan Y adalah 1 2

  k

  variabel dependent, maka terdapat hubungan fungsional antara X dan Y, dimana variasi dari X akan diiringi pula oleh variasi dari Y. (Sujana, 1996). Jika dibuat secara matematis hubungan itu dapat dijabarkan sebagai berikut: Dimana : Y = f (X , X , . . . , X , e) 1 2 k

  Y adalah variabel dependen (tak bebas) X adalah variabel independen (bebas) e adalah variabel residu (disturbace term)

2.1.2 Analisis Regresi Linier Sederhana

  Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS. Analisis regresi linear sederhana satu buah variabel terikat.

  Regresi linier sederhana digunakan untuk memperkirakan hubungan antara dua variabel di mana hanya terdapat satu variabel/peubah bebas X dan satu peubah tak bebas Y (Drapper & Smith, 1992). Dalam bentuk persamaan, model regresi sederhana adalah :

  • Y i = dimana : Y = variabel terikat/tak bebas (dependent)

1 X i i (2.1)

  i

  X i = variabel bebas (independent) = jarak titik pangkal dengan titik potong garis regresi pada sumbu

  Y (intercept)

  1 = kemiringan (slope) garis regresi i = kesalahan (error)

  Parameter dan

  1 diduga dengan menggunakan garis regresi. Bentuk persamaan

  garis regresi adalah sebagai berikut : Y �

  i = b + b

1 X i (2.2)

  dimana : Y �

  merupakan penduga titik bagi Y i

  b

  merupakan penduga titik bagi

  b

  1 merupakan penduga titik bagi

  1

  dari persamaan

  n n

  2

2 S = = �)

  � ε �(Y i − Y i

  i=1 i=1 n n

  2

2 S = = ) (2.3)

  � ε �(Y i − −

  1

  1 i=1 i=1

  Kemudian didiferensialkan terhadap ,

  

1

n

  ∂S = )

  i

  1

  1

  −2 �(Y − − ∂

  i=1 n

  ∂S = (Y ) (2.4)

  1 i

  1

  1

  −2 � − −

  1

  ∂

  i=1

  Hasil diferensial disamakan dengan nol n

  X ) = 0 �(Y i − b − b

  1 i i=1 n

  (Y X ) = 0 (2.5) � X i i − b − b

  1 i i=1

  Dengan mensubsitusikan( b b ) untuk ( , ) dan menyamakan hasilnya dengan

  0,

  1

  1

  nol maka diperoleh persamaan

  n n

  = 0 � Y i − nb − b

  1 � X i i=1 i=1 n n n

2 Y = 0 (2.6)

  � X i i − b � X i − b

  1 � X i i=1 i=1 i −1

  Dari persamaan (2.6) diperoleh persamaan normal

  • =

  1 � � =1 =1 n

  2

  = (2.7) �

  • 1 � X � i i =1 −1 =1

  Sehingga nilai b b diperoleh dengan rumus

  0,

  1 n n n n

  2

  ( Y )(

  X ) − ( X )(

  X Y ) i 1 i i i

  ∑ ∑ ∑ ∑ i = 1 i = 1 i − 1 i =

  1 b = n n

  2

  2 n X − ( X ) i i

  ∑ ∑ = = i 1 i

  1 n n n n

  X Y − ( X )( Y ) i i i i

  ∑ ∑ ∑ = = = i 1 i 1 i

  1 b =

  1 n n

  (2.8)

  2

  2 n X ( X )

  − i i

  ∑ ∑ i = 1 i =

  1 Untuk memperkirakan nilai variabel tak bebas Y, akan lebih baik apabila kita ikut memperhitungkan variabel-variabel bebas lain yang ikut mempengaruhi nilai Y. dengan demikian dimiliki hubungan antara satu variabel tidak bebas Y dengan beberapa variabel lain yang bebas X , X , dan X , . . . , X . Untuk itulah digunakan 1 2

  3 k

  regresi linear berganda. Dalam pembahasan mengenai regresi sederhana, simbol yang digunakan untuk variabel bebasnya adalah X. Dalam regresi berganda, persamaan regresinya memiliki lebih dari satu variabel bebas maka perlu menambah tanda bilangan pada setiap variabel tersebut, dalam hal ini X , X , . . . , X 1 2

  k (Sudjana, 1996).

  Model regresi linier berganda atas X , X , . . . , X dibentuk dalam persamaan : 1 2 k Y � i = b + b

  X ki i (2.9)

  • ε Koefisien-koefisien b , b

  1 X 1 + b

2 X 2i + . . . + b k

  1 , b 2 , . . . , b k ditentukan dengan menggunakan metode

  � Y

  1 , untuk regresi i = b

  • kuadrat terkecil seperti halnya menentukan koeisien b 0, b b X + e . Oleh karena Rumus (2.9) berisikan (k+1) buah koefisien, maka b , b , b , . .

  1 i i

  1

  2

  . , b k didapat dengan jalan menyelesaikan sistem persamaan yang terdiri atas (k+1) buah persamaan. Dapat dibayangkan bahwa untuk ini diperlukan metode penyelesaian yang lebih baik dan karenanya memerlukan matematika yang lebih tinggi pula, lebih-lebih kalau harga k yang menyatakan variabel bebas, cukup besar. Oleh karena itu untuk menyelesaikan persamaan regresi linier berganda dengan variabel bebas X lebih dari dua variabel dapat diselesaikan dengan metode matriks.

  Dalam model persamaan regresi dengan k buah variabel prediktor X yang indevenden dan satu variabel dependen Y, maka model peresamaan statistikanya dapat ditulis dengan:

  • Y i =

  X ki i i = 1,2, ,n (2.10) β β β β β ε

  1 X 1i

  2 X 2i

  3 X 3i + … + k

  Keterangan: i = 1,2, ,n Y i = Variabel terikat X 1i , X 2i , X 3i ,... X ki = Variabel bebas

  β β β β β

  i = Nilai kesalahan

  ε Persamaan umum model regresi linier berganda populasi dengan jumlah variabel bebas X sebanyak k buah

  Y =

  X + + + +

  X X + … +

  X

  1

  1

  11

  2

  21

  3 31 k k1

  1

  β β β β β ε Y

  2 = + + + +

  12

  22

  X k2

  2

  β β β β β ε Y

  1 X

  2 X

  3 X 32 + … + k

  3 =

  13

  23

  X k3

  3 (2.11)

  β β β β β ε . . . . . . . . . . . . . . . . . . . . .

  1 X

  2 X

  3 X 33 + … + k

  X 1n

  X kn n + Y = + + + n β β β β β ε

  2 X 2n

  3 X 3n + … + k

  Persamaan regresi populasi dinyatakan dengan notasi matriks akan menjadi: Y = B [X] +

  (2.12) ε. Apabila terdapat sejumlah n pengamatan dan k variabel bebas X maka untuk setiap observasi atau responden mempunyai persamaannya seperti berikut:

  i = b + b

  X ki i (2.13) Ŷ

  ε Keterangan i = 1, 2, . . . , n

  1 X 1i + b

  2 X 2i + b

  3 X 3i + … + b + k

  i = Variabel terikat

  Ŷ X 1i , X 2i , X 3i ,... X ki = Variabel bebas b ,b

  1 ,b 2 ,b 3 ,…b k = Parameter regresi yang belum diketahui nilainya i = Nilai kesalahan

  ε Persamaan umum model regresi linier berganda untuk setiap obsevasi atau responden dengan jumlah variabel bebas X sebanyak k buah

  Y

  1 = b + b

  X k1 Y

  1 X 11 + b

  2 X 21 + . . . + b k

  2 = b + b

  X k2 .

  1 X 12 + b

  2 X 22 + . . . + b k

  .

  (2.14) . Y = b + b X + b X + . . . + b

  X

  n 1 1n 2 2n k kn

  Ŷ merupakan penduga titik bagi Y Dengan menggunakan matriks Y = b [X] + e

  (2.15) Y 1 . . .

  1

  11

  21

  

1

  ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤

  Y 1 . . .

  1

  2

  1

  12

  22

  

2

  ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ .

  . . . . . . . . . ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥

  • = .

  . . . . . . . . . ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ .

  . . . . . . . . .

  ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥

  Y 1 . . .

  ⎣ ⎦ ⎣ n ⎦ ⎣ ⎦ ⎣

  1 2 ⎦

  dengan e = Y- (2.16)

  Ŷ Rumus (2.15) inilah yang akan kita gunakan untuk menghitung koefisien-koefisien b , b

  1 , …b k . Untuk itu, terhadap Rumus (2.15) kita kalikan sebelah kiri dan kanan ' ' '

  dengan sehingga diperoleh Y = X b (2.17)

  X X

  X '

  Dan selanjutnya hasil ini dari sebelah kiri kita kalikan dengan inversnya

  X ialah ' -1 ' -1 '

  X

  (

  X X ) sehingga diperoleh b = (

  X X )

  X Y (2.18)

  Inilah rumus untuk mencari koefisien regresi linear ganda b ,b

  1 ,b 2, . . . .b k

  dalam bentuk matriks yang elemen-elementnya terdiri atas data pengamatan. Dalam bentuk jumlah kuadrat dan produk silang data pengamatan X ij ,elemen-elemen ' matriks

  X X adalah seperti berikut n n n

  ⎤

  X X . . .

  X

  ⎡ 1 i 2 i ki

  ∑ ∑ ∑ i 1 i 1 i 1 = = =

  ⎢ n n n n ⎥ ⎢ 2 ⎥ . . .

  X X

  X X

  X X

  ⎢ 1 i 1 i 1 i 2 1 i ki

  ∑ ∑ ∑ ∑ i = 1 i = 1 i = 1 i = 1

  ⎢ n n n n ⎥ ⎢ 2

  

  (2.19) =

  X 2 i

  X 2 i

  X 1 i

X . . .

2 i

  X 2 i ki

  X

  ⎢ ∑ ∑ ∑ ∑ ⎥ i 1 i 1 i 1 i 1

  = = = =

  ⎢ ⎥ . . . . . . .

  ⎢ ⎥ . . . . . . .

  ⎢ ⎥ . . . . . . .

  ⎢ n n n n2

  X ki ki

  X X 1 i ki

  X X . . . 2 i ki X ⎥ ∑ ∑ ∑ ∑ i 1 i 1 i 1 i 1

  = = = −

  ⎣ ⎦ Sedangkan

  

  Sebagai ketentuan dalam melakukan penelitian yang berhubungan dengan pengambilan data adalah harus diketahui ukuran sampel yang memenuhi untuk dianalisa. Untuk menentukan ukuran sampel yang memenuhi untuk dianalisa, maka dilakukan uji kecukupan sampel dengan taraf signifikan yang dipilih

  : Data yang di uji

  ′ : Ukuran sampel yang diperlukan : Ukuran sampel pengambilan

  2 Dengan:

  ∑ ⎦ ⎥ ⎥ ⎤

  2

  − (∑ )

  2

  = ⎣ ⎢ ⎢ ⎡20� ∑

  : ukuran sampel tidak memenuhi syarat Dengan statistik penguji:

  1

  : ukuran sampel telah memenuhi syarat

  = 0,05 Hipotesa :

  (2.20)

  Y merupakan vektor kolom dengan elemen-elemen

  ⎦ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎤

  X 1

  Y

  ∑ = n i i ki

  . .

  X 1 2 .

  = n i i i Y

  X 1

  = n i i i Y

  Y 1

  ∑ = n i i

  = ⎣ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎡

  

2.2 Uji Sampel

  ′≤ ditolak jika ′>

2.3 Prosedur Regresi dengan Menggunakan Metode Backward

  Metode backward merupakan langkah mundur, mulai dengan regresi terbesar dengan menggunakan semua variabel bebas dan secara bertahap mengurangi banyaknya variabel didalam persamaan sampai satu keputusan dicapai untuk menggunakan persamaan yang diperoleh dengan jumlah variabel tertentu dimana semua variabel diregresikan dengan variabel dependen didasarkan

  . Pengeleminasian variabel pada nilai dari masing-masing variabel yaitu variabel yang mempunyai nilai terkecil dan turut tidaknya variabel pada model juga ditentukan oleh nilai .

  Langkah 1 : Membentuk persamaan regresi linier berganda lengkap

  Menentukan persamaan yang membuat semua variabel bebas dengan koefisien regresi , , , , . Dapat diselesaikaan dengan metode matriks seperti yang

  1

  2

  3

  4 dijelaskan sebelumnya.

  Langkah 2: Menentukan nilai F parsial dari masing-masing variabel .

  Bila sebuah model regresi mempunyai beberapa suku maka dapat dipandang masing- masing suku itu sebagai “memasuki” persamaan regresi dalam urutan apa saja.

  ) Besaran , … , , … ,

  ( ∣∣ = 1,2, …

  −1 +1

  Merupakan jumlah kuadrat yang berderajat bebas satu yang mengukur sumbangan koefisien pada jumah kuadrat regresi bila semua suku yang tidak mengandung telah ada di dalam model. Dengan kata lain, bila dimiliki suatu ukuran manfaat penambahan suku pada model yang sebelumnya tidak mencakup suku tersebut. Cara lain menyatakan ini adalah dimiliki suatu ukuran manfaat seolah-olah suku ini dimasukkan kedalam model yang terakhir kali. Kuadrat tengahnya yang sama dengan jumlah kuadratnya karena ia mempunyai satu derajat bebas dapat

  2

  dibandingkan dengan melalui suatu uji F. Uji F semacam ini disebut uji F parsial bagi . Bila suku ekstra yang sedang dipertimbangkan adalah misalnya, maka menyadari bahwa uji itu sesungguhnya ditujukan pada koefisien .

  Bila suatu model yang sesuai sedang ’dibangun’, Uji F parsial merupakan kriterium yang sangat berguna untu memasukkan atau mengeluarkan suku dari model tersebut. Penagruh suatu peubah X (X q misalnya) dalam menentukan suatu respon mungkin besar bila persamaan regresinya hanya mencakup X . Akan tetapi bila

  q

  peubah yang sama dimasukkan ke dalam persamaan regresi setelah peubah-peubah yang lain, pengaruhnya terhadap respons mungkin menjadi sangat kecil. Ini disebabkan oleh tingginya korelasi antara X q dengan peubah-peubah yang sudah ada dalam persamaan regresi, Uji F parsial dapat dilakukan terhadap semua koefisien regresi seolah-olah peubah bersangkutan masuk ke dalam persamaan paling akhir. Informasi ini dapat digabungkan dengan informasi lain bila pemilihan peubah perlu dilakukan. Misalkan, atau saja dapat digunakan untuk menghasilkan

  1

  2

  persamaan regresi bagi respon menghasilkan galat . Misalnya penggunaan

  1

  peramalan yang lebih kecil daripada penggunaan . Maka bila ketelitian ramalan

  2

  yang dikehendaki. mungkin yang akan digunakan dimasa-masa mendatang. Akan

  1

  tetapi, kalau adalah peubah yang memungkinkan pengendalian terhadap respons

  2

  (sedangkan adalah peubah yang terukur namun bukan pengendali) dan bila

  1

  kendali atau control lebih dianggap penting dibandingkan dengan peramalan, maka mungkin lebih baik menggunakan daripada sebagai peubah bebas di masa-

  2

  1 masa mendatang.

  (Penggunaan istilah Uji F parsial hanya menekankan bahwa itu hanyalah nama yang ringkas dan memudahkan bagi uji-uji F khusus yang secara teoritis benar dalam beberapa program paket statistika uji F parsial sering disebut sebagai F untuk mengeluarkan (F to remove) atau F untuk memasukkan (F to enter) ) Untuk menentukan nilai F parsial dari masing-masing variabel diperlukan tabel sebagai berikut:

  • n

  3

  1

  2

  /

  1

  2

  2

  2

  2

  2

  2

  /

  2

  2

  3

  1

  3

  3

  2

  /

  3

  2

  4

  4

  4

  4

  2

  /

  4

  1

  1

  Sumber Variansi dk

  2

  Jumlah Kuadrat (JK)

  Rata – rata Jumlah Kuadrat

  ℎ

  Regresi p - 1 JKR KTR KTR / KTS Sisa n - p JKS KTS

  Total n – 1 JKT Dengan : n = Total sampel p = Jumlah Variabel JKT ( Jumlah kuadrat total ) =

  ∑

  2

  Ῡ

  2 JKR ( Jumlah kuadrat regresi ) =

  ∑ Y +

  1

  ∑

  1 Y +

  ∑

Tabel 2.2 Uji Korelasi Parsial No Koefisien Regresi Galat baku

  2 Y +

  3

  ∑

  3 Y +

  4

  ∑

  4 Y - n

  Ῡ

  2 JKS ( Jumlah Kuadrat Sisa ) = JKT – JKR

  KTR ( Kuadrat Total Residu ) =

  −1

  KTS =

  

  Kemudian di hitung nilai dari dari masing – masing variabel bebas X dengan menggunakan tabel sebagai berikut ini :

  2

  : Koefisien regresi

  1 , 2, 3, 4,

  : Galat taksiran Y atas X, untuk

  1 , 2, 3, 4 1,2,3,4

  Dengan : = .

  � : Rata – rata Jumlah Kuadrat Residu

  −1

  : Elemen matrik pada baris ke – 1 kolom ke – j Langkah 3 : Pemilihan Variabel yang Pertama Keluar dari Model.

  Variabel yang pertama di uji apakah terpilih keluar dari model atau tidak adalah variabel yang memiliki nilai terkecil pada tabel 2.2 , misalnya nilai dari variabel . Untuk menentukan apakah keluar atau tidak, maka nilai dari

  1

  

1

  nilai variabel di bandingkan dengan nilai , dengan hipotesa sebagai berikut :

1 Uji Hipotesa

  : regresi antara Y dan tidak signifikan : regresi antara Y dan signifikan

1 Keputusan :

  Bila < maka terima Bila maka tolak

  ≥ Dengan taraf nyata yang dipilih α = 0,05

  =

  ( −1, − ,0,5) Langkah 4 : Membentuk Persamaan Regresi Linier Berganda yang kedua.

  Bila pada langkah 3, ditolak maka proses berakhir dan penduga yang di gunakan adalah persamaan regresi linier berganda lengkap. Sebaliknya jika di terima maka langkah selanjutnya adalah membentuk persamaan regresi linier berganda yang memuat semua variabel . Untuk itu prosedur yang di lakukan adalah seperti pada langkah 1

  Untuk memilih variabel yang keluar dari model didasarkan pada nilai dari variabel bebas yang termuat pada persamaan regresi linier berganda yang ke dua seperti langkah 4.

  Proses ini diulang secara berurutan sampai pada akhirnya nilai terkecil dari variabel bebas akan lebih besar dari

2.4 Prosedur Regresi dengan Menggunakan Metode Forward

  Metode forward adalah langkah maju, menurut metode ini variabel bebas dimasukkan satu demi satu menurut urutan besar pengaruhnya terhadap model, dan berhenti bila yang semua memenuhi syarat telah masuk. Dimulai dengan memeriksa

  2

  matriks korelasi dan kemudian mengambil variabel bebas yang menghasilkan maksimum = 1,2, … , . Korelasi positif atau negatif tidak dipersoalkan karena yang diperhatikan hanyalah eratnya hubungan antara suatu variabel bebas dengan

  . Sedangkan arah hubungan tidak menjadi persoalan.

  Langkah 1 : Membentuk Matriks Koefisien Korelasi.

  Koefisien korelasi yang dicari adalah koefisien korelasi linier sederhana , dengan dengan rumus: n n n

  n

  X Y − ( i i X )( Y ) ∑ ∑ ∑ i = 1 i = 1 i = 1 r = n n n n

  (2.21)  2 2   2 2 

  n X − ( 1 i X ) n Y − ( Y ) 1 i

     

  ∑ ∑ ∑ ∑ i 1 i 1 i 1 i 1 = = = =

      Bentuk matriks koefisien korelasi linier sederhana antara : dan

  …

  1

  13

  1

  12

  …

  23

  2

  1

  21

  ⎛ ⎞ 1 …

  31

  32

  3

  = ⎜ ⎟

  ⋮ ⋮ ⋮ ⋮

  …

  1

  1

  2

  3

  ⎝ ⎠ Variabel yang pertama diregresikan adalah variabel yang mempunyai harga mutlak koefisien korelasi yang terbesar antara , misalnya . Dari variabel ini dan

  1

  • 1

  , dengan cara matriks seperti berikut: dibuat persamaan regresi linier: =

  1

  11

  1

  −1

  12

  1 ⎛ ⎞

  . . ∑

  1 −1

  ; ( = = ) � �

  2

  ⎜ ⎟

  1

  ∑ ∑

  1 .. ..

  1

  1

  ⎝ ⎠

  1

  2

  ⎛ ⎞ .

  ∑ ;

  (2.22) = = � �

  ⎜ ⎟

  

1

  ∑ .. ⎝ ⎠

  Keberartian regresi diuji dengan tabel analisa variansi. Perhitungan untuk membuat anava adalah sebagai berikut:

  . . −( . )

  SSR =

  2

  = . (2.23) ∑( ∑ ) − (∑ ) .

  −( . )

  SST = 2 2 (2.24)

  ∑ −(∑ )

  = dengan: 1 1 …

  1

  1 1 …

  1 …

  ⎛ ⎞

  1

  1

  1 …

  ⎜ ⎟ = … .. .. ..

  ⎜ ⎟ … . . .

  … ⎝

  1 1 1⎠

  ×

  SSE = SST – SSR (2.25)

  SSR

  MSR = (2.26)

  −1

  SSE

  MSE = (2.26)

  −

  sehingga didapat harga standard error dari , dengan rumus:

  2 −1

  ( (2.27)

  ) = MSE ( )

  2

  ) = ( ) ( �

Tabel 2.3 Analisa Variansi untuk Uji Keberartian Regresi

  Sumber DF SS MS

  ℎ

  Regresi ( ) p – 1 SSR MSR

  ℎ

  Residu n SSE MSE MSR / MSE − p

  Total n – 1 SST Uji hipotesa: : Regresi antara tidak signifikan. dengan

  ℎ : Regresi signifikan. 1 dengan ℎ

  Keputusan: Bila < , maka terima .

  ℎ Bila , maka tolak .

  ≥

  ℎ

  Dengan: =

  ( −1, − ,0,05)

  Dengan nilai yang dipilih = 0,05

  Langkah 3 : Seleksi Variabel Kedua Diregresikan

  Cara menyeleksi variabel yang kedua diregresikan adalah memilih parsial korelasi variabel sisa yang terbesar. Untuk menghitung harga masing-masing parsial korelasi sisa digunakan rumus:

  − ℎ ℎ

  = (2.28) .

  ℎ

  2

  2 ��1− ���1− �

  ℎ dengan: merupakan variabel sisa. Dengan memilih parsial korelasi variabel sisa terbesar untuk variabel tersebut masuk

  • dalam regresi, persamaan regresi kedua dibuat

  =

  ℎ ℎ

  Dengan cara sebagai berikut: 1 1

  ℎ

  1 2 2 1 ℎ ⎛

  ⎞ =

  ⋮ ⋮ ⋮

  1 ⎝ ℎ ⎠

  ∑ ∑

  ℎ

  2 −1

  ( =

  ) � ∑ ∑ ∑ �

  ℎ ℎ ℎ

  2

  ∑ ∑ ∑

  ℎ ℎ

  1

  ∑

  2

  = � � = � ∑ �

  ℎ

  ⋮ ∑

  

−1

  . (2.29) = ( ) = � �

  ℎ

  Uji keberartian regresi dengan tabel anava (sama dengan langkah kedua yaitu dengan menggunakan Tabel 2.2), kemudian dicek apakah koefisien regresi signifikan, dengan hipotesa:

  : = 0

  

  :

  

1 ≠ 0

  2 ℎ

  = (2.30) � �

)

  ( ℎ

  sedangkan,

  = (1, − ,0,05)

  ℎ

  • . Bila

  maka proses dihentikan dan persamaan terbaik = ≥

  ℎ ℎ ℎ

  tolak artinya tidak sama dengan nol, maka variabel tetap didalam penduga.

  Langkah 5 : Seleksi Variabel Ketiga Diregresikan

  Dipilih kembali harga parsial korelasi variabel sisa terbesar. Menghitung harga masing-masing parsial korelasi variabel sisa dengan Langkah 3, dengan rumus:

  − 1. ℎ . ℎ 1 ℎ

  (2.31)

  = .

  1 ℎ

  2

  2 ��1− ���1− �

  . ℎ 1 . ℎ Langkah 6 : Membentuk Persamaan Regresi Ketiga (Regresi Ganda)

  Dengan memilih parsial korelasi terbesar, persamaan regresi yang dibuat:

  • (2.32)

  =

  1

  1 ℎ ℎ

  dengan adalah variabel sisa yang mempunyai parsial korelasi terbesar, dengan

  1

  cara sebagai berikut: 1 1

  ℎ

  11

  1 2 2

  12

  1 ℎ ⎛

  ⎞ =

  ⋮ ⋮ ⋮ ⋮

  1

  ⎝ ⎠

  1 ℎ

  −1

  ∑ ∑ ∑

  1

  

2

  ∑

  ℎ ∑

  1

  ∑ ∑ ℎ ℎ

  −1 ℎ

  ⎛ ⎞ ( =

  )

  2

  ∑

  1

  ∑ ∑ ∑

  ℎ

  2

  ∑

  1

  ⎝ ∑

  1 ∑ 1 ∑ 1 ⎠ ℎ

  ∑ ∑

  ℎ

  (2.33) �

  = � ∑

  ∑

  1

  −1

  ) untuk membuat tabel anava uji keberartian regresi, menghitung masing-masing harga-harga yang diperlukan, dilakukan dengan cara yang sama seperti diatas. Begitu juga untuk pengujiannya. Bila hasil pengujian menyatakan koefisien regresi tidak signifikan maka proses dihentikan berarti persamaannya adalah:

  (2.34) =

  ℎ ℎ

  Jika signifikan maka proses dilanjutkan sama dengan cara yang diatas. Demikian seterusnya sampai tidak ada lagi variabel yang masuk dalam model. Uji keberartian keseluruhan koefisien regresi yang masuk ke dalam persamaan penduga. Dalam pengujiannya, masing-masing koefisien regresi diuji dengan uji hipotesa:

  = 0 : :

  1 ≠ 0

  untuk

  2

  (2.35)

  = � � ℎ )

  (

  dimana q adalah masing-masing nomor urutan variabel yang diterima masuk ke dalam persamaan penduga. Sedangkan = . Bila diantara harga

  ( −1, − ,0,05)

  < , maka teorema artinya variabel tersebut keluar dari regresi. Bila

  ℎ

  semua harga < , maka tolak artinya semua variabel tetap dalam

  ℎ regresi.

2.5 Membentuk Model Penduga

  Apabila proses pengeluaran variabel bebas dari persamaan regresi telah selesai, maka ditetapkan persamaan regresi yang menjadi penduga linier yang diinginkan.

2.5.1 Persamaan Penduga Pada Metode Backward

  • variabel yang tinggal didalam persamaan dan adalah koefisien regresi dari .

  Bentuk Penduga ditetapkan adalah: dimana adalah semua � =

  ∑ Persamaan penduga , dimana adalah semua variabel yang � =

  • 1

  1

  1 masuk kedalam penduga (faktor penduga) dan adalah koefisien regresi untuk .

  1

  1 2.6 Koefisien Korelasi Berganda (Koefisien Determinasi).

2 Uji koefisien determinasi (R ) dilakukan untuk mengetahui ketetapan yang paling

  baik dari garis regresi. Uji ini dilakukan dengan melihat besarnya nilai koefisien

  2 determinasi (R ) merupakan nilai besaran non negatif.

  Besarnya nilai koefisien determinasi adalah antara nol sampai dengan satu

  2

  ( 1 ≥ R ≥ 0 ). Koefisien determinasi bernilai nol berarti tidak adahbungan antara variabel independent dengan variabel dependent, sebaliknya nilai koefisien

  2

  determinasi satu berart suatu kecocokan sempurna. Maka R akan dituliskan dengan rumus, yaitu :

2 R =

  2 (2.36)

  ⅀

2.7 Pertimbangan Terhadap Penduga

  Sebagai pembahasan suatu penduga, untuk mengomentari atau menanggapi kecocokan penduga yang diperoleh ada dua hal yang dipertimbangkan yakni:

  2 a.

  ) Pertimbangan berdasarkan Koefisien Determinasi (

  Suatu penduga sangat baik digunakan apabila persentase variasi yang

  2 dijelaskan sangat besar atau bila mendekati 1.

  b.

  Analisa Residu (sisa) Suatu regresi adalah berarti dan model regresinya cocok (sesuai berdasarkan data observasi) apabila kedua asumsi pada 2.1 dipenuhi. Kedua asumsi ini dibuktikan dengan analisa residu. Untuk langkah ini awalnya dihitung residu (sisa) dari penduga yaitu selisih dari respon observasi terhadap hasil keluaran oleh penduga berdasarkan prediktor observasi. Dengan rumus: = , − � ditunjukkan pada tabel 2.4;

Tabel 2.4 Residu

  No Residu Respon ( ) Residu ( ) Penduga ( )

  �

  1

  1

  �

  1 1 − �

  1

  2

  2

  �

  2 2 − �

  2

  3

  3

  �

  3 3 − �

  3 . . . .

  . . . . . . . .

  N

  � − � Jumlah

  � Rata-rata

  �

i. Pembuktian Asumsi

  Asumsi : a.

  Rata-rata residu sama dengan nol ( ̅ = 0). Kebenaran keadaan ini akan terlihat pada tabel 2.4.

  2 b. ) = varian ( ) = .

  Varian ( Keadaan ini dibuktikan dengan uji statistik dengan menggunakan uji Korelasi

  Rank Spearman (Spearman’s Rank Correlation Test). Untuk uji ini, data yang diperlukan adalah Rank ( ) dan Rank ( ), dimana: = Rank ( ) ).

  − Rank ( Hal ini ditunjukkan dengan tabel 2.5:

  2 No Penduga Residu Rank Rank

  Observasi ( ) (e) ( (e) )

  2

  1

  1

  1

  

1

1

  1

  1

  2

  2

  2

  2

  

2

2

  2

  2

  2

  3

  3

  3

  

3

3

  3

  3 . . . . . . .

  . . . . . . . . . . . . . .

  2 N

  Jumlah

  2

  Σ �

  Koefisien Korelasi Rank Spearman ( ): 2

  ∑

  = 1 − 6 � 2 �

  ( −1)

  Pengujian menggunakan uji t dimana:

  

√ −2

  =

  ℎ 2

�1−

  =

  ( −2,1− )

  dimana − 2 adalah derajat kebebasan dan adalah taraf signifikan hipotesa. Dengan membandingkan < , maka varian ( ) = varian ( ) dengan

  ℎ

  < kata lain bila , maka varian seluruh residu adalah sama. Bila terbukti

  ℎ varian ( ) = varian ( ), maka model linier adalah cocok.

Dokumen yang terkait

Perbandingan Metode Backward Dan Metode Forward Untuk Menentukan Persamaan Regresi Linier Berganda (Studi Kasus : Jumlah Kecelakaan Lalu Lintas Di Kotamadya Medan)

16 138 71

Penggunaan Metode Stepwise Forward Untuk Menentukan Persamaan Regresi Linier Berganda (Studi Kasus: Jumlah Pendapatan Di Kabupaten Kabupaten Tapanuli Utara)

2 90 50

Menentukan Model Persamaan Regresi Linier Berganda Dengan Metode Backward Pada Kasus Penyalahgunaan Narkoba di Tanah Karo

7 89 62

Metode Goal Linear Programming Untuk Menentukan Regresi Berganda

1 21 52

Perancangan Program Penyelesaian Sistem Persamaan Linier Non-Homogen Dengan Metode Eliminasi Gauss-Jordan Untuk Menentukan Jumlah Kendaraan Pada Kasus Arus Lalu Lintas

4 101 70

Metode Regresi Ridge Untuk Mengatasi Model Regresi Linier Berganda Yang Mengandung Multikolinieritas

3 95 55

Penggunaan Metode Backward Untuk Menentukan Persamaan Regresi Linier Berganda (Studi Kasus : Jumlah Penyalahgunaan Narkoba di POLRESTA Medan)

3 40 51

BAB II LANDASAN TEORI 2.1 Aljabar Matriks 2.1.1 Definisi - Analisis Heteroskedastisitas Pada Regresi Linier Berganda Dan Cara Mengatasinya

0 0 13

BAB 2 LANDASAN TEORI 2.1 Regresi Linier - Perbandingan Metode Least Trimmed Squares Dan Penduga-S Dalam Mengatasi Data Pencilan Dengan Simulasi Data

0 0 12

BAB 2 LANDASAN TEORI 2.1 Aljabar Matriks - Perbandingan Penggunaan Metode Analisis Regresi Ridge dan Metode Analisis Regresi Komponen Utama dalam Menyelesaikan Masalah Multikolinieritas (Studi Kasus Data PDRB Propinsi Sumatera Utara)

0 0 18