Metode Penelitian Uji Sampel Prosedur Regresi dengan Menggunakan Metode Backward

dimana semua variabel � diregresikan dengan variabel dependen �. Pengeleminasian variabel � didasarkan pada nilai � ��� dari masing-masing variabel � yaitu variabel yang mempunyai nilai � ��� terkecil dan turut tidaknya variabel � pada model juga ditentukan oleh nilai � ��� . Metode forward adalah pengregresian dilakukan dengan tahap maju, dimana variabel pertama yang diregresikan adalah variabel yang mempunyai harga mutlak koefisien korelasi terbesar diantara variabel independen dengan variabel dependennya

1.7 Metode Penelitian

Untuk mendapatkan persamaan regresi linier berganda yang digunakan sebagai penduga jumlah kecelakaan lalu lintas. Penulis menggunakan metode backward dan metode forward, dengan langkah-langkah penyelesaian sebegai berikut: a. Pengumplan data yang diperoleh dari POLANTAS Medan b. Proses regresi dengan metode backward.  Membentuk persamaan regresi linier ganda. Bentuk umum dari persamaan penduga adalah : �� = � + � 1 � 1 + � 2 � 2 … + � � � � Dengan : � � = Penduga jumlah kecelakaan lalu lintas � � = Faktor-faktor yang mempengaruhi jumlah kecelakaan � � = Koefisien regresi � = 1,2,3,4  Menentukan nilai � ��� dari masing -masing variabel � � dan menentukan hasil Analisa dan uji Korelasi Parsial  Pemilihan variabel yang pertama keluar dari model  Membentuk persamaan regresi linier ganda yang yang kedua  Pemilihan Variabel yang kedua keluar dari model c. Proses regresi dengan meode forward  Membentuk matriks koefisien korelasi  Membentuk Regresi Pertama Persamaan Regresi Linier  Seleksi Variabel Kedua Diregresikan Universitas Sumatera Utara  Membentuk Regresi Kedua Persamaan Regresi Ganda d. Menganalisa residu e. Kesimpulan dan saran Universitas Sumatera Utara BAB 2 LANDASAN TEORI

2.1 Pengertian Regresi

Regresi pertama kali dipergunakan sebagai konsep statistika oleh Sir Francis Galton 1822 – 1911. Beliau memperkenalkan model peramalan, penaksiran, atau pendugaan, yang selanjutnya dinamakan regresi, sehubungan dengan penelitiannya terhadap tinggi badan manusia. Galton melakukan suatu penelitian di mana penelitian tersebut membandingkan antara tinggi anak laki-laki dan tinggi badan ayahnya. Galton menunjukkan bahwa tinggi badan anak laki-laki dari ayah yang tinggi setelah beberapa generasi cenderung mundur regressed mendekati nilai tengah populasi. Dengan kata lain, anak laki-laki dari ayah yang badannya sangat tinggi cenderung lebih pendek dari pada ayahnya, sedangkan anak laki-laki dari ayah yang badannya sangat pendek cenderung lebih tinggi dari ayahnya, jadi seolah- seolah semua anak laki-laki yang tinggi dan anak laki-laki yang pendek bergerak menuju kerata-rata tinggi dari seluruh anak laki-laki yang menurut istilah Galton disebut dengan “regression to mediocrity”. Dari uraian tersebut dapat disimpulkan bahwa pada umumnya tinggi anak mengikuti tinggi orangtuanya Sudjana, 1996. Istilah “ regresi” pada mulanya bertujuan untuk membuat perkiraan nilai satu variabel tinggi badan anak terhadap satu variabel yang lain tinggi badan orang tua. Pada perkembangan selanjutnya analisis regresi dapat digunakan sebagai alat untuk membuat perkiraan nilai suatu variabel dengan menggunakan beberapa variabel lain yang berhubungan dengan variabel tersebut Algafari, 2000. Jadi prinsip dasar yang harus dipenuhi dalam membangun suatu persamaan regresi adalah bahwa antara suatu variabel tidak bebas dependent variable dengan Universitas Sumatera Utara variabel-variabel bebas independent variable lainnya memiliki sifat hubungan sebab akibat hubungan kausalitas, baik didasarkan pada teori, hasil penelitian sebelumnya, maupun yang didasarkan pada penjelasan logis tertentu Algafari, 2000.

2.1.1 Analisis Regresi Linier

Perubahan nilai suatu variabel tidak selalu terjadi dengan sendirinya, namun perubahan nilai variabel itu dapat disebabkan oleh berubahnya variabel lain yang berhubungan dengan variabel tersebut. Untuk mengetahui pola perubahan nilai suatu variabel yang disebabkan oleh variabel lain diperlukan alat analisis yang memungkinkan untuk membuat perkiraan prediction nilai variabel tersebut pada nilai tertentu variabel yang mempengaruhinya Algafari, 2000. Teknik yang umum digunakan untuk menganalisis hubungan antara dua atau lebih variabel adalah analisis regresi. Analisis regresi regression analisis merupakan suatu teknik untuk membangun persamaan garis lurus dan menggunakan persamaan tersebut untuk membuat perkiraan Algafari, 2000. Analisis regresi merupakan teknik yang digunakan dalam persamaan matematik yang menyatakan hubungan fungsional antara variabel-variabel. Analisis regresi linier atau regresi garis lurus digunakan untuk : 1. Menentukan hubungan fungsional antar variabel dependen dengan independen. Hubungan fungsional ini dapat disebut sebagai persamaan garis regresi yang berbentuk linier. 2. Meramalkan atau menduga nilai dari satu variabel dalam hubungannya dengan variabel yang lain yang diketahui melalui persamaan garis regresinya. Analisis regresi tediri dari dua bentuk yaitu : 1. Analisis Regresi Linear Sederhana 2. Analisis Regresi Linear Berganda Universitas Sumatera Utara Analisis regresi sederhana adalah bentuk regresi dengan model yang bertujuan untuk mempelajari hubungan antara dua variabel, yakni variabel dependent terikat dan variabel independent bebas. Sedangkan analisis regresi berganda adalah bentuk regresi dengan model yang memiliki hubungan antara satu variabel dependent dengan dua atau lebih variabel independent Sudjana, 1996. Variabel independent adalah variabel yang nilainya tidak tergantung dengan variabel lainnya, sedangkan variabel dependent adalah variabel yang nilainya tergantung dari variabel yang lainnya Algafari, 2000. Analisis regresi linear dipergunakan untuk menelaah hubungan antara dua variabel atau lebih, terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan baik, atau untuk mengetahui bagaimana variasi dari beberapa variabel independen mempengaruhi variabel dependen dalam suatu fenomena yang komplek. Jika, X 1 , X 2 , . . ., X k adalah variabel-variabel independent dan Y adalah variabel dependent, maka terdapat hubungan fungsional antara X dan Y, dimana variasi dari X akan diiringi pula oleh variasi dari Y. Sujana, 1996. Jika dibuat secara matematis hubungan itu dapat dijabarkan sebagai berikut: Dimana : Y = f X 1 , X 2 , . . . , X k , e Y adalah variabel dependen tak bebas X adalah variabel independen bebas e adalah variabel residu disturbace term

2.1.2 Analisis Regresi Linier Sederhana

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS. Analisis regresi linear sederhana Universitas Sumatera Utara dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat. Regresi linier sederhana digunakan untuk memperkirakan hubungan antara dua variabel di mana hanya terdapat satu variabelpeubah bebas X dan satu peubah tak bebas Y Drapper Smith, 1992. Dalam bentuk persamaan, model regresi sederhana adalah : Y i = + 1 X i + i 2.1 dimana : Y i = variabel terikattak bebas dependent X i = variabel bebas independent � = jarak titik pangkal dengan titik potong garis regresi pada sumbu Y intercept � 1 = kemiringan slope garis regresi � i = kesalahan error Parameter � dan � 1 diduga dengan menggunakan garis regresi. Bentuk persamaan garis regresi adalah sebagai berikut : Y � i = b + b 1 X i 2.2 dimana : Y � merupakan penduga titik bagi Y i b merupakan penduga titik bagi � b 1 merupakan penduga titik bagi � 1 dari persamaan S = � ε 2 n i=1 = �Y i − Y i � 2 n i=1 S = � ε 2 n i=1 = �Y i − � − � 1 � 1 2 n i=1 2.3 Kemudian didiferensialkan terhadap � , � 1 ∂S ∂� = −2 �Y i − � − � 1 � 1 n i=1 ∂S ∂� 1 = −2 � � 1 Y i − � − � 1 � 1 n i=1 2.4 Hasil diferensial disamakan dengan nol Universitas Sumatera Utara �Y i − b − b 1 X i = 0 n i=1 � X i Y i − b − b 1 X i = 0 n i=1 2.5 Dengan mensubsitusikan b 0, b 1 untuk � , � 1 dan menyamakan hasilnya dengan nol maka diperoleh persamaan � Y i − nb − b 1 � X i = 0 n i=1 n i=1 � X i Y i − b � X i n i=1 − b 1 � X i 2 = 0 n i −1 n i=1 2.6 Dari persamaan 2.6 diperoleh persamaan normal � � + � 1 � � � � �=1 = � � � � �=1 � � � � � �=1 + � 1 � X i 2 n i −1 = � � � � � � �=1 2.7 Sehingga nilai b 0, b 1 diperoleh dengan rumus ∑ ∑ ∑ ∑ ∑ ∑ = = = − = = − − = n i i n i i n i n i n i i i i n i X X n Y X X X b 1 2 1 2 1 1 1 2 1 1 i Y ∑ ∑ ∑ ∑ ∑ = = = = = − − = n i i n i i n i n i i n i i i i X X n Y X Y X n b 1 2 1 2 1 1 1 1 2.8 Universitas Sumatera Utara

2.1.3 Analisis Regresi Linier Berganda

Untuk memperkirakan nilai variabel tak bebas Y, akan lebih baik apabila kita ikut memperhitungkan variabel-variabel bebas lain yang ikut mempengaruhi nilai Y. dengan demikian dimiliki hubungan antara satu variabel tidak bebas Y dengan beberapa variabel lain yang bebas X 1 , X 2 , dan X 3 , . . . , X k . Untuk itulah digunakan regresi linear berganda. Dalam pembahasan mengenai regresi sederhana, simbol yang digunakan untuk variabel bebasnya adalah X. Dalam regresi berganda, persamaan regresinya memiliki lebih dari satu variabel bebas maka perlu menambah tanda bilangan pada setiap variabel tersebut, dalam hal ini X 1 , X 2 , . . . , X k Sudjana, 1996. Model regresi linier berganda atas X 1 , X 2 , . . . , X k dibentuk dalam persamaan : Y � i = b + b 1 X 1 + b 2 X 2i + . . . + b k X ki + ε i 2.9 Koefisien-koefisien b , b 1 , b 2 , . . . , b k ditentukan dengan menggunakan metode kuadrat terkecil seperti halnya menentukan koeisien b 0, b 1 , untuk regresi Y � i = b + b 1 X i + e i . Oleh karena Rumus 2.9 berisikan k+1 buah koefisien, maka b , b 1 , b 2 , . . . , b k didapat dengan jalan menyelesaikan sistem persamaan yang terdiri atas k+1 buah persamaan. Dapat dibayangkan bahwa untuk ini diperlukan metode penyelesaian yang lebih baik dan karenanya memerlukan matematika yang lebih tinggi pula, lebih-lebih kalau harga k yang menyatakan variabel bebas, cukup besar. Oleh karena itu untuk menyelesaikan persamaan regresi linier berganda dengan variabel bebas X lebih dari dua variabel dapat diselesaikan dengan metode matriks. Dalam model persamaan regresi dengan k buah variabel prediktor X yang indevenden dan satu variabel dependen Y, maka model peresamaan statistikanya dapat ditulis dengan: Y i = β + β 1 X 1i + β 2 X 2i + β 3 X 3i + … + β k X ki + ε i i = 1,2, ,n 2.10 Keterangan: i = 1,2, ,n Y i = Variabel terikat X 1i , X 2i , X 3i ,... X ki = Variabel bebas Universitas Sumatera Utara β , β 1 , β 2 , β 3 ,… β k = Parameter regresi yang belum diketahui nilainya ε i = Nilai kesalahan Persamaan umum model regresi linier berganda populasi dengan jumlah variabel bebas X sebanyak k buah Y 1 = β + β 1 X 11 + β 2 X 21 + β 3 X 31 + … + β k X k1 + ε 1 Y 2 = β + β 1 X 12 + β 2 X 22 + β 3 X 32 + … + β k X k2 + ε 2 Y 3 = β + β 1 X 13 + β 2 X 23 + β 3 X 33 + … + β k X k3 + ε 3 2.11 . . . . . . . . . . . . . . . . . . . . . Y n = β + β X 1n + β 2 X 2n + β 3 X 3n + … + β k X kn + ε n Persamaan regresi populasi dinyatakan dengan notasi matriks akan menjadi: Y = B [X] + ε. 2.12 Apabila terdapat sejumlah n pengamatan dan k variabel bebas X maka untuk setiap observasi atau responden mempunyai persamaannya seperti berikut: Ŷ i = b + b 1 X 1i + b 2 X 2i + b 3 X 3i + … + b k X ki + ε i 2.13 Keterangan i = 1, 2, . . . , n Ŷ i = Variabel terikat X 1i , X 2i , X 3i ,... X ki = Variabel bebas b ,b 1 ,b 2 ,b 3 ,…b k = Parameter regresi yang belum diketahui nilainya ε i = Nilai kesalahan Persamaan umum model regresi linier berganda untuk setiap obsevasi atau responden dengan jumlah variabel bebas X sebanyak k buah Y 1 = b + b 1 X 11 + b 2 X 21 + . . . + b k X k1 Y 2 = b + b 1 X 12 + b 2 X 22 + . . . + b k X k2 . . 2.14 . Y n = b + b 1 X 1n + b 2 X 2n + . . . + b k X kn Universitas Sumatera Utara Dalam hal ini: Ŷ merupakan penduga titik bagi Y Dengan menggunakan matriks Y = b [X] + e 2.15 ⎣ ⎢ ⎢ ⎢ ⎢ ⎡ Y 1 Y 2 . . . Y n ⎦ ⎥ ⎥ ⎥ ⎥ ⎤ = ⎣ ⎢ ⎢ ⎢ ⎢ ⎡ � � 1 . . . � � ⎦ ⎥ ⎥ ⎥ ⎥ ⎤ ⎣ ⎢ ⎢ ⎢ ⎢ ⎡ 1 � 11 � 21 . . . � �1 1 � 12 � 22 . . . � �2 . . . . . . . . . . . . . . . . . . . . . 1 � 1 � � 2 � . . . � �� ⎦ ⎥ ⎥ ⎥ ⎥ ⎤ + ⎣ ⎢ ⎢ ⎢ ⎢ ⎡ � � 1 . . . � � ⎦ ⎥ ⎥ ⎥ ⎥ ⎤ dengan e = Y- Ŷ 2.16 Rumus 2.15 inilah yang akan kita gunakan untuk menghitung koefisien-koefisien b , b 1 , …b k . Untuk itu, terhadap Rumus 2.15 kita kalikan sebelah kiri dan kanan dengan X sehingga diperoleh X Y = X X b 2.17 Dan selanjutnya hasil ini dari sebelah kiri kita kalikan dengan inversnya X X ialah X X -1 sehingga diperoleh b = X X -1 X Y 2.18 Inilah rumus untuk mencari koefisien regresi linear ganda b ,b 1 ,b 2, . . . .b k dalam bentuk matriks yang elemen-elementnya terdiri atas data pengamatan. Dalam bentuk jumlah kuadrat dan produk silang data pengamatan X ij ,elemen-elemen matriks X X adalah seperti berikut � ′ � = ⎣ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎡ � ∑ = n i i X 1 1 ∑ = n i i X 1 2 . . . ∑ = n i ki X 1 ∑ = n i i X 1 1 ∑ = n i i X 1 2 1 ∑ = n i i X X 1 2 1 . . . ∑ = n i ki i X X 1 1 ∑ = n i i X 1 2 ∑ = n i i i X X 1 1 2 ∑ = n i i X 1 2 2 . . . ∑ = n i ki i X X 1 2 . . . . . . . . . . . . . . . . . . . . . ∑ = n i ki X 1 ∑ = n i i ki X X 1 1 ∑ = n i i ki X X 1 2 . . . ∑ − n i ki X 1 2 ⎦ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎤ 2.19 Universitas Sumatera Utara Sedangkan � ′ Y merupakan vektor kolom dengan elemen-elemen � ′ � = ⎣ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎡ ∑ = n i i Y 1 ∑ = n i i i Y X 1 ∑ = n i i i Y X 1 2 . . . ∑ = n i i ki Y X 1 ⎦ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎤ 2.20

2.2 Uji Sampel

Sebagai ketentuan dalam melakukan penelitian yang berhubungan dengan pengambilan data adalah harus diketahui ukuran sampel yang memenuhi untuk dianalisa. Untuk menentukan ukuran sampel yang memenuhi untuk dianalisa, maka dilakukan uji kecukupan sampel dengan taraf signifikan yang dipilih � = 0,05 Hipotesa : � : ukuran sampel telah memenuhi syarat � 1 : ukuran sampel tidak memenuhi syarat Dengan statistik penguji: �′ = ⎣ ⎢ ⎢ ⎡20�� ∑ � � 2 − ∑ � � 2 ∑ � � ⎦ ⎥ ⎥ ⎤ 2 Dengan: �′ : Ukuran sampel yang diperlukan � : Ukuran sampel pengambilan � � : Data yang di uji Universitas Sumatera Utara kriteria pengujian : � diterima jika �′≤ � . � ditolak jika �′ �

2.3 Prosedur Regresi dengan Menggunakan Metode Backward

Metode backward merupakan langkah mundur, mulai dengan regresi terbesar dengan menggunakan semua variabel bebas � � dan secara bertahap mengurangi banyaknya variabel didalam persamaan sampai satu keputusan dicapai untuk menggunakan persamaan yang diperoleh dengan jumlah variabel tertentu dimana semua variabel � diregresikan dengan variabel dependen �. Pengeleminasian variabel � didasarkan pada nilai � ��� dari masing-masing variabel � yaitu variabel yang mempunyai nilai � ��� terkecil dan turut tidaknya variabel � pada model juga ditentukan oleh nilai � ��� . Langkah 1 : Membentuk persamaan regresi linier berganda lengkap Menentukan persamaan yang membuat semua variabel bebas dengan koefisien regresi � , � 1 , � 2 , � 3 , � 4 . Dapat diselesaikaan dengan metode matriks seperti yang dijelaskan sebelumnya. Langkah 2 : Menentukan nilai F parsial dari masing-masing variabel � � . Bila sebuah model regresi mempunyai beberapa suku maka dapat dipandang masing- masing suku itu sebagai “memasuki” persamaan regresi dalam urutan apa saja. Besaran �� � � ∣∣ � , … � �−1 , � �+1 , … , � � � = 1,2, … � Merupakan jumlah kuadrat yang berderajat bebas satu yang mengukur sumbangan koefisien � � pada jumah kuadrat regresi bila semua suku yang tidak mengandung � � telah ada di dalam model. Dengan kata lain, bila dimiliki suatu ukuran manfaat penambahan suku � � pada model yang sebelumnya tidak mencakup suku tersebut. Cara lain menyatakan ini adalah dimiliki suatu ukuran manfaat � � seolah-olah suku ini dimasukkan kedalam model yang terakhir kali. Kuadrat tengahnya yang sama dengan jumlah kuadratnya karena ia mempunyai satu derajat bebas dapat dibandingkan dengan � 2 melalui suatu uji F. Uji F semacam ini disebut uji F parsial bagi � � . Bila suku ekstra yang sedang dipertimbangkan adalah � � � � misalnya, maka Universitas Sumatera Utara kita dapat berbicara tentang uji F parsial terhadap peubah X, meskipun kita menyadari bahwa uji itu sesungguhnya ditujukan pada koefisien � � . Bila suatu model yang sesuai sedang ’dibangun’, Uji F parsial merupakan kriterium yang sangat berguna untu memasukkan atau mengeluarkan suku dari model tersebut. Penagruh suatu peubah X X q misalnya dalam menentukan suatu respon mungkin besar bila persamaan regresinya hanya mencakup X q . Akan tetapi bila peubah yang sama dimasukkan ke dalam persamaan regresi setelah peubah-peubah yang lain, pengaruhnya terhadap respons mungkin menjadi sangat kecil. Ini disebabkan oleh tingginya korelasi antara X q dengan peubah-peubah yang sudah ada dalam persamaan regresi, Uji F parsial dapat dilakukan terhadap semua koefisien regresi seolah-olah peubah bersangkutan masuk ke dalam persamaan paling akhir. Informasi ini dapat digabungkan dengan informasi lain bila pemilihan peubah perlu dilakukan. Misalkan, � 1 atau � 2 saja dapat digunakan untuk menghasilkan persamaan regresi bagi respon �. Misalnya penggunaan � 1 menghasilkan galat peramalan yang lebih kecil daripada penggunaan � 2 . Maka bila ketelitian ramalan yang dikehendaki. � 1 mungkin yang akan digunakan dimasa-masa mendatang. Akan tetapi, kalau � 2 adalah peubah yang memungkinkan pengendalian terhadap respons sedangkan � 1 adalah peubah yang terukur namun bukan pengendali dan bila kendali atau control lebih dianggap penting dibandingkan dengan peramalan, maka mungkin lebih baik menggunakan � 2 daripada � 1 sebagai peubah bebas di masa- masa mendatang. Penggunaan istilah Uji F parsial hanya menekankan bahwa itu hanyalah nama yang ringkas dan memudahkan bagi uji-uji F khusus yang secara teoritis benar dalam beberapa program paket statistika uji F parsial sering disebut sebagai F untuk mengeluarkan F to remove atau F untuk memasukkan F to enter Untuk menentukan nilai F parsial dari masing-masing variabel � � diperlukan tabel sebagai berikut: Universitas Sumatera Utara Tabel 2.1 Analisa Variansi Sumber Variansi dk Jumlah Kuadrat JK Rata – rata Jumlah Kuadrat � ℎ����� Regresi p - 1 JKR KTR KTR KTS Sisa n - p JKS KTS Total n – 1 JKT Dengan : n = Total sampel p = Jumlah Variabel JKT Jumlah kuadrat total = ∑ � 2 - n Ῡ 2 JKR Jumlah kuadrat regresi = � ∑ Y + � 1 ∑ � 1 Y + � 2 ∑ � 2 Y + � 3 ∑ � 3 Y + � 4 ∑ � 4 Y - n Ῡ 2 JKS Jumlah Kuadrat Sisa = JKT – JKR KTR Kuadrat Total Residu = ��� �−1 KTS = ��� �−� Kemudian di hitung nilai dari � ������� dari masing – masing variabel bebas X dengan menggunakan tabel sebagai berikut ini : Tabel 2.2 Uji Korelasi Parsial No Koefisien Regresi Galat baku � ��� 1 � 1 � 1 � 1 2 � 1 2 2 � 2 � 2 � 2 2 � 2 2 3 � 3 � 3 � 3 2 � 3 2 4 � 4 � 4 � 4 2 � 4 2 Universitas Sumatera Utara Dengan : � 1 , � 2, � 3, � 4, : Koefisien regresi � 1 , � 2, � 3, � 4 : Galat taksiran Y atas X, untuk � 1,2,3,4 Dengan : � � = ���� ��� . � �� ��� ��� : Rata – rata Jumlah Kuadrat Residu � �� : Elemen matrik � −1 pada baris ke – 1 kolom ke – j Langkah 3 : Pemilihan Variabel yang Pertama Keluar dari Model. Variabel yang pertama di uji apakah terpilih keluar dari model atau tidak adalah variabel yang memiliki nilai � ������� terkecil pada tabel 2.2 , misalnya nilai dari variabel � 1 . Untuk menentukan apakah � 1 keluar atau tidak, maka nilai � ��� dari nilai variabel � 1 di bandingkan dengan nilai � ����� , dengan hipotesa sebagai berikut : Uji Hipotesa � : regresi antara Y dan � � tidak signifikan � 1 : regresi antara Y dan � � signifikan Keputusan : Bila � ������� � ��� maka terima � � Bila � ������� ≥ � ��� maka tolak � � Dengan taraf nyata yang dipilih α = 0,05 � ����� = � �−1,�−�,0,5 Langkah 4 : Membentuk Persamaan Regresi Linier Berganda yang kedua. Bila pada langkah 3, � ditolak maka proses berakhir dan penduga yang di gunakan adalah persamaan regresi linier berganda lengkap. Sebaliknya jika � di terima maka langkah selanjutnya adalah membentuk persamaan regresi linier berganda yang memuat semua variabel � � . Untuk itu prosedur yang di lakukan adalah seperti pada langkah 1 Universitas Sumatera Utara Langkah 5 : Pemilihan Variabel yang Kedua Keluar dari Model. Untuk memilih variabel yang keluar dari model didasarkan pada nilai � ��� dari variabel bebas yang termuat pada persamaan regresi linier berganda yang ke dua seperti langkah 4. Proses ini diulang secara berurutan sampai pada akhirnya nilai � ��� terkecil dari variabel bebas akan lebih besar dari � ���

2.4 Prosedur Regresi dengan Menggunakan Metode Forward