Analisis Regresi Penentuan Koefisien Multiple Regresi Dengan Menggunakan Metode Linier Programming

BAB 2 LANDASAN TEORI

2.1 Analisis Regresi

Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Penerapannya dapat dijumpai secara luas di banyak bidang seperti teknik, ekonomi, manajemen, ilmu-ilmu biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini, analisis regresi berguna dalam menelaah hubungan dua variabel atau lebih, dan terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna, sehingga dalam penerapannya lebih bersifat eksploratif. 2.1.1 Regresi Linier Sederhana Regresi linier sederhana adalah merupakan suatu alat analisis yang digunakan untuk mengestimasi atau mempresiksi nilai suatu variabel berdasarkan nilai variabel lain yang diketahui. Hubungan linier antara dua variabel, dua variabel ini dibedakan menjadi variabel bebas yang dinotasikan X dan variabel terikat yang dinotasikan Y. Variabel tak bebas adalah variabel yang nilainya selalu bergantung dengan nilai variabel lain dalam hal ini variabel tak bebas nilainya selalu dipengaruhi oleh variabel bebas, sehingga sering disebut dengan variabel terikat sedangkan variabel bebas adalah variabel yang nilainya tidak tergantung dengan nilai variabel lain. Hubungan- hubungan ini bila dinyatakan dalam model matematis akan memberikan persamaan- persamaan tertentu. Universitas Sumatera Utara Pembahasan kita akan terbatas pada regresi garis sederhana yaitu pada pembahasan mengenai hubungan antara dua variabel yang biasanya cukup tepat dinyatakan dalam suatu garis lurus. X Y Gambar 2.1 Diagram Pencar Garis lurus yang terdapat pada diagram pencar pada gambar 2.1 yang memperlihatkan adanya hubungan antara kedua variabel disebut garis regresi atau garis perkiraan, dan yang seperti kita ketahui, persamaan yang digunakan untuk mendapatkan garis regresi pada data diagram pencar disebut persamaan regresi yang merupakan suatu persamaan matematika yang mendefinisikan hubungan antara dua variabel. Persamaan umum garis lurus yang diperlihatkan, akan digunakan untuk menempatkan garis regresi pada data yang diperoleh. Oleh karena itu, metode kuadrat terkecil sekali lagi akan kita gunakan untuk menempatkan garis pada data yang diamati. Sehingga bentuk umum dari persamaan regresi adalah sebagai berikut : i i bX a Y   , untuk i = 1,2,...n dengan : Y i = variabel terikat ke-i X i = variabel bebas ke-i a = intersep titik potong kurva terhadap sumbu Y b = kemiringan slope kurva linier Universitas Sumatera Utara Untuk memperkirakan A dan B, maka dipergunakan metode kuadrat terkecil Model sebenarnya : Y = A + BX + ε Model perkiraan : Y = a + bX + e A, b dan e merupakan perkiraantaksiran atas A, B, dan ε Metode kuadrat terkecil adalah suatu metode untuk menghitung a dan b sebagai perkiraan A dan B, sedemikian rupa sehingga jumlah kesalahan kuadrat memiliki nilai terkecil. Dengan bahasa matematik, dapat dinyatakan sebagai berikut : i i i e bX a Y    , i = 1,2,...,n  i i i bX a Y e     kesalahan error i          2 2 i i i bX a Y  = jumlah kesalahan kuadrat Jadi, metode kuadrat terkecil adalah metode untuk menghitung a dan b sedemikian rupa sehingga  2 i e = terkecil minimum. Caranya ialah dengan membuat turunan parsial partial differential dari  2 i e mula-mula terhadap a kemudian terhadap b dan menyamakannya dengan nol.                     i i i i i X b an Y bX a Y a e 1 2 2 ... 2.1                      2 2 2 i i i i i i i i X b X a Y X X bX a Y b e ... 2.2 Persamaan 2.1 dibagi dengan n X n an n Y n i i      bX a Y    sehingga ; X b Y a   masukkan a ke persamaan 2.2                          2 2 i i i i i i i i i i X b X n X b n Y Y X X b X X b Y Y X Universitas Sumatera Utara           2 2 i i i i i i X b n X b n Y X Y X                   n Y X Y X b n X X i i i i i i 2 2                     2 2 2 2 i i i i i i i i i i i i X X n Y X Y X n n X X n Y X Y X b meminimalkan jumlah deviasi kuadrat Regresi Kuadrat-Terkecil metode ini didasarkan pada pemilihan β dan β 1 sehingga meminimalkan jumlah kuadrat deviasi titik-titik data dari garis yang dicocokkan. Jumlah dari kuadrat deviasi SSD dari garis adalah          n i i i n i i X Y e SSD 1 2 1 1 2    ... 2.3 ε Gambar 2.2 suatu pengamatan data yang tidak tepat pada garis regresi Kemudian akan dipilih taksir  dan 1  sehingga jika taksiran ini disubstitusikan ke dalam persamaan 2.3 maka jumlah deviasi kuadrat menjadi minimum. Dengan mendiferensialkan persamaan 2.3 terhadap  dan 1  dengan menetapkan derivatif parsial yang dihasilkan sama dengan nol, diperoleh Universitas Sumatera Utara     i i n i i n i i i X Y X SSD X Y SSD 1 1 1 1 1 2 2                       ... 2.4 Dan karenanya ... 2.5               n i i i i n i i i X Y X X Y 1 1 1 1     dari persamaan 2.5, diperoleh               n i n i n i i i i i n i i n i i Y X X X Y X n 1 1 1 2 1 1 1 1     persamaan 2.6 disebut dengan persamaan normal. Dari persamaan 2.6 diperoleh,              n X X n Y X Y X i i i i i i 2 2 1 ˆ  ... 2.6 dan , ˆ ˆ 1 X Y     dimana Y dan X adalah   n i i n Y 1 dan   n i i n X 1 . dan yang diperoleh dengan cara ini disebut taksiran kuadrat terkecil masing-masing dari ˆ  1 ˆ   dan 1  . Dengan demikian, taksiran persamaan regresi dapat ditulis sebagai, , yang disebut persamaan prediksi. X 1 ˆ  Yˆ  ˆ   2.1.2 Regresi Linier Ganda Regresi linier ganda adalah analisis regresi yang meramalkan pengaruh dua variabel prediktor atau lebih terhadap satu variabel kriterium atau untuk membuktikan ada atau Universitas Sumatera Utara tidaknya hubungan fungsional antara dua buah variabel bebas X atau lebih dengan sebuah variabel terikat Y. Mengingat model itu :            1 1 1 1 ... p p X X Y … 2.7 dengan : X 1 ,X 2 , …, X p-1 diketahui konstan β j tidak diketahi parameter untuk diestimasi ε adalah batas error Seperti dibagian 2.2, metode kuadrat terkecil dari estimasi β terdiri dari minimize dengan respect ke β; bahwa, kita minimize  2 i  2    X Y   dengan respect ke β. Sekarang         X Y X Y       X X Y X Y Y 2    Perbedaan   dengan respect ke β dan persamaan       , kita dapatkan -2X’Y + 2X’X β = 0 atau X’Xβ = X’Y … 2.8 … 2.9   Y X X X ˆ 1    Kemudian untuk β, Y – X β’ Y-Xβ               ˆ ˆ ˆ - ˆ X       X X Y X Y                   ˆ ˆ ˆ ˆ X X X Y X Y       ˆ ˆ X Y X Y    Minimum dari   adalah    X Y X Y         ˆ ˆ X Y X Y   dicapai pada . Solusi ini untuk melihat minimize   ˆ    . Universitas Sumatera Utara 2.1.3 Ketepatan Garis Estimasi dengan Menggunakan Metode Kuadrat Terkecil. Penentuan persamaan estimasi linier dengan menggunakan metode garis lurus akan menghasilkan persamaan yang baik, jika semua titik yang mencerminkan pasangan data berada di sekitar garis lurus tersebut. Namun, jika titik-titik pasangan data tersebar satu sama lain, maka persamaan linier yang baik untuk mengestimasi nilai variabel dependen adalah persamaan linier yang kurvanya mempunyai kesalahan yang minimum minimized the error antara titik estimasi dengan titik yang sebenarnya. Metode kuadrat terkecil least-squares method untuk menentukan persamaan linier estimasi, berarti memiliki satu kurva linier dari beberapa kemungkinan kurva linier yang dibuat dari data yang ada yang mempunyai kesalahan error paling kecil selisih antara nilai aktual dan nilai taksiran adalah paling kecil. Kriteria ini dikenal dengan istilah prinsip kuadrat terkecil principle of least square. Prinsip pemilihan garis regresi ini adalah sebagai berikut : ‘pilih garis yang mempunyai jumlah kuadrat deviasi nilai observasi Y terhadap nilai Y prediksinya yang minimum sebagai garis regresi yang paling baik’. Prinsip pemilihan garis yang mempunyai nilai a dan nilai b yang dapat meminimumkan :       n i i i Y Y SSE 1 2 ˆ Simbol SSE menunjukkan jumlah kuadrat deviasi, atau sering disebut jumlah kuadrat untuk kesalahan sum of square for error. Jika suatu persamaan regresi diperoleh dari mensubstitusikan nilai a dan nilai b yang meminimumkan SSE, maka akan dihasilkan persamaan garis regresi prediksi kuadrat terkecil least-squares prediction line sebagai berikut : bX a Y   ˆ yang menyatakan bahwa : Ŷ : taksiran nilai Y a : taksiran nilai intersep populasi Universitas Sumatera Utara b : taksiran nilai slope populasi X : nilai tertentu X Garis estimasi yang tepat best fitting adalah garis yang menghasilkan penyimpangan nilai dalam garis estimasi dengan nilai data observasi sekecil mungkin. Untuk dapat memperoleh garis estimasi yang tepat, harus dapat diperoleh penduga nilai β dan β 1 sedemikian rupa sehingga tujuan di atas dapat dicapai. Permasalah tersebut dapat diatasi dengan menggunakan metode kuadrat terkecil. Metode kuadrat terkecil merupakan metode yang digunakan untuk menentukan garis estimasi yang terbaik berdasarkan kriteria menghasilkan nilai  2 i e yang sekecil mungkin. 2.1.4 Meminimumkan Rata-rata Deviasi Absolute Mengingat masalah meminimumkan  i d dengan pengaruh β, dengan : d i = deviasi dari pengamatan Y i = nilai perkiraan Minimimum Z =  i d … 2.10. kendala X β + d = Y d, β tanda takterbatas Penting diperhatikan bahwa     i i d d Minimimum Z =   i i d d 2 1 kendala X β + d 1 – d 2 = Y β tanda takterbatas d 1 , d 2 ≥ 0 Universitas Sumatera Utara

2.2 LINIER PROGRAMMING