BAB 2 TINJAUAN PUSTAKA 2.1 Optimasi Non-Linier - Pengembangan Algoritma Iteratif Untuk Minimisasi Fungsi Nonlinear

  BAB 2 TINJAUAN PUSTAKA

  2.1 Optimasi Non-Linier Suatu permasalahan optimasi disebut nonlinier jika fungsi tujuan dan kendalanya mempunyai bentuk nonlinier pada salah satu atau keduanya. Optimasi nonlinier ditinjau dari pandangan matematis merupakan topik lanjutan dan secara konsep- tual, sulit untuk diselesaikan. Untuk itu dibutuhkan pengetahuan aktif mengenai kalkulus, differensial dan aljabar linier (He, 2003).

  Kesulitan lain yang dihadapi, yaitu fungsi tujuan nonlinier, yang tidak mem- punyai nilai minimum serta mempunyai daerah penyelesaian dengan batas non- linier (tidak konvex). Secara umum tidak terdapat teknik penyelesaian yang ter- baik, tetapi ada beberapa teknik yang mempunyai masa depan cerah dibandingkan yang lain. Banyak teknik penyelesaian optimasi nonlinier yang hanya efisien untuk menyelesaikan masalah yang mempunyai struktur matematis tertentu. Hampir semua teknik optimasi nonlinier modern mengandalkan pada algoritma numerik untuk mendapatkan jawabannya (Mohan dan Kannan, 2004).

  Beberapa permasalahan optimasi nonlinier diantaranya:

  1. Optimasi satu variabel tanpa kendala

  2. Optimasi multivariabel tanpa kendala

  3. Optimasi multivariabel dengan kendala persamaan

  4. Optimasi multivariabel dengan kendala pertidaksamaan Beberapa algoritma telah diajukan untuk menyelesaikan program taklinier. Di bawah ini disampaikan beberapa algoritma tersebut sebagai suatu kajian literatur.

  5

  2.2 Metode Newton-Raphson Dalam analisis numerik, metode Newton (juga dikenal dengan metode Newton- Raphson), merupakan suatu metode yang cukup dikenal untuk mencari pendekatan terhadap akar fungsi rill. Metode Newton-Raphson sering konvergen dengan cepat, terutama bila iterasi dimulai cukup dekat dengan akar yang diinginkan. Namum bila iterasi dimulai jauh dari akar yang dicari, metode ini dapat meleset tanpa peringatan. Implementasi metode ini biasanya mendeteksi dan mengatasi kega- galan konvergensi.

  2.2.1 Gagasan awal metode newton-Raphson Gagasan awal metode Newton-Raphson adalah metode yang digunakan untuk men- cari akar dari sebuah fungsi rill. Metode ini dimulai dengan memperkirakan satu titik awal dan mendekatinya dengan memperlihatkan slope atau gradien pada titik tersebut. Diharapkan dari titik awal tersebut akan diperoleh pendekatan terhadap akar fungsi yang dimaksud.

Gambar 2.1 Metode newton-Raphson

  Jika terkaan awal pada akar adalah x i , sebuah garis singgung dapat ditarik dari titik [x i , (f(x i )]. Titik dimana garis singgung ini memotong sumbu x, me- nyatakan taksiran akar yang lebih baik. Turunan pertama di x i setara dengan kemiringan: f(x i ) − 0 f(x i ) = x i − x i+1 Sehingga, titik pendekatan untuk i +1 adalah x i+1 = x i − f(x i ) f (x i ) dimana i ≥ 0.

  Algoritma metode Newton-Raphson:

  1. Definisikan fungsi f(x) dan f (x)

  2. Tentukan toleransi error (e) dan iterasi maksimum (n)

  3. Tentukan nilai pendekatan awal x

  4. Hitung f(x ) dan f (x )

  5. Untuk iterasi i = 1, 2, ...,n atau |f(x i )| ≥ e x i+1 = x i − (f(x i )/f (x i )) Hitung f(x ) dan f (x ) 6. Akar persamaan adalah nilai x i terakhir yang diperoleh.

  Permasalahan pada penggunaan metode Newton-Raphson adalah:

  1. Metode ini tidak dapat digunakan ketika pendekatannya berada pada titik ekstrim atau titik puncak karena pada titik ini f (x) = 0, sehingga nilai penyebut dari (f(x)/f (x))f (x) sama dengan nol, secara grafis dapat dilihat sebagai berikut : Bila titik pendekatan berada pada titik puncak, maka titik selanjutnya akan berada di tak berhingga.

  2. Metode ini menjadi sulit atau lama mendapat penyelesaian, ketika titik pen- dekatannya berada diantara dua titik stasioner.

Gambar 2.2 Pendekatan pada titik puncakGambar 2.3 Pendekatan pada 2 titik puncak

  Bila titik pendekatan berada pada dua titik puncak, maka akan dapat me- ngakibatkan hilangnya penyelesaian (divergensi). Hal ini disebabkan titik selanjut- nya berada pada salah satu titik puncak atau arah pendekatannya berbeda. Untuk dapat menyelesaikan kedua permasalahan pada metode Newton-Raphson ini, maka metode Newton-Raphson perlu dimodifikasi yaitu:

  1. Bila titik pendekatan berada pada titik puncak, maka titik pendekatan terse- but harus digeser sedikit x i = x i + δ, dimana δ adalah konstanta yang di-

  ′

  tentukan. Dengan demikian f (x i ) 6= 0 dan metode Newton-Raphson tetap dapat berjalan.

  2. Untuk menghindari titik-titik pendekatan yang berada jauh, ada baiknya metode Newton-Raphson ini didahului oleh metode tabel, sehingga dapat dijamin konvergensinya.

  2.2.2 Metode pengali Lagrange Permasalahanpermasalahan nonlinier yang tidak dalam bentuk standar diselesaikan dengan mengubahnya ke dalam bentuk standar. Untuk menyelesaikan permasala- han ini, maka perlu dibentuk fungsi pengali Lagrange. Fungsi pengali Lagrange didefinisikan sebagai 1 2 1 2 P m L(x , x , ..., x n , λ , λ , ..., λ m ) = f(x) − λ i g i (x). i=1

  Dimana λ i = (i = 1, 2, ..., m) adalah tetapan yang disebut pengali Lagrange. Ke- mudian dibentuk kembali persamaan berikut: δL

  = 0, (j = 1, 2, ..., n) δx i

  δL = 0, L(i = 1, 2, ..., m). δx i

  Metode pengali Lagrange ini ekuivalen dengan menggunakan persamaan ken- dala untuk menghilangkan beberapa variabel x tertentu dari fungsi objektif dan ke- mudian menyelesaikan persoalan maksimasi tanpa kendala dalam variabel-variabel x yang tersisa.

  2.2.3 Vektor gradien dan matriks Hessian Dalam penyelesaian optimasi multivariabel dengan kendala persamaan yang diselesaikan dengan metode Newton-Raphson, terdapat istilah Vektor Gradien dan matriks Hessian.

  1. Vektor Gradien Vektor Gradien adalah turunan parsial pertama dari fungsi pengali Lagrange

  terhadap variable x i dan λ i dimana (i = 1, 2, ..., n) dan (j = 1, 2, ..., m). Secara matematis Vektor Gradien dapat dituliskan: δL δL δL δL δL δL

  L = , , ..., , , , ..., δx 1 δx 2 δx n δλ 1 δλ 2 δλ m

  2. Matriks Hessian Matriks Hessian adalah turunan parsial kedua dari fungsi pengali Lagrange terhadap variabel x i = (I = 1, 2, ..., n) dilanjutkan dengan turunan par- sial terhadap x 1 , x 2 , ..., x n , λ 1 , λ 2 , ..., λ m dan variabel λ j (j = 1, 2, ..., m) dilan- 1 2 1 2 jutkan dengan turunan parsial terhadap x , x , ..., x n , λ , λ , ..., λ m . Matriks

  Hessian didefinisikan sebagai: δ L δ L δ L δ L δ L δ L 2 2 2 2 2 2  δx δx δx δx δx δx δx δλ δx δλ δx δλ δ L δ L δ L δ L δ L δ L 1 2 1 1 2 2 · · · · · · 1 2 n m 1 2 1 1 2 2 1 2  n n n n n n n m  δx δx δx δx δx δx δx δλ δx δλ δx δλ 1 2 · · · · · · 1 2 H L =  δ L δ L δ L δ L δ L δ L  2 2 2 2 2 2 δλ δx δλ δx δλ δx δλ δλ δλ δλ δλ δλ δ L δ L δ L δ L δ L δ L 1 2 1 1 2 2 · · · · · · 1 2 n m 1 2 1 1 2 2 1 2 δλ m δx δλ m δx δλ m δx n δλ m δλ δλ m δλ δλ m δλ m 1 2 · · · · · · 1 2

  2.3 Kondisi Karush-Kuhn Tucker

Tabel 2.1 Kondisi Karush-Kuhn Tucker

  Persoalan Kondisi Perlu Juga Cukup Jika Untuk Optimalitas df

  Satu variabel = 0 f(x) konkaf dx tidak berkendala df Banyak variabel = 0 (j = 1, 2, ..., n) f(x) konkaf dx j tidak berkendala df

  Berkendala, hanya = 0 (j = 1, 2, ..., n) f(x) konkaf dx j kendala nonnegatif atau ≤ 0 jika x j = 0 Persoalan umum Kondisi Karush-Kuhn f(x) konkaf dan g i (x) berkendala Tucker konveks (i = 0,1, ...,m)

  Dari tabel 2.1 terlihat bahwa untuk kondisi persoalan umum disebut kondisi Karush- Kuhn Tucker (Hillier dan Lieberman, 2005). Kondisi perlu dan cukup untuk 1 2

  ¯ x = (¯ x , ¯ x , ..., ¯ x n ) sebagai solusi optimal untuk persoalan nonlinear berikut: 1 2 max (or min) f(x , x , ..., x n )

  Subject to : g 1 (x 1 1 1 , x 2 n m 2 , ..., x n ) ≤ b 1 g (x , x , ..., x ) ≤ b .

  Untuk menggunakan hasil, semua kendala persoalan nonlinear harus kendala- 1 2 1 2 kendala dalam bentuk h(x , x , ..., x n ) ≥ b harus ditulis sebagai h(x , x , ..., x n ) ≤ b harus diganti dengan h(x 1 , x 2 , ..., x n ) ≤ b dan −h(x 1 , x 2 , ..., x n ) ≤ −b (Winston dan Venkataramanan, 2003). Teorema 2.1 memberikan kondisi Kuhn-Tucker yang 1 2 cukup bagi titik ¯ x = (¯ x , ¯ x , ..., ¯ x n ) untuk memecahkan persoalan nonlinear.

  Teorema 2.1 Andaikan persoalan nonlinear adalah persoalan maksimisasi. Jika 1 2 1 2 ¯ x = (¯ x , ¯ x , ..., ¯ x n ) adalah solusi optimal dari persoalan tersebut maka ¯ x = (¯ x , ¯ x , ..., ¯ x n ) yang memenuhi X i=m

  δf(¯ x) δg i (¯ x) ¯

  − λ i ≤ 0 (j = 1, 2, ..., n) δx j δx j i=1

  ¯ " # λ i [b i − g i (¯ x)] = 0 (j = 1, 2, ..., n) X i=m δf δg i

  ¯ − λ i = 0 (j = 1, 2, ..., n)

  δx j δx j i=1 ¯

  λ i ≤ 0 (j = 1, 2, ..., 3) Teorema 2.2 Andaikan persoalan nonlinear adalah persoalan minimisasi. Jika 1 2

  ¯ x = (¯ x , ¯ x , ..., ¯ x n ) adalah solusi optimal dari persoalan tersebut maka harus meme- 1 2

  nuhi m kendala dan harus ada pengali ¯ λ , ¯ λ , ..., ¯λ m yang memenuhi: X i=m

  δf(¯ x) δg i (¯ x) ¯

  − λ i ≥ 0 (j = 1, 2, ..., n) δx j δx j i=1

  ¯ " # λ i [b i − g i (¯ x)] = 0 (j = 1, 2, ..., n) X i=m δf δg i

  ¯ − λ i = 0 (j = 1, 2, ..., n)

  δx j δx j i=1 ¯

  λ i ≤ 0 (j = 1, 2, ..., 3)

  Skalar λ i , I = 1, ..., m disebut kondisi complementary slackness yang menyatakan dua kemungkinan yaitu:

  1. Jika g i (x) < 0 maka λ i = 0

  2. Jika λ i < 0 maka g i (x) = 0

  2.4 Metode Biseksi Kelebihan Metode Biseksi adalah selalu berhasil menemukan akar (solusi) yang dicari, atau dengan kata lain selalu konvergen. Sedangkan kekurangan metode biseksi adalah:

  1. Metode biseksi hanya dapat dilakukan apabila ada akar persamaan pada interval yang diberikan.

  2. Jika ada beberapa akar pada interval yang diberikan maka hanya satu akar saja yang dapat ditemukan.

  3. Memiliki proses iterasi yang banyak sehingga memperlama proses penyele- saian. Tidak memandang bahwa sebenarnya akar atau solusi yang dicari dekat sekali dengan batas interval yang digunakan.

  2.5 Metode Scant Kelebihan metode scant adalah:

  1. Dapat digunakan untuk mencari akar-akar persamaan dari persamaan poli- nomial kompleks, atau persamaan yang turunan pertamanya sangat sulit didapatkan.

  2. Laju konvergen cepat.

  3. Cukup satu terkaan awal. Sedangkan kekurangan metode secant adalah: 1. Turunan harus di cari secara analitis.

  2. Bisa divergen.