Metode two-point stepsize gradient dan metode modifikasi two-point stepsize gradient untuk menyelesaikan optimalisasi tanpa kendala

METODE TWO-POINT STEPSIZE GRADIENT DAN METODE
MODIFIKASI TWO-POINT STEPSIZE GRADIENT UNTUK
MENYELESAIKAN OPTIMALISASI TANPA KENDALA

RIZKI OKTAVIANI

DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
BOGOR
2014

PERNYATAAN MENGENAI SKRIPSI DAN
SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA
Dengan ini saya menyatakan bahwa skripsi berjudul Metode Two-Point
Stepsize Gradient dan Metode Modifikasi Two-Point Stepsize Gradient untuk
Menyelesaikan Optimalisasi Tanpa Kendala adalah benar karya saya dengan
arahan dari komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada
perguruan tinggi mana pun. Sumber informasi yang berasal atau dikutip dari karya
yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam
teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini.

Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut
Pertanian Bogor.
Bogor, November 2014
Rizki Oktaviani
NIM G54100092

ABSTRAK
RIZKI OKTAVIANI. Metode Two-Point Stepsize Gradient dan Metode
Modifikasi Two-Point Stepsize Gradient untuk Menyelesaikan Optimalisasi
Tanpa Kendala. Dibimbing oleh BIB PARUHUM SILALAHI dan FARIDA
HANUM.
Dalam karya ilmiah ini dibahas tentang metode two-point stepsize gradient
Barzilai dan Borwein dan metode modifikasinya. Kedua metode tersebut
dibandingkan secara numerik dalam hal waktu komputasi, jumlah iterasi dan
kekonvergenan menuju solusi optimal dengan bantuan software MATLAB
R2008b. Metode two-point stepsize gradient merupakan salah satu metode
optimalisasi matematika yang melakukan pencarian solusi secara iteratif yang
dimulai dari satu titik solusi kemudian melakukan pencarian ke arah titik solusi
lain dengan menggunakan ukuran langkah pencarian (stepsize) tertentu. Besarnya
stepsize yang digunakan ditentukan berdasarkan hampiran matriks Hesse pada

persamaan kuadratik deret Taylor. Pada metode modifikasi ditambahkan sebuah
teknik untuk mencari stepsize yaitu teknik pencarian garis takmonoton. Hasil
numerik menunjukkan bahwa untuk setiap jenis fungsi yang digunakan, secara
umum metode two-point stepsize gradient Barzilai dan Borwein lebih unggul
dalam hal waktu komputasi, sedangkan metode modifikasinya lebih unggul dalam
mencari nilai optimal dan jumlah iterasi.
Kata kunci: metode two-point stepsize gradient, optimalisasi tanpa kendala,
pencarian garis takmonoton

ABSTRACT
RIZKI OKTAVIANI. Two-Point Stepsize Gradient Method and Modified TwoPoint Stepsize Gradient Method for Unconstrained Optimization. Supervised by
BIB PARUHUM SILALAHI and FARIDA HANUM.
This manuscript discusses Barzilai and Borwein two-point stepsize gradient
method and its modification. Both of these methods will be compared numerically
in terms of computation time, number of iterations and its convergence to the
optimal solution by using software MATLAB R2008b. Two-point stepsize
gradient method is one of the mathematical optimization methods which finds a
solution iteratively that starts from a single point solution to another point
solutions by using specific stepsize. The number of stepsize is determined by
approximation of Hesse matrix using quadratic equations of Taylor series. In the

modified method a technique is added to find the stepsize using nonmonotone line
search technique. Numerical results show that for each type of functions exemined,
in general, Barzilai and Borwein two-point stepsize gradient method is superior in
terms of computation time, whereas its modification is superior in finding the
optimal solution and the number of iterations.
Keywords:

nonmonotone line search, two-point stepsize gradient methods,
unconstrained optimization

METODE TWO-POINT STEPSIZE GRADIENT DAN METODE
MODIFIKASI TWO-POINT STEPSIZE GRADIENT UNTUK
MENYELESAIKAN OPTIMALISASI TANPA KENDALA

RIZKI OKTAVIANI

Skripsi
sebagai salah satu syarat untuk memperoleh gelar
Sarjana Sains
pada

Departemen Matematika

DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
BOGOR
2014

PRAKATA
Puji dan syukur penulis panjatkan kepada Allah subhanahu wa ta’ala atas
segala karunia-Nya sehingga karya ilmiah ini berhasil diselesaikan. Karya ilmiah
ini mulai dikerjakan oleh penulis sejak bulan Februari 2014. Judul karya ilmiah
ini adalah Metode Two-Point Stepsize Gradient dan Metode Modifikasi TwoPoint Stepsize Gradient untuk Menyelesaikan Optimalisasi Tanpa Kendala.
Terima kasih penulis ucapkan kepada Bapak Dr Ir Bib Paruhum Silalahi,
MKom dan Ibu Dra Farida Hanum, MSi selaku pembimbing, serta Bapak
Muhammad Ilyas, MSi MSc selaku dosen penguji yang telah banyak memberi
saran. Di samping itu, terima kasih kepada seluruh dosen dan staf Departemen
Matematika atas segala ilmu yang diberikan dan bantuannya selama masa
perkuliahan. Ungkapan terima kasih juga disampaikan kepada kedua orang tua yakni
Ayah Sargono dan Ibu Riyani, kakak dan adikku yakni Kak Resta, Kak Indra dan

Henry serta seluruh keluarga besar, atas segala dukungan, doa dan kasih sayangnya.
Tak lupa ucapan terima kasih untuk sahabat Matematika yakni Vivi, Anis, Shovi,
Nurul, Marin, Murzani, Lola, Kak Rio dan lainnya, kakak dan adik kelas, sahabatku
Deden, Anisyah, Indri, Tenti, Tiara dan Dani serta semua pihak yang telah
mendukung dan mendoakan penulis hingga terselesaikannya karya ilmiah ini. Terima
kasih juga penulis ucapkan untuk semua pihak yang telah memberi pengalaman dan
motivasi selama masa perkuliahan.
Semoga karya ilmiah ini bermanfaat.

Bogor, November 2014
Rizki Oktaviani

DAFTAR ISI
DAFTAR TABEL

x

DAFTAR GAMBAR

x


DAFTAR LAMPIRAN

x

PENDAHULUAN

1

Latar Belakang

1

Tujuan Penelitian

1

TINJAUAN PUSTAKA

2


Fungsi Konveks dan Fungsi Konkaf

2

Vektor Gradien dan Matriks Hesse

2

Minor Utama

3

Kedefinitan Matriks

3

Kekonveksan Fungsi dan Matriks Hesse

4


Aturan Armijo: Pengurangan Stepsize Berturut-turut

4

DESKRIPSI MASALAH

7

METODE TWO-POINT STEPSIZE GRADIENT

7

Formulasi Metode Two-Point Stepsize Gradient

7

Algoritme Metode Two-Point Stepsize Gradient

9


METODE MODIFIKASI TWO-POINT STEPSIZE GRADIENT

10

Formulasi Stepsize Baru

10

Teknik Pencarian Garis Takmonoton

11

Algoritme Metode Modifikasi Two-Point Stepsize Gradient

11

HASIL DAN PEMBAHASAN

12


Hasil Numerik untuk Fungsi dengan Nilai Optimal Global di Satu Titik

13

Hasil Numerik untuk Fungsi dengan Nilai Optimal Global di Banyak Titik

16

Hasil Numerik untuk Fungsi Tanpa Minimum Global

17

SIMPULAN DAN SARAN

21

Simpulan

21


Saran

21

DAFTAR PUSTAKA

21

LAMPIRAN

23

RIWAYAT HIDUP

39

DAFTAR TABEL
1
2
3
4
5
6
7
8
9
10
11
12
13
14

Hasil numerik untuk fungsi Wood
Hasil numerik untuk fungsi Beale
Hasil numerik untuk fungsi penalty I
Hasil numerik untuk fungsi trigonometrik
Hasil numerik untuk fungsi extended Powell singular
Hasil numerik untuk fungsi variably dimensioned
Hasil numerik untuk fungsi Brown badly scale
Hasil numerik untuk fungsi kuadratik 1
Hasil numerik untuk fungsi kuadratik 2
Hasil numerik untuk fungsi Biggs EXP6
Hasil numerik untuk fungsi kuadratik 3
Hasil numerik fungsi trigonometrik II
Hasil numerik fungsi kubik
Hasil numerik fungsi kuadratik konkaf dengan titik awal
dan =

13
13
14
14
14
14
15
15
15
15
16
16
17
18

DAFTAR GAMBAR
1 Contoh kegagalan aturan Armijo dalam pengurangan stepsize secara
berturut-turut untuk fungsi satu dimensi
2 Pencarian titik minimum dengan aturan Armijo
3 Grafik tiga dimensi fungsi trigonometrik II pada selang 0-20
4 Grafik tiga dimensi fungsi kuadratik konkaf
5 Grafik tiga dimensi fungsi kubik
6 Rata-rata waktu iterasi pada fungsi MTSG dan BB
7 Jumlah iterasi untuk metode MTSG dan BB
8 Nilai minimum yang dihitung menggunakan metode MTSG dan BB
untuk fungsi dengan nilai optimal global di satu titik
9 Nilai minimum yang dihitung menggunakan metode MTSG dan BB
untuk fungsi dengan nilai optimal global di banyak titik
10 Nilai minimum yang dihitung menggunakan metode MTSG dan BB
untuk fungsi tanpa minimum global

5
6
16
17
17
18
18
19
19
20

DAFTAR LAMPIRAN
1 Sintaks program MATLAB R2008b untuk metode BB dalam
menyelesaikan 14 fungsi yang diujikan
2 Sintaks program MATLAB R2008b untuk metode MTSG dalam
menyelesaikan 14 fungsi yang diujikan
3 Hasil komputasi program MATLAB R2008b untuk metode MTSG dan
BB dalam menyelesaikan fungsi Brown badly scale
4 Hasil komputasi program MATLAB R2008b untuk metode MTSG dan
BB dalam menyelesaikan fungsi Beale
5 Hasil komputasi program MATLAB R2008b untuk metode MTSG dan
BB dalam menyelesaikan fungsi kuadratik 1

23
23
26
28
34

DAFTAR LAMPIRAN (lanjutan)
6 Hasil komputasi program MATLAB R2008b untuk metode MTSG dan
BB dalam menyelesaikan fungsi kuadratik 2
7 Hasil komputasi program MATLAB R2008b untuk metode MTSG dan
BB dalam menyelesaikan fungsi kuadratik 3
8 Titik optimal dari 14 fungsi yang diujikan menggunakan metode MTSG
dan BB

35
36
37

PENDAHULUAN
Latar Belakang
Setiap manusia selalu merencanakan hal baik untuk kehidupan sehariharinya dengan harapan bahwa rencana yang baik akan menjadi kenyataan.
Namun, setiap rencana yang telah disusun tidak selalu sesuai dengan harapan
sehingga setiap manusia harus memilih dan memutuskan apa yang akan
dilakukan. Secara tidak sadar setiap orang sudah melakukan pengoptimalan dalam
menjalani kehidupannya dengan menggunakan penalarannya sendiri. Riset operasi
merupakan salah satu cabang ilmu untuk memodelkan masalah ke dalam bentuk
matematika dan menentukan cara yang paling baik untuk mencari solusi yang
optimal.
Sejak awal ditemukannya riset operasi, banyak ilmuwan yang
mengembangkan metode pencarian solusi untuk berbagai macam masalah
pengoptimalan. Namun, semua metode yang dikembangkan tidak semuanya
konvergen menuju titik optimal dengan tepat dan cepat, sehingga dilakukanlah
kajian ulang secara berturut-turut dimulai dari memperbaiki stepsize, penambahan
syarat pengoptimalan seperti dalam Birgin et al. (1999) dan Leong et al. (2010).
Dalam skripsi ini akan dibahas tentang masalah optimalisasi tanpa kendala
banyak variabel dengan metode two-point stepsize gradient dan modifikasinya.
Metode modifikasi two-point stepsize gradient ini merupakan perbaikan dari
metode two-point stepsize gradient dengan mengubah stepsize menggunakan
metode interpolasi dan penambahan teknik pencarian garis takmonoton.
Kedua metode tersebut akan dibandingkan secara numerik untuk melihat
metode mana yang lebih baik dengan bantuan software MATLAB R2008b.
Metode two-point stepsize gradient ini didapat dari artikel berjudul Two-point
stepsize gradient methods (Barzilai dan Borwein 1988), sedangkan metode
modifikasi two-point stepsize gradient ini diperoleh dari artikel berjudul Modified
two-point stepsize gradient methods for unconstrained optimization (Dai et al.
2002).

Tujuan Penelitian
Tujuan dari karya ilmiah ini ialah:
1 mengonstruksi metode two-point stepsize gradient Barzilai dan Borwein (BB)
dan metode modifikasi two-point stepsize gradient (MTSG) dalam
menyelesaikan masalah optimalisasi tanpa kendala,
2 membandingkan kedua algoritme tersebut secara numerik dalam hal waktu
komputasi,
jumlah iterasi dan kekonvergenan menuju solusi optimal
menggunakan software MATLAB R2008b.

TINJAUAN PUSTAKA
Fungsi Konveks dan Fungsi Konkaf
Konsep fungsi konveks dan fungsi konkaf yang digunakan pada karya
ilmiah ini meliputi definisi-definisi berikut ini.
Misalkan
, dengan himpunan konveks yang takkosong di
.
Fungsi dikatakan konveks di jika
untuk setiap
dan

. Jika yang berlaku
untuk
maka dikatakan fungsi konveks sempurna (strictly convex).
Fungsi dikatakan konkaf di jika

untuk setiap

dan untuk setiap

dan untuk setiap

dan
maka
(Peressini et al. 1988).

. Jika yang berlaku
untuk
dikatakan fungsi konkaf sempurna (strictly concave)

Vektor Gradien dan Matriks Hesse
Vektor gradien dan matriks Hesse untuk fungsi yang digunakan dalam
karya ilmiah ini meliputi definisi-definisi berikut ini.
Misalkan f adalah fungsi smooth, yaitu fungsi kontinu dan terdiferensialkan
dua kali secara kontinu (berarti hingga fungsi turunan kedua adalah fungsi
kontinu), dan dinyatakan dengan
. Untuk
didefinisikan vektor
gradien dari fungsi f di titik x adalah

Jika fungsi f terdiferensialkan secara kontinu dua kali maka di titik x
terdapat matriks turunan parsial kedua yang disebut matriks Hesse (Hessian
matrix) (Peressini et al. 1988).

3

Catatan:
Untuk fungsi dua variabel x dan y
1

dapat dituliskan sebagai
dapat dituliskan sebagai

, dan

.

2

Turunan campuran

3

Teorema
Jika
dan
merupakan fungsi kontinu pada selang buka
).
yang memuat
, maka
Teorema ini juga berlaku untuk fungsi dengan lebih dari dua variabel,
sehingga matriks Hesse
merupakan matriks simetrik (Smith dan
Minton 2006).

Minor Utama
Berikut ini akan dibahas mengenai definisi minor utama yang akan
digunakan pada bahasan kedefinitan matriks.
Misalkan A matriks simetrik berukuran
. Minor utama (principal
minor) ke-k dari A, dilambangkan dengan , adalah determinan dari anak matriks
A yang diperoleh dengan menghilangkan
baris terakhir dan
kolom terakhir dari matriks A ( Peressini et al. 1988).

Kedefinitan Matriks
Berikut ini akan dibahas mengenai teorema kedefinitan suatu matriks.
Misalkan A matriks simetrik berukuran
dan misalkan
adalah minor
utama ke-k dari matriks A untuk
maka
1 A definit positif jika dan hanya jika
untuk
untuk
2 A definit negatif jika dan hanya jika
Selanjutnya
1 Jika
maka A semidefinit positif.
2 Jika
untuk
dan
maka A semidefinit
negatif (Peressini et al. 1988).

4

Kekonveksan Fungsi dan Matriks Hesse
Berikut akan dibahas teorema cara memeriksa kekonveksan fungsi dengan
menggunakan matriks Hesse.
Misalkan
mempunyai turunan persial kedua yang kontinu pada suatu
himpunan konveks buka C di
. Jika
1 matriks Hesse
dari adalah semidefinit positif pada C, maka
adalah
fungsi konveks pada C,
2 matriks Hesse
dari adalah definit positif pada C, maka
adalah
fungsi strictly convex pada C (Peressini et al. 1988).

Aturan Armijo: Pengurangan Stepsize Berturut-turut
Aturan Armijo yang dibahas dalam karya ilmiah ini bersumber pada
(Bertsekas 2003). Aturan Armijo merupakan acuan dasar yang digunakan pada
teknik pencarian garis takmonoton.
Misalkan adalah fungsi yang akan dicari nilai minimumnya. Misalkan
pula dipilih sebuah ukuran langkah pencarian (stepsize) dengan inisial s dan
yang merupakan titik solusi untuk suatu fungsi f pada iterasi ke-k. Titik solusi
untuk iterasi ke-(k+1) dilambangkan dengan
dengan
dan
adalah arah pencarian (search direction) untuk fungsi
pada urutan iterasi
ke-k. Kondisi yang diinginkan dalam aturan Armijo yaitu mencari stepsize yang
sesuai sehingga nilai solusi pada iterasi ke-(k+1) lebih kecil atau sama dengan
urutan iterasi ke-k, yaitu
. Ketika kondisi tersebut tidak
terpenuhi, stepsize akan berkurang. Pengurangan stepsize ini mungkin akan
berulang berkali-kali sampai kondisi
terpenuhi.
Secara umum metode ini dapat diterapkan pada berbagai kasus
pengoptimalan. Namun secara teori, metode ini memiliki kerugian yang sulit
diprediksi (seperti kerugian waktu) dalam memperbaiki stepsize yang dihasilkan
pada setiap iterasi untuk konvergen ke titik minimum. Hal ini diilustrasikan pada
Gambar 1.
Aturan Armijo hanya menguraikan pengurangan stepsize secara berturutturut. Misalkan
dan adalah skalar dengan
dan
dan
misalkan
dengan
adalah bilangan bulat taknegatif pertama m
sehingga
.
(1)
Ketika kondisi pada pertaksamaan (1) tidak terpenuhi maka akan dilakukan
perubahan
secara terus menerus hingga didapatkan kondisi yang memenuhi
pertaksamaan (1). Dengan kata lain, stepsize
, m=0,1,... adalah percobaan
berturut-turut sampai pertaksamaan (1) dipenuhi oleh
Gambar 2
mengilustrasikan aturan ini.

5
Ilustrasi kegagalan aturan Armijo secara teori

Gambar 1 Contoh kegagalan aturan Armijo dalam pengurangan
stepsize secara berturut-turut untuk fungsi satu dimensi
Misalkan diberikan fungsi

sebagai berikut:

Gradien fungsi f diberikan oleh

Fungsi f adalah fungsi konveks sempurna, kontinu, minimum pada =0 dan
terturunkan di daerah asalnya. Lebih jauh lagi, untuk sembarang dua skalar ,
didapatkan pertaksamaan
jika dan hanya jika
.
Jika dilihat dari titik
, didapat
(2)
Dari persamaan (2) dapat dibuktikan bahwa
(3)
sehingga
dan
.
(4)
Hal ini akan berlaku sama untuk fungsi f dengan daerah asal
, sehingga
didapatkan
dan
.
(5)
Sekarang diasumsikan bahwa iterasi steepest descent dengan stepsize s=1,
dengan stepsize yang akan terus menerus berkurang. Misalkan titik awal
. Dari pertaksamaan (3), (4) dan (5), titik awal
mengikuti
memenuhi
persamaan
dan stepsize s=1. Jadi, titik selanjutnya

6
memenuhi
Dengan mengulang argumen sebelumnya,
untuk setiap
dapat di lihat bahwa urutan himpunan
memenuhi
urutan iterasi ke-k, sehingga iterasi steepest descent tidak dapat membawa fungsi f
konvergen ke titik stasioner = 0. Fakta ini dapat menunjukkan bahwa
akan
memiliki dua titik limit yaitu
dan
, untuk setiap titik awal
dengan
. Dengan kata lain, aturan Armijo gagal untuk membuat fungsi f
menuju titik stasioner = 0 ketika digunakan titik awal
dengan
.
Ilustrasi pemilihan stepsize dengan aturan Armijo
Himpunan stepsize
yang mungkin

Percobaan stepsize yang
tidak berhasil

Gambar 2 Pencarian titik minimum dengan aturan Armijo
Percobaan dimulai dengan memilih stepsize awal s, kemudian stepsize pada
langkah kedua dan selanjutnya dilambangkan dengan ,
,... sampai pertama
kali
memenuhi pertaksamaan
(6)
menggantikan nilai stepsize . Stepsize s,
,
,...
yang memenuhi
pertaksamaan (6) dimasukkan ke dalam himpunan stepsize . Pada dasarnya
himpunan stepsize
tidak membutuhkan sebuah interval namun himpunan
stepsize selalu memiliki interval dari [0, ] dengan
. Secara umum aturan
Armijo akan menemukan stepsize yang tepat setelah sejumlah percobaan evaluasi
pada fungsi f di titik
.
Biasanya
dipilih dekat ke nol, misalkan
. Faktor
pengurang biasanya dipilih dari
sampai
bergantung pada tingkat
kepercayaan kualitas inisialisasi stepsize s. Pada umumnya nilai stepsize
bisa dipakai dalam menentukan inisialisasi stepsize s, sedangkan untuk
menentukan arah pencarian (search direction)
menggunakan berbagai skala
nilai. Jika sebuah nilai
tidak diketahui, salah satu cara yang dapat digunakan
untuk menemukan nilai
adalah dengan melakukan interpolasi kuadratik pada
fungsi

7
Dalam kasus ini, misalkan dipilih beberapa stepsize , yaitu , evaluasi nilai
dan lakukan interpolasi kuadratik pada fungsi dengan memasukkan nilai
dan = pada fungsi , sehingga
dan
,
. Jika sebuah nilai meminimumkan interpolasi kuadratik,
ganti
dengan
dan gunakan stepsize awal
.

DESKRIPSI MASALAH
Dalam karya ilmiah ini akan dibahas penyelesaian masalah optimalisasi
tanpa kendala dengan dua metode pendekatan yaitu metode two-point stepsize
gradient dan modifikasi two-point stepsize gradient. Secara umum masalah
optimalisasi yang akan diselesaikan dalam karya ilmiah ini memiliki asumsi
sebagai berikut:
1 masalah optimalisasi merupakan masalah optimalisasi minimum tanpa kendala,
2 fungsi objektif pada masalah optimalisasi tanpa kendala merupakan fungsi
yang kontinu dan terturunkan di daerah asalnya,
sehingga bentuk formal fungsi objektif yang akan dibahas pada karya ilmiah ini
dapat dituliskan secara matematis sebagai berikut:
min
dengan

,
adalah fungsi kontinu dan terturunkan di

(7)
.

METODE TWO-POINT STEPSIZE GRADIENT
Metode two-point stepsize gradient merupakan salah satu metode yang
dapat digunakan untuk menyelesaikan masalah optimalisasi tanpa kendala.
Metode ini diperkenalkan dalam (Barzilai dan Borwein 1988). Metode two-point
stepsize gradient merupakan salah satu metode optimalisasi matematika yang
melakukan pencarian solusi (lokal ataupun global) secara iteratif yang dimulai
dari satu titik solusi kemudian melakukan pencarian ke arah titik solusi lain
dengan menggunakan titik solusi sebelumnya.
Pencarian solusi secara iteratif dapat dinyatakan dalam bentuk:
,
dengan
dan
berturut-turut adalah titik solusi pada iterasi ke-k dan ke(k+1), kemudian
adalah arah pencarian (search direction) dan
adalah
ukuran langkah pencarian (stepsize).

Formulasi Metode Two-Point Stepsize Gradient
Pada tahun 1988, Barzilai dan Borwein memperkenalkan suatu metode yang
dapat digunakan untuk mencari nilai optimal dengan menggunakan strategi

8
hampiran deret Taylor di sekitar titik
dan
dalam menentukan stepsize .
Berikut akan dijelaskan secara matematis cara mendapatkan stepsize yang akan
digunakan pada metode tersebut.
Formulasi metode ini dimulai dengan mendefinisikan persamaan kuadratik
deret Taylor di sekitar titik , yang diberikan oleh:
.
(8)
Persamaan (8) merupakan sebuah hampiran untuk fungsi
di sekitar titik
dengan
dan
merupakan fungsi objektif. Sebagai catatan matriks
merupakan hampiran untuk matriks Hesse fungsi
pada
(Leong et al.
2010). Diasumsikan bahwa fungsi
merupakan fungsi konveks sehingga
berdasarkan teorema kekonveksan fungsi dan matriks Hesse,
haruslah matriks
definit positif dan didefinisikan matriks
dengan
. Agar
,
diperoleh P yang dapat meminimumkan fungsi
, diambil
sehingga
,
(9)
,
,
.
(10)
Ketika P dijadikan arah pencarian untuk setiap iterasi, maka
di hampiri
dengan membuat skema iteratif
(Blomgren 2013).
Menurut Blomgren (2013), stepsize pada metode two-point stepsize gradient
Barzilai dan Borwein (BB) didapat dengan membuat dua kondisi pada persamaan
(8), kondisi pertama yaitu
harus sama dengan gradien fungsi objektif pada
dan kondisi kedua yaitu
harus sama dengan gradien fungsi objektif pada
.
Agar kedua kondisi tersebut terpenuhi maka dipilihlah
dan
.
Selanjutnya, pada saat
diperoleh:
.
Kemudian saat

diperoleh:
,

menurut skema iteratif berarti:
.
mengakibatkan
demikian nilai
.
sehingga
Dengan menggunakan persamaan (9) diperoleh:
,
,
,
,
.
(11)
maka persamaan
Misalkan
dan
(11) dapat ditulis sebagai
Kemudian nilai stepsize
pada
dengan
metode BB diperoleh dengan cara meminimumkan
dan
merupakan perkalian skalar dari vektor dan .
berarti
menyelesaikan
Meminimumkan
dengan
merupakan perkalian skalar dari vektor a dan b. Kemudian dibuat turunan pertama

Dengan

9
terhadap

dari
nol untuk meminimumkan

Nilai

sama dengan

sehingga

diganti dengan

sehingga

.
Dengan

diperoleh

Selanjutnya dengan menyatakan
diperoleh:

sebagai stepsize metode BB, yaitu

,
(12)

Metode BB mengikuti suatu skema iteratif:
,
dengan
merupakan gradien fungsi

(13)
pada urutan iterasi

.

Algoritme Metode Two-Point Stepsize Gradient
Berikut adalah algoritme BB dengan stepsize
pada persamaan (12).
Algoritme 1
Langkah 0 : diberikan titik awal , batas toleransi
dan k = 1.
maka proses berhenti.
Langkah 1 : jika
dengan
Langkah 2 : untuk i = 1, stepsize
untuk
hitung nilai stepsize
menggunakan persamaan (12).
Langkah 3 : tentukan
.
Langkah 4 : beri nilai k= k+1, dan lanjutkan ke langkah 1.
Langkah 0 merupakan langkah inisialisasi penentuan titik awal iterasi dan
batas toleransi yang akan digunakan. Titik awal iterasi yang digunakan sangat
memengaruhi iterasi setelahnya sehingga dibutuhkan pemilihan titik awal iterasi
yang tepat. Selain itu, pemilihan batas toleransi yang digunakan juga sangat
memengaruhi ketepatan suatu titik solusi dalam mencapai nilai minimumnya,
sehingga diperlukan pemilihan batas toleransi yang tidak terlalu besar ataupun
terlalu kecil. Pemilihan titik awal dan batas toleransi ini nantinya akan lebih
dijelaskan dalam Bab Hasil dan Pembahasan.
Aturan penghentian algoritme pada langkah 1 menggunakan salah satu uji
konvergensi yaitu
. Diharapkan ketika nilai
(batas toleransi),
titik solusi x merupakan titik solusi yang membuat fungsi f(x) optimal.

METODE MODIFIKASI TWO-POINT STEPSIZE GRADIENT
Pada pembahasan sebelumnya telah dijelaskan bahwa salah satu metode
yang akan digunakan untuk menyelesaikan masalah pada persamaan (7) adalah
metode modifikasi two-point stepsize gradient. Sesuai dengan namanya, metode
ini merupakan metode modifikasi dari metode two-point stepsize gradient Barzilai
dan Borwein. Modifikasi ini dilakukan oleh Dai et al. (2002). Modifikasi yang
mereka lakukan meliputi dua hal yaitu:
1 perubahan stepsize,
2 penambahan teknik pencarian garis takmonoton.

Formulasi Stepsize Baru
Pada subbab sebelumnya telah dinotasikan

=

, yang berarti

.
Seperti yang telah dijelaskan sebelumnya bahwa nilai
merupakan hampiran
untuk
dengan menganggap matriks
sehingga nantinya nilai
ini akan dimasukkan ke dalam persamaan kuadratik deret Taylor untuk
menggantikan nilai
.
di
Model kuadratik dari deret Taylor untuk hampiran fungsi
sekitar titik
diberikan sebagai berikut:
(14)
disebut
. Fungsi
dengan
dan
sebagai fungsi objektif. Menurut Dai et al. (2002), untuk mendapatkan stepsize
. Kondisi pertama
baru dibuatlah dua buah kondisi pada model kuadratik
harus sesuai dengan gradien fungsi objektif pada
dan kondisi
yaitu
harus sesuai dengan gradien fungsi objektif pada
. Agar
kedua yaitu
kedua kondisi tersebut terpenuhi maka dipilihlah = 0 dan =
.
Kondisi pertama, yaitu = 0, yang berarti
sehingga
,
dan
,
,
.
Kondisi kedua, yaitu =
, yang berarti
sehingga
,
,
,
,
(15)
adalah
dan gradien untuk
,
,
,

11
,
,
.
(16)
Berdasarkan persamaan (15) dan (16), maka persamaan (14) dapat diubah menjadi
,
,
,
,
.
Jadi, didapatkan stepsize baru
.

(17)

Persamaan (17) inilah yang akan menjadi stepsize bagi metode modifikasi twopoint stepsize gradient (MTSG). Selanjutnya dengan menyatakan
pada
persamaan (17) sebagai stepsize metode MTSG, yaitu
, diperoleh:
.

(18)

Teknik Pencarian Garis Takmonoton
Teknik ini merupakan salah satu aturan tambahan untuk memilih stepsize .
Ide dari teknik ini diambil dari aturan Armijo yaitu menentukan nilai stepsize
dalam setiap iterasi sehingga membuat nilai solusi pada iterasi ke-(k+1) lebih
kecil dari nilai solusi pada iterasi ke-k;
untuk masalah minimum dengan nilai M merupakan batas untuk
mencari nilai yang paling maksimum dari nilai fungsi f pada iterasi ke-k dengan
nilai fungsi f pada iterasi ke. Ketika nilai
maka batas
maksimum fungsi tersebut mencari nilai yang paling maksimum dari nilai fungsi f
pada iterasi ke-k dengan nilai fungsi f pada iterasi ke- .
ini
Pertidaksamaa
menjelaskan bahwa pada iterasi ke-(k+1) teknik ini menjamin nilai fungsi f(x)
akan lebih kecil atau sama dengan nilai fungsi f(x) pada iterasi ke-k sampai iterasi
ke-( dengan cara mengubah-ubah stepsize
. Jadi, dengan
adanya teknik ini membuat MTSG diarahkan menuju titik optimalnya.

Algoritme Metode Modifikasi Two-Point Stepsize Gradient
Pada algoritme MTSG terdapat variabel
yang berperan dalam pemilihan
stepsize ketika
Variabel
menunjukkan secara kuantitas
seberapa dekat fungsi
ke bentuk kuadratik pada selang garis antara
dan
. Menurut Dai et al. (2002), untuk menentukan seberapa dekat fungsi
ke
bentuk kuadratik, diasumsikan tiga buah konstanta positif yaitu
dengan ketiga konstanta tersebut memenuhi kondisi
. Jika
,
, maka secara kuantitas
atau max
atau max
fungsi
sangat dekat ke bentuk kuadratik pada selang garis antara
dan .

12
Jadi, dalam Algoritme 2, pada langkah 2 dapat dilihat bahwa
ketika
selainnya
atau max
atau max
. Pada saat
maka stepsize yang dipilih adalah max
sedangkan ketika
stepsize yang dipilih adalah , artinya ketika fungsi
sangat dekat ke bentuk kuadratik maka stepsize yang dipilih adalah
sedangkan
untuk fungsi
yang sulit diketahui bentuk fungsinya dalam selang garis antara
dan
maka stepsize yang diambil adalah max
atau .
Algoritme 2
Langkah 0: misalkan diberikan
.
Langkah 1: jika

berhenti.

Langkah 2:(a) Jika
, lanjut ke langkah 3. Jika
=1, lanjut ke langkah 3,
(b) Hitung
dan
berurutan;
(c)

;

dengan persamaan (12) dan (18) secara
,

jika
maka

(d) Jika

maka

maka = ,

atau
,

atau

; selainnya = max

.

Langkah 3: (pencarian garis takmonoton) jika
maka

, lanjut ke langkah 1.

Langkah 4: pilih
, buat
, lanjut ke langkah 3.
Langkah 0 merupakan inisialisasi penentuan titik awal iterasi, stepsize awal, batas
toleransi dan variabel-variabel lain yang akan digunakan pada Algoritme 2.

HASIL DAN PEMBAHASAN
Metode modifikasi two-point stepsize gradient (Algoritme 2) dengan
metode two-point stepsize gradient Barzilai dan Borwein (Algoritme 1) untuk
masalah optimal minimum dikodekan menggunakan software MATLAB R2008b.
Kriteria penghentian algoritme BB dan MTSG meliputi tiga hal yaitu:
1
untuk metode MTSG dan BB, dengan
merupakan
batas toleransi yang digunakan,
2 titik solusi pada iterasi ke-n sama dengan titik solusi pada iterasi ke-(n+1),
(n+2),.... sehingga pada kasus ini banyaknya iterasi ditulis n dan diasumsikan
banyaknya solusi adalah n,
3 MATLAB melakukan penghentian algoritme karena angka yang dihitung
terlalu besar.
Fungsi yang akan diujikan untuk kedua algoritme ini didapat dari More et al.
(1981) dan beberapa sumber lainnya. Titik awal dalam kasus ini ibarat sebuah

13
bumerang. Ketika titik awalnya terlalu jauh dari titik optimalnya maka iterasi akan
berlangsung lama untuk menuju titik optimal yang sesungguhnya. Namun, ketika
titik awalnya terlampau dekat atau tepat di titik optimalnya maka sulit untuk
menarik kesimpulan tentang metode mana yang lebih efisien digunakan dalam
mencari solusi yang diharapkan.
Dalam karya ilmiah ini pemilihan titik awal didapat dari artikel yang ditulis
oleh More et al. (1981) yang telah banyak dirujuk oleh berbagai artikel sebagai
acuan dasar dalam menentukan titik awal. Namun, fungsi yang dipakai pada karya
ilmiah ini tidak semuanya diambil dari artikel yang ditulis oleh More et al. (1981)
sehingga untuk kasus fungsi yang tidak dimuat oleh More et al. (1981), penulis
menentukan sendiri titik awal iterasinya.
Dalam karya ilmiah ini,
digunakan sebagai notasi untuk nilai
optimal yang diperoleh dari setiap algoritme, sedangkan
merupakan nilai
optimal yang sudah diketahui dari sumber yang dirujuk. Beberapa kriteria yang
akan dibandingkan dalam karya ilmiah ini meliputi jumlah iterasi, nilai optimal
dan waktu iterasi. Waktu iterasi yang ada pada tabel merupakan rata-rata waktu
iterasi dengan lima kali pengulangan. Fungsi yang akan diujikan dikelompokkan
berdasarkan nilai solusi optimalnya sehingga fungsi ini dibedakan menjadi tiga
yaitu:
1 fungsi dengan nilai optimal global di satu titik,
2 fungsi dengan nilai optimal global di banyak titik, dan
3 fungsi tanpa minimum global.

Hasil Numerik untuk Fungsi dengan Nilai Optimal Global di Satu Titik
Fungsi yang dimaksud dalam kelompok ini adalah fungsi yang hanya
memiliki satu nilai solusi minimum global dan satu titik solusi minimum global.
1. Fungsi Wood
dan
Tabel 1 Hasil numerik untuk fungsi Wood
Jumlah
iterasi
663
1579

Metode
MTSG
BB

5.5137  10-18
1.1494  10-14

2.4059  10-9
3.3554  10-7

Waktu iterasi
(detik)
0.670600
0.372873

2. Fungsi Beale
dan
Tabel 2 Hasil numerik untuk fungsi Beale
Metode
MTSG
BB

Jumlah
iterasi
56
149

2.0572  10-19
0.4521

1.7017  10-9
7.8555  10-7

Waktu iterasi
(detik)
0.042850
0.032910

14
3. Fungsi penalty I
dan
.
Tabel 3 Hasil numerik untuk fungsi penalty I
Metode
MTSG
BB

Jumlah
iterasi
12
15

6.4560
6.4560

5.4639  10-9
3.6393  10-18

Waktu iterasi
(detik)
0.008859
0.004158

4. Fungsi trigonometrik

, dan
Tabel 4 Hasil numerik untuk fungsi trigonometrik
Metode
MTSG
BB

Jumlah
iterasi
6
26

2.9347  10-16
0.0026

2.5761  10-8
6.346  10-7

Waktu iterasi
(detik)
0.005073
0.012200

5. Fungsi extended Powell singular
dan
Tabel 5 Hasil numerik untuk fungsi extended Powell singular
Metode
MTSG
BB

Jumlah
iterasi
151
160

6.6074  10-10
4.5185  10-11

7.9773  10-7
8.2241  10-8

Waktu iterasi
(detik)
0.122201
0.042029

6. Fungsi variably dimensioned

dan
Tabel 6 Hasil numerik untuk fungsi variably dimensioned
Metode
MTSG
BB

Jumlah
iterasi
28
26

3.7654  10-17
2.7483  10-15

1.1249  10-8
1.2231  10-7

Waktu iterasi
(detik)
0.024771
0.010629

15
7. Fungsi Brown badly scale
dan
Tabel 7 Hasil numerik untuk fungsi Brown badly scale
Metode
MTSG
BB

Jumlah
iterasi
18
51

3.4222  10-16
1.0  10312

Waktu iterasi
(detik)
0.012291
0.013383

7.1832  10-8
6.9507  10233

8. Fungsi kuadratik 1
dan
Tabel 8 Hasil numerik untuk fungsi kuadratik 1
Metode
MTSG
BB

Jumlah
iterasi
7
7

5.4587  10-18
2.2877  10-28

3.3042  10-9
9.0437  10-14

Waktu iterasi
(detik)
0.003905
0.001476

9. Fungsi kuadratik 2
dan

Metode
MTSG
BB

Tabel 9 Hasil numerik untuk fungsi kuadratik 2
Jumlah
Waktu iterasi
iterasi
(detik)
-14
-8
9 1.4385  10
0.005256
7.9958  10
10 2.8399  10-29 6.2804  10-15
0.002169

10. Fungsi Biggs EXP6

Metode
MTSG
BB

dan
.
Tabel 10 Hasil numerik untuk fungsi Biggs EXP6
Jumlah
Waktu iterasi (detik)
iterasi
419
1.05384
3.55  10-5 1.27  10-8
65
0.599
3.7738
0.05857

16
Hasil Numerik untuk Fungsi dengan Nilai Optimal Global di Banyak Titik
Fungsi yang dimaksud dalam kelompok ini adalah fungsi yang hanya
memiliki satu nilai solusi minimum global, namun memiliki banyak titik solusi
minimum global.
11. Fungsi kuadratik 3
dan
.
Tabel 11 Hasil numerik untuk fungsi kuadratik jenis 3
Metode
MTSG
BB

Jumlah
iterasi
2
2

Waktu iterasi (detik)
0
0

0
0

0.001200
0.000750

12. Fungsi trigonometrik II
Bentuk fungsi trigonometrik yang dimaksud adalah
, titik awal yang digunakan pada kasus ini
,x
, x=
, x=
, x=
, x=
adalah x=
.
=

Gambar 3 Grafik tiga dimensi fungsi trigonometrik II pada selang 0-20
Tabel 12 Hasil numerik fungsi trigonometrik II
Titik awal
x=
x=
x=
x=
x=
x=

Metode
MTSG
BB
MTSG
BB
MTSG
BB
MTSG
BB
MTSG
BB
MTSG
BB

Jumlah
iterasi
39
4
16
4
92
5
34
6
5
6
3
3

-3.9311
3.8598
-2.4486
2.5378
-3.9952
3.85698
-1.0493
2.5378
-3.0497
-3.0497
-0.0124
-0.0124

2.7664  10-8
2.8015  10-10
9.7492  10-8
7.0663  10-8
4.1618  10-7
1.1538  10-6
2.0238  10-7
5.7259  10-10
3.4283  10-9
1.9361  10-8
2.2621  10-8
1.9121  10-7

Waktu iterasi
(detik)
0.058884
0.001407
0.015530
0.001049
0.135414
0.001211
0.054090
0.001406
0.003084
0.001372
0.002025
0.000938

17
Hasil Numerik untuk Fungsi Tanpa Minimum Global
Fungsi yang dimaksud dalam kelompok ini adalah fungsi yang hanya
memiliki nilai solusi minimum lokal atau tidak memiliki nilai solusi minimum
lokal maupun global.
13. Fungsi kubik
Bentuk kubik yang dimaksud adalah fungsi
, titik awal yang digunakan adalah
.
dan x=
, x=
, x=
x=

Gambar 4 Grafik tiga dimensi fungsi kubik
Tabel 13 Hasil numerik fungsi kubik
Titik awal
x=
x=
x=
x=

Metode
MTSG
BB
MTSG
BB
MTSG
BB
MTSG
BB

Jumlah
iterasi
2
4
7
9
6
5

Waktu iterasi
(detik)
133.0605
-301.0605
-301.0605
-301.0605
133.0605

3.7559  10
3.7353  10-10
9.0116  10-8
3.1655  10-10
1.4579  10-11
-7

133.0605 1.0587  10-6

0.002275
0.000722
0.002746
0.001619
0.012397
0.001583
0.002115
0.001313

14. Fungsi kuadratik konkaf
Bentuk fungsi kuadratik konkaf yang dipakai adalah sebagai berikut
, titik awal yang digunakan adalah
,
dan

Gambar 4 Grafik tiga dimensi fungsi kuadratik konkaf

18
Tabel 14 Hasil numerik fungsi kuadratik konkaf dengan titik awal
dan =
Titik awal

Jumlah
iterasi
12
2
12
2

Metode
MTSG
BB
MTSG
BB

2

0

2

0

Waktu iterasi
(detik)
0.004889
0.000680
0.004827
0.000685

Perbandingan antara metode MTSG dan BB yang ditampilkan pada data
tabel di atas akan ditampilkan menggunakan grafik sebagai berikut:

0.010000

Trigonometrik

Kubik

b

q

1.1

1.3

9

1.21

7.5

13

19

1

1.2

19.4

Kuadratik 3

Biggs EXP6

Kuadratik 2

Kuadratik 1

Brown badly scale

Variably

Extended Powell

Trigonometrik

0.100000

Penalty 1

Baele

Wood

1.000000

kuadratik
konkaf

0.001000
MTSG

BB

0.000100

Gambar 5 Rata-rata waktu iterasi pada fungsi MTSG dan BB
Pada Gambar 6 terlihat bahwa rata-rata waktu iterasi yang dibutuhkan untuk
metode BB lebih cepat dari metode MTSG.

MTSG

BB

trigonometrik

Gambar 6 Jumlah iterasi untuk metode MTSG dan BB

kubik

b

q

1.1

1.3

9

1.2

7.5

13

19

1

19.4

1.2

Kuadratik 3

Biggs EXP6

Kuadratik 2

Kuadratik 1

Brown badly scale

Variably

Extended powell

Trigonometrik

Penalty 1

Baele

Wood

2088
803
309
119
46
18
7
3
1

kuadratik
konkaf

19
Gambar 7 memberikan informasi bahwa pada kelompok fungsi dengan nilai
optimal global di satu titik, jumlah iterasi metode MTSG secara umum lebih kecil
dari jumlah iterasi metode BB. Namun pada kelompok fungsi dengan nilai
optimal di banyak titik dan fungsi tanpa minimum global jumlah iterasi metode
MTSG secara umum lebih besar dibandingkan metode BB. Adanya penambahan
teknik pencarian garis takmonoton membuat metode MTSG memiliki jumlah
iterasi yang lebih sedikit dibandingkan dengan metode BB karena teknik ini akan
terus mencari nilai
yang membuat
. Hal ini
memungkinkan adanya perubahan terus menerus terhadap stepsize
pada
Algoritme 2 di langkah 3 hingga mendapatkan kondisi
, akan
tetapi perubahan stepsize pada langkah 3 ini tidak termasuk dalam hitungan
jumlah iterasi.

1.000E-05

1.000E-17

MTSG

1.000E-29

BB

Gambar 7 Nilai minimum yang dihitung menggunakan metode MTSG dan BB
untuk fungsi dengan nilai optimal global di satu titik

-5.000E+00

7.5

13

19

1

19.4

1.2

0.000E+00

Kuadra…

5.000E+00

trigonometrik
MTSG

BB

Gambar 8 Nilai minimum yang dihitung menggunakan
metode MTSG dan BB untuk fungsi dengan
nilai optimal global di banyak titik

20
-10
1.2
-1010

9

1.3

1.1

kubik

q

b

kuadratik
konkaf

-2010
-3010
MTSG

BB

Gambar 9 Nilai minimum yang dihitung menggunakan
metode MTSG dan BB untuk fungsi tanpa
minimum global
Gambar 8, 9 dan 10 menunjukkan bahwa untuk semua kelompok fungsi
kecuali fungsi kuadratik 1 dan 2, metode MTSG memiliki nilai minimum yang
sama atau lebih kecil dibandingkan dengan metode BB. Selain itu, terlihat pada
Gambar 8 bahwa untuk fungsi Brown badly scale (7) metode BB tidak bisa
menemukan nilai optimalnya. Metode BB pada fungsi Brown badly scale (7)
memiliki jumlah iterasi 51 padahal pada iterasi ke 51 metode BB belum mencapai
nilai optimal global maupun lokal karena pada iterasi ke-52,
sehingga
dan MATLAB tidak bisa melanjutkan iterasinya lagi sehingga
iterasi berhenti pada iterasi ke 51.
Pada fungsi Beale (2) terlihat bahwa metode BB menemukan titik solusi
yang berbeda dengan titik optimal yang ada pada artikel More el al. (1998). Hal
sehingga iterasi terhenti
ini terjadi karena pada iterasi ke-149,
pada saat iterasi ke-149, hasil algoritme BB secara lengkap dapat dilihat di
Lampiran 4.
Fungsi kuadratik 1, 2 dan 3 menunjukkan bahwa metode BB sama baiknya
dengan metode MTSG dalam hal jumlah iterasi, waktu iterasi dan nilai optimal.
Hal ini terjadi karena stepsize yang digunakan pada metode BB maupun MTSG
hampir sama (lihat Lampiran 5, 6 dan 7).
Pada fungsi kuadratik konkaf, metode MTSG selalu mengarahkan titik
optimalnya ke titik
atau
untuk
yang membuat
. Sementara pada fungsi kubik ketika titik awalnya dimulai dari
optimal lokal yaitu pada saat
dan
pencarian solusinya
*
selalu mengarah ke optimal lokal yaitu x =
sedangkan
untuk titik awal yang dimulai dari
dan
solusi titik
optimalnya selalu menuju
. Hal ini dikarenakan pada saat titik
awalnya
teknik pencarian garis takmonoton mengarahkan solusi ke
nilai optimal yang lebih kecil dibandingkan dengan titik awalnya. Sementara itu,
di titik 8.78598 merupakan titik optimal lokal fungsi kubik yang membuat
sehingga iterasi terhenti pada titik tersebut.
Metode BB untuk fungsi dengan nilai optimal global di banyak titik dan
fungsi tanpa minimum global menunjukkan bahwa untuk sembarang titik awal di
daerah asal fungsi selalu mengarah ke titik solusi terdekat dengan
sedangkan metode MTSG untuk fungsi trigonometrik II ketika titik
awalnya berada di salah satu titik maksimum lokal maupun global memberikan
nilai stepsize yang cukup besar sehingga membuat titik solusi yang ditemukan

21
cukup jauh dari titik awal iterasi, sedangkan untuk titik awal yang cukup jauh dari
titik maksimumnya memberikan stepsize yang kecil sehingga titik solusinya tidak
jauh dari titik awalnya.

SIMPULAN DAN SARAN
Simpulan
Metode BB dan MTSG menggunakan arah pencarian (search direction)
gradien untuk menentukan solusi optimalnya, namun berbeda dalam ukuran
langkah pencarian (stepsize). Dalam hal waktu iterasi metode BB lebih unggul
dari metode MTSG, namun dalam hal kekonvergenan menuju titik optimal
metode MTSG lebih unggul dibandingkan dengan metode BB. Hal ini
dikarenakan metode MTSG menggunakan teknik pencarian garis takmonoton
untuk menuju titik optimalnya. Penambahan teknik pencarian garis takmonoton
ini membuat algoritme MTSG lebih lama dari algoritme BB. Jadi, secara umum
metode MTSG lebih baik dibandingkan metode BB dalam menemukan nilai
solusi optimalnya dengan adanya penambahan pencarian garis takmonoton.

Saran
Metode two-point stepsize gradient untuk optimalisasi tanpa kendala ini
dapat dikembangkan lagi dari sisi perbaikan stepsize atau dengan penambahan
teknik pemilihan stepsize yang lainnya selain teknik pencarian garis takmonoton.
Selain itu, algoritme yang dipakai dalam skripsi ini juga bisa dikodekan dengan
bahasa software pemrograman lainnya yang mungkin akan lebih efektif dan lebih
efisien dalam waktu iterasinya.

DAFTAR PUSTAKA
Barzilai J, Borwein JM. 1988. Two-point stepsize gradient methods. IMA Journal
of Numerical Analysis. 8:141-148.doi: 10.1093/imanum/8.1.141.
Bertsekas DP. 2003. Nonlinear Programming. Ed ke-9. Massachusetts (US) :
Athena scientific.
Birgin EG, Martinez JM, Raydan M. 1999. Nonmonotone spectral projected
gradient methods on convex sets. SIAM Journal on Optimization. 10(4):11961211.doi: 10.1137/S1052623497330963.
Blomgren P. 2013. Numerical optimization: quasi-Newton methods-the BFGS
method. Dynamical Systems Group Computational Sciences Research Center
[internet]. [diunduh 2014 April 9]. Tersedia pada: http://terminus.sdsu.edu.
Dai Y, Yuan J, Yuan Y. 2002. Modified Two-point stepsize gradient methods for
unconstrained optimization. Computational Optimization and Application.
22:103-109.doi: 10.1023/A:1014838419611.

22
Leong WJ, Hassan MA, Farid M. 2010. A monotone gradient method via weak
secant equation for unconstrained optimization. Taiwanese Journal of
Mathematics [internet]. [diunduh 2014 April 5]; 14(2):413-423. Tersedia pada:
http://journal.taiwanmathsoc.org.tw/~journal/tjm/V14N2/A25-2009-12No18.pdf.
More JJ, Garbow BS, Hillstrom KE. 1981. Testing unconstrained optimization
software. ACM Transaction on Mathematical Software. 7:17-41.doi:
10.1145/355934.355936
Peressini AL, Sullivan FE, Uhl JJ. 1988. The Mathematics of Nonlinear
Programming. New York (US): Springer-Verlag.
Smith RT, Minton RB. 2006. Calculus. New York (US): McGraw-Hill.

LAMPIRAN
Lampiran 1 Sintaks program MATLAB R2008b untuk metode BB dalam
menyelesaikan 14 fungsi yang diujikan
function [x,xi,ai,gi,Fopt,gopt,kiterasi]=BB(varargin)
tic
x=[1.1 1.1];%titik awal yang digunakan;
f1 = @(x1,x2) (x1+1)*(x1-4)*(x1-12)+(x2+1)*(x2-4)*(x2-12);%bentuk
fungsi yang digunakan;
fBB2 = @(x) f1(x(1),x(2));
%gradient fungsi;
gBB= @(x)[(x(1)-4)*(x(1)-12)+(x(1)+1)*(x(1)-12)+(x(1)+1)*(x(1)-4)
(x(2)-4)*(x(2)-12)+(x(2)+1)*(x(2)-12)+(x(2)+1)*(x(2)-4)];
e=0.000001;
k=0;
xi=x;
ai=1;
gi=gBB(x)';
while norm(gBB(x))>e,
if k==0
a=1;
b=x;
x=x-a*gBB(b)';
else a=((x-b)*(x'-b'))/((x-b)*(gBB(x)-gBB(b)));
b=x;
x=x-a*gBB(x)';
end
k=k+1;
xi=[xi;x];
gi=[gi;gBB(x)'];
ai=[ai;a];
end
kiterasi=k;
Fopt=fBB2(x);
gopt=norm(gBB(x));
toc

Lampiran 2 Sintaks program MATLAB R2008b untuk metode MTSG dalam
menyelesaikan 14 fungsi yang diujikan
function [xoptimal,uk,foptimal,goptimal,kiter]=kiki(varargin)
tic
x=[-3 -1 -3 -1]; %titik awal yang digunakan;
fBB1 = @(x1,x2,x3,x4) 100*(x2-x1^2)^2+(1-x1)^2+90*(x4-x3^2)^2+(1x3)^2+10*(x2+x4-2)^2+(x2-x4)^2/100;%bentuk fungsi yang digunakan;
f2 = @(x) fBB1(x(1),x(2),x(3),x(4));
%gradient fungsi;
g1= @(x)[-400*x(1)*(x(2)-x(1)^2)-(1-x(1))*2
100*(x(2)-x(1)^2)*2+20*(x(2)+x(4)-2)+(x(2)-x(4))*2/100
-360*x(3)*(x(4)-x(3)^2)-2*(1-x(3))
180*(x(4)-x(3)^2)+20*(x(2)+x(4)-2)-(x(2)-x(4))*2/100];
e=0.000001;

24
hasil=[];
uk=[];
m=10;
y=0.0001;
a=1/max(abs(g1(x)));
a2=0.2;
s1=10^30;
c1=0.01;c2=0.2;c3=0.3;has=x;
uko=[];
k=0;
agi=a;
ggi=g1(x)';
while max(abs(g1(x)))>e,
if k==0,
% langkah 3;
if f2(x'-a.*g1(x)) f2(x)-y*a*(norm(g1(x))^2),
a=a2*a;
end,
b=x;
x=x-a.*g1(x)';
end,
%lngkah 2a untuk k!=1.... k!=0;
else if (x-b)*(g1(x)-g1(b))