Metode Konjugat Gradien Hibrid Baru: Metode Wyl-Fr Dan Metode Prp-Cd Untuk Menyelesaikan Masalah Optimasi Tak Berkendala.

METODE KONJUGAT GRADIEN HIBRID BARU: METODE
WYL-FR DAN METODE PRP-CD UNTUK MENYELESAIKAN
MASALAH OPTIMASI TAK BERKENDALA

NETTY JULINDA MARLIN GELLA

SEKOLAH PASCASARJANA
INSTITUT PERTANIAN BOGOR
BOGOR
2015

PERNYATAAN MENGENAI TESIS DAN
SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA*
Dengan ini saya menyatakan bahwa tesis berjudul Metode Konjugat Gradien
Hibrid Baru: Metode WYL-FR dan Metode PRP-CD untuk Menyelesaikan
Masalah Optimasi Tak Berkendala adalah benar karya saya dengan arahan dari
komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada perguruan
tinggi mana pun. Sumber informasi yang berasal atau dikutip dari karya yang
diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks
dan dicantumkan dalam Daftar Pustaka di bagian akhir tesis ini.
Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut

Pertanian Bogor.
Bogor, September 2015
Netty Julinda Marlin Gella
NRP G551130231

RINGKASAN
NETTY JULINDA MARLIN GELLA. Metode Konjugat Gradien Hibrid Baru:
Metode WYL-FR dan Metode PRP-CD untuk Menyelesaikan Masalah Optimasi
Tak Berkendala. Dibimbing oleh BIB PARUHUM SILALAHI dan SUGI
GURITMAN.
Optimasi adalah cabang dari matematika yang berhubungan dengan
pengambilan keputusan terbaik yaitu memaksimumkan atau meminimumkan suatu
fungsi tujuan. Ada beberapa metode untuk menyelesaikan masalah optimasi, salah
satunya adalah metode konjugat gradien. Beberapa metode konjugat gradien yang
terkenal diantaranya metode HS (Hestenes dan Stiefel 1952), metode FR (Fletcher
dan Reeves 1964), metode CD (Fletcher 1987), metode PRP (Polyak 1969), metode
LS (Liu dan Storey 1991) dan metode DY (Dai dan Yuan 1999). Metode FR,
metode CD atau metode DY memiliki sifat kekonvergenan global tetapi kinerja
komputasinya kurang efisien. Di sisi lain, metode PRP, metode HS atau metode LS
secara umum tidak memenuhi sifat konvergensi globalnya tetapi metode-metode

ini memiliki kinerja komputasi yang lebih baik. Karena itu, Zhang dan Zhou (2007)
mengusulkan metode konjugat gradien hibrid yang baru untuk PRP-FR dan HSDY yang disebut dengan metode NH1 dan NH2. Dengan ide yang sama Zhou, Zhu,
Fan dan Qing (2011) juga mengusulkan metode konjugat gradien hibrid yang baru
untuk LS-CD yang disebut dengan metode NH3.
Penelitian ini memiliki tiga tujuan utama yaitu: (1) mengusulkan metodemetode konjugat gradien hibrid baru; (2) membuktikan berlakunya sifat-sifat
kekonvergenan global pada metode-metode yang diusulkan; dan (3)
membandingkan hasil numerik dari metode yang diusulkan dengan metode
konjugat gradien hibrid FR-PRP (NH1), HS-DY (NH2) dan LS-CD (NH3) yang
ditinjau dari jumlah iterasi dan running time.
Dalam penelitian ini, diusulkan dua metode konjugat gradien hibrid baru
yaitu metode hibrid baru WYL-FR (NH6) dan metode hibrid baru PRP-CD (NH7).
yang memenuhi kondisi sufficient descent. Kedua metode ini dibuktikan memenuhi
sifat kekonvergenan global. Dari hasil numerik kedua metode ini menunjukkan
bahwa kedua metode mampu menyelesaikan setiap masalah optimasi tak linear
tanpa kendala yang diberikan. Perbandingan hasil numerik kedua metode dengan
metode NH1, NH2 dan NH3 menunjukkan bahwa metode NH6 dan NH7 sangat
kompetitif dengan metode NH1, NH2 dan NH3 dalam hal jumlah iterasi dan
running time-nya. Dengan demikian, metode hibrid baru NH6 dan NH7 cukup
kompetitif dan efisien serta menambah koleksi metode hibrid yang sudah tersedia
dalam mencari solusi untuk masalah optimasi.

Kata kunci: metode konjugat gradien, arah descent, konvergen global

SUMMARY
NETTY JULINDA MARLIN GELLA. New Hybrid Conjugate Gradient Method:
WYL-FR Method and PRP-CD Method for Solving Unconstrained Optimization
Problems. Supervised by BIB PARUHUM SILALAHI and SUGI GURITMAN.
Optimization is a branch of mathematics which study techniques for finding
the best decision, i.e. the maximum or the minimum of a function. There are several
methods to solve optimization problems, one of them is the conjugate gradient
method. Several well-known conjugate gradient methods are HS method (HestenesStiefel 1952), FR method (Fletcher and Reeves 1964), CD method (Fletcher 1987),
PRP method (Polyak 1969), LS method (Liu and Storey 1991) and DY method (Dai
and Yuan 1999). The FR method, the CD method or the DY method have nice
global convergence property on each algorithm, but their computational
performance results are not so well. On the other hand, the PRP method, the HS
method and the LS methods have good computational performance but generally
these methods do not satify global convergence properties. Therefore, Zhang and
Zhou (2007) have proposed a method which was a new hybrid conjugate gradient
for PRP-FR and HS-DY called NH1 and NH2 methods. With the same idea, Zhou,
Zhu, Fan dan Qing (2011) also proposed a conjugate gradient method for a new
hybrid LS-CD called NH3 method.

This research has three main objectives, namely: (1) proposed two new hybrid
conjugate gradient methods; (2) proved global convergence properties of the
proposed methods; and (3) compared the computational performance of the
proposed methods with existing hybrid conjugate gradient methods: the FR-PRP
(NH1), HS-DY and LS-CD (NH3) in terms of the number of iteration and the
running time.
In this research, we proposed two new hybrid conjugate gradient methods
namely, new hybrid method WYL-FR (NH6) and new hybrid method PRP-CD
(NH7) which satisfied sufficient descent conditions. Both of these methods have
been proved satisfying global convergence. The numerical results showed that both
methods are capable to solve any nonlinear optimization unconstrained problems
which given. Numerical results of both methods and NH1, NH2 and NH3 showing
that NH6 and NH7 very competitive with the method NH1, NH2 and NH3 in
iterations number and its running time. Thus, a new hybrid method NH6 and NH7
quite competitive and efficient and increasing the collection of hybrid methods that
have been available in the search for a solution to an optimization problem.
Keywords: conjugate gradient method, descent direction, global convergence

© Hak Cipta Milik IPB, Tahun 2015
Hak Cipta Dilindungi Undang-Undang

Dilarang mengutip sebagian atau seluruh karya tulis ini tanpa mencantumkan atau
menyebutkan sumbernya. Pengutipan hanya untuk kepentingan pendidikan,
penelitian, penulisan karya ilmiah, penyusunan laporan, penulisan kritik, atau
tinjauan suatu masalah; dan pengutipan tersebut tidak merugikan kepentingan IPB
Dilarang mengumumkan dan memperbanyak sebagian atau seluruh karya tulis ini
dalam bentuk apa pun tanpa izin IPB

METODE KONJUGAT GRADIEN HIBRID BARU: METODE
WYL-FR DAN METODE PRP-CD UNTUK MENYELESAIKAN
MASALAH OPTIMASI TAK BERKENDALA

NETTY JULINDA MARLIN GELLA

Tesis
sebagai salah satu syarat untuk memperoleh gelar
Magister Sains
pada
Program Studi Matematika Terapan

SEKOLAH PASCASARJANA

INSTITUT PERTANIAN BOGOR
BOGOR
2015

Penguji Luar Komisi pada Ujian Tesis: Dr. Jaharuddin, MS

Judul Tesis : Metode Konjugat Gradien Hibrid Baru: Metode WYL-FR dan
Metode PRP-CD untuk Menyelesaikan Masalah Optimasi Tak
Berkendala.
Nama
: Netty Julinda Marlin Gella
NIM
: G551130231

Disetujui oleh
Komisi Pembimbing

Dr Ir Bib Paruhum Silalahi, MKom
Ketua


Dr Sugi Guritman
Anggota

Diketahui oleh

Ketua Program Studi S2
Matematika Terapan

Dekan Sekolah Pascasarjana

Dr Jaharuddin, MS

Dr Ir Dahrul Syah, MScAgr

Tanggal Ujian: 10 September 2015

Tanggal Lulus:

PRAKATA
Puji dan syukur penulis panjatkan kepada Tuhan Yesus Kristus karena atas

segala kasih, berkat dan anugerah-Nya sehingga karya ilmiah ini telah diselesaikan.
Tema yang dipilih dalam penelitian yang dilaksanakan sejak bulan Desember 2014
ini ialah teori optimasi yang berjudul Metode Konjugat Gradien Hibrid Baru:
Metode PRP-CD dan Metode WYL-FR untuk Menyelesaikan Masalah Optimasi
Tak Berkendala.
Penulisan tesis ini merupakan salah satu syarat memperoleh gelar Magister
Sains pada program studi Matematika Terapan Sekolah Pascasarjana Institut
Pertanian Bogor. Penulis juga menyampaikan terima kasih kepada:
1. Bapak Agustinus Wellem Gella dan Almh. Ibu Sultje Tarotjie Gella-Ndoen
selaku orang tua penulis serta Alm. Kakak Semi P. C. Gella.
2. Dr Bib Paruhum Silalahi, MKom selaku Ketua Komisi Pembimbing
3. Dr Sugi Guritman selaku Anggota Komisi Pembimbing.
4. Dr Jaharuddin, MS selaku Penguji Luar Komisi Pembimbing dan Ketua
Program Studi S2 Matematika Terapan.
5. Seluruh dosen dan staf pegawai tata usaha Departemen Matematika.
6. Direktorat Jendral Pendidikan Tinggi (DIKTI) sebagai sponsor Beasiswa
Pendidikan Pascasarjana dalam Negeri (BPP-DN).
7. Seluruh keluarga yang selalu memberi dorongan dan doa untuk keberhasilan
studi penulis.
8. Seluruh mahasiswa Departemen Matematika khususnya teman-teman

angkatan tahun 2013 di Program Studi S2 Matematika Terapan.
9. Saudari-saudari Wisma Fahmeda (Kak Restu, Kak Mia, Kak Ria, Kak Adriana,
Arini, Arista, Risky, Eka, Dini dan Tini), keluarga Persekutuan Oikumene di
Bogor, teman-teman UBF Depok, teman-teman GAMANUSRATIM di Bogor
dan semua teman serta sahabat yang tidak dapat disebutkan satu persatu yang
telah banyak mendukung dan memberi doa untuk keberhasilan studi penulis.
Akhirnya, semoga penulisan tesis ini dapat memperkaya pengalaman belajar
dan wawasan kita semua.

Bogor, September 2015
Netty J Marlin Gella

DAFTAR ISI
DAFTAR TABEL

vi

DAFTAR GAMBAR

vi


DAFTAR LAMPIRAN

vi

1 PENDAHULUAN
Latar Belakang
Tujuan Penelitian

1
1
1

2 TINJAUAN PUSTAKA
Optimasi Matematik
Himpunan Konveks
Fungsi Konveks
Norm Euclidean
Vektor Gradien
Minimum Global dan Minimum Lokal

Himpunan Terbatas
Kekontinuan Fungsi Lipschitz
Konvergen Global
Limit Inferior
Iterasi dan Running Time

2
2
2
2
3
3
3
3
4
4
4
4

3 METODE

4

4 HASIL DAN PEMBAHASAN
Metode Konjugat Gradien
Metode Konjugat Gradien Hibrid Baru Zhou dan Zhang
Metode Konjugat Gradien Hibrid Baru Zhou, Zhu, Fan dan Qing
Metode Konjugat Gradien Hibrid Baru NH6 dan NH7
Analisis Kekonvergen Global Metode NH6 dan NH7
Hasil Numerik

5
5
6
7
7
9
17

DAFTAR PUSTAKA

22

RIWAYAT HIDUP

26

DAFTAR TABEL
1
2

Jumlah iterasi dari masing-masing metode konjugat gradien
Hasil running time dari masing-masing metode konjugat gradien

18
19

DAFTAR GAMBAR
1
2

Hasil profil jumlah iterasi masing-masing metode konjugat gradien
Hasil profil running time masing-masing metode konjugat gradien

20
21

DAFTAR LAMPIRAN
1

Fungsi-fungsi tak linear yang digunakan dalam pengujian algoritme
metode konjugat gradien hibrid untuk mencari hasil iterasi dan running
time.

24

1 PENDAHULUAN
Latar Belakang
Optimasi merupakan teknik yang berhubungan dengan pengambilan
keputusan terbaik (maksimum atau minimum) yang terdiri atas fungsi tujuan dan
kendala (atau tanpa kendala). Dalam permasalahan tak linier khususnya
permasalahan dimana fungsi tujuannya tak linear dan memiliki banyak variabel,
metode numerik adalah suatu cara yang efisien untuk mencari solusi dari
permasalahan yang ada. Umumnya penyelesaian optimasi dengan metode numerik
bersifat iteratif. Ada beberapa teknik metode numerik untuk menyelesaikan
permasalahan optimasi fungsi dengan atau tanpa kendala, salah satunya adalah
metode konjugat gradien.
Metode konjugat gradien diusulkan oleh Hestenes dan Stiefel pada tahun
1952 yang dikenal dengan metode HS untuk menyelesaian sistem persamaan linear.
Selanjutnya Fletcher dan Reeves (1964) memperluas metode konjugat gradien
untuk memecahkan sistem pesamaan tak linear untuk skala besar. Beberapa metode
konjugat gradien yang terkenal diantaranya metode HS (Hestenes-Stiefel 1952),
metode FR (Fletcher dan Reeves 1964), metode CD (Fletcher 1987), metode PRP
(Polyak 1969), metode LS (Liu dan Storey 1991) dan metode DY (Dai dan Yuan
1999). Metode FR, metode CD atau metode DY mempunyai sifat konvergensi yang
tercapai pada masing-masing algoritme, tetapi kinerja komputasinya kurang efisien.
Di sisi lain, metode PRP, metode HS atau metode LS secara umum sifat
konvergensi globalnya belum terpenuhi tetapi metode-metode ini memiliki kinerja
komputasi yang lebih baik. Dengan demikian beberapa metode dimodifikasi untuk
memperoleh hasil optimasi yang lebih baik. Touati-Ahmed dan Storey (1990)
mengusulkan metode hibrid PRP-FR (H1) dan Dai dan Yuan (2001) mengusulkan
metode hibrid HS-DY (H2). Kedua metode ini memberikan hasil numerik yang
lebih baik dari metode PRP. Berdasarkan ide dari metode H1 dan metode H2, Zhang
dan Zhou (2007) mengusulkan metode konjugat gradien hibrid yang baru untuk
PRP-FR dan HS-DY yang disebut dengan metode NH1 dan NH2. Dengan ide yang
sama Zhou et al. (2011) juga mengusulkan metode konjugat gradien hibrid yang
baru untuk LS-CD yang disebut dengan metode NH3.
Berdasarkan ide penelitian-penelitian sebelumnya maka penelitian ini
mengusulkan metode konjugat gradien hibrid untuk WYL-FR yang disebut dengan
NH6 dan PRP-CD yang disebut NH7
Tujuan Penelitian
Berdasarkan latar belakang dari penelitian ini, diuraikan tujuan penelitian
yang akan dicapai yaitu:
1. Mengusulkan dua metode konjugat gradien hibrid baru.
2. Membuktikan berlakunya sifat-sifat kekonvergenan global pada metode-metode
yang diusulkan.
3. Membandingkan hasil numerik dari metode-metode yang dengan metode
konjugat gradien hibrid baru FR-PRP (NH1), HS-DY (NH2) dan LS-CD (NH3).

2

2 TINJAUAN PUSTAKA
Optimasi Matematik
Definisi 2.1
Optimasi matematik adalah suatu proses formulasi masalah dan penentuan
solusi dari suatu masalah optimasi berkendala dengan bentuk umum:
T
min f (x), x   x1 , x2 , x3 , xn   n
(2.1)
x

dengan kendala

g j  x   0, j  1,2,, m
h j  x   0, j  1, 2,, r

dimana f  x  , g j  x  ,dan h j  x  adalah fungsi dari x.
Komponen-komponen xi dari x   x1 , x2 , x3 , xn 

T

dinamakan variabel

keputusan, f  x  adalah fungsi objektif, g j  x  menyatakan fungsi kendala
pertidaksamaan, h j  x  adalah fungsi-fungsi kendala persamaan. Vektor optimum
x yang menjadi solusi dari masalah dinyatakan dengan x* dan nilai optimumnya
adalah f  x*  . Jika tidak ada kendala maka masalah dinamakan masalah minimasi
takberkendala.
(Snyman 2005)
Himpunan Konveks
Definisi 2.2
Sebuah himpunan X adalah konveks jika untuk semua x1 , x 2  X
memenuhi
x   x 2  1    x1  X untuk semua 0    1.
(2.2)
Jika kondisi di atas tidak terpenuhi maka himpuna X tidak konveks. (Snyman
2005)
Fungsi Konveks
Definisi 2.3
Fungsi f didefinisikan pada himpunan X dikatakan konveks jika untuk
setiap x1 , x 2  X dan setiap  , 0    1 memenuhi
f  x1  1    x 2    f  x1   1    f  x 2  .

(2.3)

Jika untuk setiap  , 0    1 dan x  x memenuhi
1

2

f  x1  1    x 2    f  x1   1    f  x 2  ,

maka f disebut fungsi konveks sempurna. (Luenberger dan Ye 2007)

(2.4)

3
Norm Euclidean
Definisi 2.4
Untuk vektor x n1 , norm Euclidean dari x didefinisikan
1

 n 2
 x   xi2   xT x dimana x
 i 1 

n1

(2.5)

n1

(2.6)

1

 n 2
 x   xi2   xT x dimana x
 i 1 

(Meyer 2000).
Vektor Gradien
Definisi 2.5
Jika fungsi F memiliki turunan parsial dengan orde rendah (yang biasanya
diasumsikan dalam pembentuk algoritme ini), maka pada suatu titik tertentu x ,
sebuah vektor gradient G  x    Gi n didefinisikan dengan komponen
Gi  Gi  x  

F  x 
xi

,

1  i  n 

(2.7)

(Cheney dan Kincaid 2008).
Minimum Global dan Minimum Lokal
Definisi 2.6
1. Titik x* adalah minimum global dari f pada X jika
f  x   f  x* 

untuk setiap x  X  n .
2. Titik � ∗ adalah minimum lokal jika terdapat � > 0 sehingga
f  x   f  x*  untuk setiap {x | x  x*   }

(2.8)

(2.9)

dengan ‖. ‖ menyatakan norm Euclid.
(Snyman 2005)

Himpunan Terbatas
Definisi 2.8
Diberikan X sub himpunan tak kosong dari
a. Himpunan X dikatakan terbatas di atas jika ada sejumlah u  sehingga x  u
untuk semua x  X . Setiap u dikatakan batas atas X .
b. Himpunan X dikatakan terbatas di bawah jika ada sejumlah w sehingga
w  x untuk semua x  X . Setiap w dikatakan batas bawah X .
c. Himpunan X dikatakan terbatas jikaterbatas di atas dan terbatas di bawah.
(Bartle dan Sherbert 2011)

4
Kekontinuan Fungsi Lipschitz
Definisi 2.9
F:D

n

m

adalah kontinu Holder pada D jika ada konstanta   0

dan p   0,1 sehingga untuk semua x, y  D ,

F  y  F  x   y  x .
p

(2.10)

Jika p  1 , maka F disebut kontnu Lipschitz pada D dan  adalah konstanta
Lipschitz. (Bazaraa et al. 2006)
Konvergen Global
Definisi 2.10
Suatu model algoritme dikatakan konvergen, jika akumulasi titik-titik dari
setiap barisan iterasi {xn } dikonstruksi oleh algoritme dalam P yang merupakan
himpunan solusi optimal (Argyros 2008).
Limit Inferior
Definisi 2.11
Limit inferior dari sebuah barisan {xn } yang dinotasikan sebagai berikut
liminf xn
(2.11)
n 

adalah definisi dari supremum semua bilangan  dengan mengikuti sifat:
Ada bilangan bulat N sedemikian sehingga   xn untuk semua n  N .
(Thomson et al. 2007)
Iterasi dan Running Time
Definisi 2.11 (Iterasi)
Iterasi adalah sifat tertentu dari algoritme atau program komputer di mana
satu urutan atau lebih dari langkah algoritme yang dilakukan pada loop program
(Chapman 2008).
Definisi 2.12 (Running Time)
Running time dari suatu algoritme didefenisikan sebagai ukuran operasi
primitive atau tahapan proses yang dieksekusi (Cormen et al. 1990).

3 METODE
Penelitian ini disusun melalui tiga tahap. Pada tahap pertama diusulkan dua
pencarian arah baru pada metode konjugat gradien yaitu metode konjugat gradien
hibrib baru WYL-FR dan PRP-CD. Selanjutnya pada tahap kedua dilakukan
pembuktian berlakunya sifat-sifat kekonvergenan global pada metode-metode yang

5
diusulkan. Terakhir pada tahap ketiga mengimplementasikan metode-metode yang
diusulkan ke dalam bahasa pemograman. Kemudian membandingkan hasil numerik
dari metode yang diusulkan dengan metode konjugat gradien hibrid FR-PRP (NH1),
HS-DY (NH3) dan LS-CD (NH3) dengan melihat iterasi dan running time.

4 HASIL DAN PEMBAHASAN
Metode Konjugat Gradien
Pada pendahuluan telah dijelaskan sebelumnya bahwa metode konjugat
gradien adalah metode gradien yang bersifat iteratif untuk menyelesaikan masalah
optimasi tak berkendala, baik untuk untuk memecahkan sistem persamaan linear
dan masalah optimasi tak linear dengan skala besar. Pada penelitian ini di fokuskan
pada menyelesaikan masalah optimasi tak linear tak berkendala.
Diberikan masalah optimasi tak berkendala
(4.1)
min f (x), x  n
n
dimana f :
 adalah fungsi objektif yang terdiferensial kontinu. Diberikan
x0  R n yang menjadi dugaan awal solusi atau biasanya disebut titik awal pada
masalah (4.1). Metode konjugat gradien tak linear dibentuk dengan sebuah barisan
{xk } , menggunakan bentuk iteratif
xk 1  xk   k d k , k  0,1,2,...,
(4.2)
dimana {xk } adalah titik iterasi sekarang,  k  0 adalah ukuran langkah yang
ditentukan oleh pencarian garis (line search) baik pencarian garis eksak atau
pencarian garis tidak eksak dan d k adalah garis berarah dari fungsi f pada titik x k
yang didefinisikan oleh
g k
jika k  0

dk  
(4.3)
g k   k d k 1 jika k  0
dimana g k  g(x k )  f (x k ) adalah vektor gradien dari f pada x k dan  k adalah
sebuah parameter yang diketehui sebagai koefisien konjugat gradien. Beberapa
konjugat gradien yang terkenal yaitu metode FR, metode PRP, metode HS, metode
DY, metode CD dan metode LS. Selain itu, ada juga konjugat gradien yang
merupakan variasi dari metode PRP yaitu metode WYL (Wei et al. 2006). Koefisien
konjugat gradien � untuk metode konjugat gradien yang telah disebutkan adalah



FR
k

2

gk



g k 1

 kCD  



2

gk

PRP
k



2

dTk 1g k 1

 kLS  

gTk y k 1
g k 1



2

gTk y k 1
dTk 1g k 1

dimana y k 1  g k  g k 1 dan



HS
k

 kWYL

gT y
 Tk k 1
d k y k 1



DY
k



gk

2

dTk y k 1



g
gTk 1  g k 1  k 1 g k 
gk



2
gk

adalah vektor norm Euclidean. Perbedaan

pemilihan  k menunjukkan perbedaan metode konjugat gradien.

6
Umumnya, menganalisis kekonvergenan dan implementsi metode konjugat
gradien sering menggunakan pencarian garis tidak eksak yaitu kondisi Wolfe atau
kondisi kuat Wolfe yang terdiri sufficient decrease dan curvature condition.
Pencarian garis kondisi Wolfe untuk menentukan � adalah sebagai berikut
 f (x k   k d k )  f (x k )   k gTk d k ,
(4.4)

dTk g (x k   k d k )   dTk g k ,

1
dengan 0   
dan     1 . Pencarian garis kondisi kuat Wolfe untuk
2
menentukan  k adalah
T

 f (xk   k d k )  f (xk )   k g k d k ,

T
T

 d k g(xk   k d k )   d k g k ,

(4.5)

1
dan     1 .
2
Pada penelitian ini digunakan pencarian garis kondisi Wolfe untuk mencari ukuran
langkah.

dengan 0   

Lemma 4.1 (Kondisi descent)
Misalkan f adalah fungsi monoton dan ukuran langkah   0 . Jika x*
adalah solusi optimal, maka ada parameter k*  (0,1) sehingga, untuk semua

k [0, k* ) , pencarian arah d k didefinisikan oleh persamaan (4.3) memenuhi
kondisi descent

gTk dk  0

(4.6)

(Pillo dan Giannessi 1999).
Metode Konjugat Gradien Hibrid Baru Zhou dan Zhang
Zhang dan Zhou (2007) mengusulkan metode konjugat gradien hibrid baru
yang disebut metode NH1 dan metode NH2 dengan menggunakan ide dasar dari
metode H1 yaitu metode hibrid PRP-FR (Touati-Ahmed dan Storey 1990)
(4.7)
kH1  max{0,min{kPRP , kFR }}
dan metode H2 yaitu metode hibrid HS-DY (Dai dan Yuan 2001)
(4.8)
kH2  max{0,min{kHS , kDY }} .
Metode FR, DY dan CD merupakan metode descent tetapi sifat descent dalam
metode-metode ini tergantung pada pencarian garis seperti pencarian garis kuat
Wolfe (4.5). Zhang et al. (2006) dan Zhang (2006) melakukan sedikit modifikasi
pada metode FR yang disebut metode MFR, yaitu:

gT d
gT d 
(4.9)
MFR: d k  g k   kFRd k 1  Tk k 1 g k =  1   kFR k k 21  g k   kFRd k 1


d k 1g k 1
g
k


Zhang (2006) juga mengusulkan satu modifikasi metode DY yang disebut metode
MDY, yaitu:

gT d
gT d 
MDY: d k  g k   kDY d k 1  Tk k 1 g k =  1   kDY k k 21  g k   kDY d k 1 . (4.10)

d k 1g k 1
g k 


7
Metode MFR dan metode MDY memenuhi gTk d k   g k yang mana tidak
tergantung pada pencarian garis yang digunakan.
Metode NH1 dan metode NH2 diperoleh dengan mengantikan kFR dalam
2

persamaan (4.9) dan  kDY dalam persamaan (4.10) dengan  kH1 dan kH2 yaitu:
T


H1 g k d k 1
 g k  kH1d k 1
NH1: d k =  1   k
2

g k 


gT d 
NH2: d k =  1   kH2 k k 21  g k   kH2d k 1

g k 


(4.11)

(4.12)

Dua metode hibrid baru di atas memenuhi gTk d k   g k , yang menunjukkan
bahwa metode-metode ini adalah descent dan tidak bergantung pada pencarian garis
yang digunakan. Zhang dan Zhou (2007) telah membuktikan kekonvergenan global
dari dua metode NH1 dan NH2 dan telah menunjukkan efesiensi metode-metode
ini dalam hasil numerik.
2

Metode Konjugat Gradien Hibrid Baru Zhou, Zhu, Fan dan Qing
Zhou et al. (2011) menggunakan ide yang sama dengan metode konjugat
gradien hibrid baru Zhang-Zhou tetapi didasarkan pada metode CD dan
mengusulkan
a. Metode hibrid LS-CD yang disebut dengan metode H3 yaitu
(4.13)
kH3  max{0,min{kLS , kCD }}
b. Metode CD yang dimodifikasi yang disebut metode MCD, yaitu

gT d
gT d 
MCD: d k  g k   kCDd k 1  Tk k 1 g k =  1   kCD k k 21  g k   kCDd k 1 (4.14)

dk 1g k 1
g k 

c. Metode hibrid LS-CD baru dan disebut metode NH3 yaitu dengan mengantikan
kCD pada (4.14) dengan  H3 ,


gT d 
NH3: d k =  1   kH3 k k 21  g k   kH3d k 1 .

g k 


(4.15)

Metode MCD dan metode NH3 di atas memenuhi sufficient descent, gTk d k   g k .
Zhou et al. (2011) telah membuktikan metode H3, metode MCD dan metode NH3
memenuhi kekonvergenan global dan telah menunjukkan hasil numerik dari
metode-metode ini cukup efisien dalam meyelesaikan masalah optimasi tanpa
kendala.
2

Metode Konjugat Gradien Hibrid Baru NH6 dan NH7
Dalam penelitian ini digunakan ide yang sama dengan metode konjugat
gradien Zhang-Zhou (2007) dan metode konjugat gradien Zhou et al. (2011) dan
mengusulkan metode metode H6 yaitu metode hibrid WYL-FR dan metode H7
yaitu metode hibrid PRP-CD yang disajikan masing-masing sebagai berikut:

8
(4.16)
kH6  max{0,min{kWYL , kFR }}
H7
PRP
CD
(4.17)
k  max{0,min{k , k }} .
FR
CD
Setelah itu menggantikan k dan k pada metode MFR (4.9) dan metode MCD
(4.14) dengan  kH6 dan  kH7 dan mengusulkan dua metode hibrid baru WYL-FR
dan PRP-CD yang disebut metode NH6 dan metode NH7 yaitu:

gT d 
NH6: d k =  1   kH6 k k 21  g k   kH6d k 1

g k 

T


H7 g k d k 1
 g k   kH7d k 1
NH7: d k =  1   k
2

g k 


(4.18)

(4.19)

Metode MFR dan Metode MCD memenuhi sufficient descent, gTk d k   g k yang
telah dibuktikan oleh Zhang-Zhou (2008) dan Zhou et al. (2011) sedangkan metode
NH6 dan metode NH7 yang diusulkan dalam penelitian ini akan dilakukan
pengujian keseuaian konsidi sufficient descent pada sub-sub bab selanjutnya.
2

Algortma 4.1 NH6
Step 0. Pilih titik awal x0  R n , 0    1, 0   

1
dan     1 . Tetapkan
2

d0  g k , k  0 .

Step 1. Jika g k   , berhenti.
Step 2. Tentukan ukuran langkah  k dengan aturan pencarian garis Wolfe pada
persamaan (4.4).
Step 3. Misalkan x k 1  x k   k d k . Jika g k 1   maka berhenti.
Step 4. Tentukan pencarian arah d k 1 dengan menggunakan rumus pada
persamaan (4.18).
Step 5. Beri nilai k  k  1 , dan lanjutkan ke Step 2.
Algortma 4.2 NH7
Step 0. Pilih titik awal. Tetapkan d0   gk , k  0 . x0  R n , 0    1, 0   

dan     1
Step 1. Jika g k   , berhenti.

1
2

Step 2. Tentukan ukuran langkah  k dengan aturan pencarian garis Wolfe pada
persamaan (4.4).
Step 3. Misalkan x k 1  x k   k d k . Jika g k 1   maka berhenti.
Step 4. Tentukan pencarian arah d k 1 dengan menggunakan rumus pada
persamaan (4.19).
Step 5. Beri nilai k  k  1 , dan lanjutkan ke Step 2.

9
Analisis Kekonvergen Global Metode NH6 dan NH7
Asumsi A
1. Himpunan level   {x  Rn | f (x)  f (x0 )} terbatas.
2. Dalam beberapa persekitaran N yang terkandung  , f terdiferensial kontinu
dan gradien g kontinu Lipschitz, terdapat konstanta L  0 , sehingga
g (x)  g (y )  L x  y , x, y  N .
(4.20)
(Nocedal dan Wright 1999)
Dapat dilihat bahwa barisan { f (x k )} menurun maka jelaslah bahwa barisan {xk }
pada algoritme 1 dan algoritme 2 yang terkandung dalam  .
Dibawah asumsi A pada fungsi f maka digunakan lemma kondisi
Zountendijk untuk membuktikan kekonvergenan global metode konjugat gradien
tak linear, yaitu:
Lemma 4.1
Misalkan asumsi A terpenuhi. Diberikan {xk } yang dibentuk oleh persamaan
(4.1) dan d k adalah arah descent pada persamaan (4.3). Jika  k ditentukan dengan
pencarian garis Wolfe (4.4) maka diperoleh


g d 

k 0

dk



T
k

2

k

2

 

(4.21)

Bukti
Dari kondisi Wolfe pada persamaan (4.4)
 dTk gk  dTk g(xk  k dk )
dimana g k  g(xk ) maka

 dTk g(xk )  dTk g(xk  k dk )
 dTk g(x k )  dTk g(x k )  dTk g  x k   k d k   dTk g (x k )

  1 dTk g(xk )  dkT ( g  xk   k dk   g(xk ))
 g  x k   k d k   g (x k ) d k

(4.22)

.

(4.23)

Digunakan kontinu Lipschitz pada persamaan (4.23), maka diperoleh
  1 dTk g(xk )  L xk   k dk  xk dk
 L  k dk dk
 L k d k d k
 L k d k

  1 dTk g(x k )  L k
  1 dTk g(x k )  
L dk

Karena g k  g(xk ) , maka

2

k

.

dk

2

(4.24)
2

10

k 

  1 dTk g k
2

L dk

.

(4.25)

Digunakan persamaan pencarian garis kondisi Wolfe (4.4)
f  x k   k d k   f  x k    k gTk d k
f  xk   f  xk   k d k    k gTk d k .
Disubstitusi persamaan (4.25) ke persamaan (4.26), maka diperoleh
   1 dTk g k  T
g d ,
f  xk   f  xk   k dk    
 Ld 2  k k
k


sehingga dapat disimpulkan

f  xk   f  xk   k dk 

dimana C1 

 (1   )

untuk k  0

L

g d 
C
T
k

1

(4.27)

2

k

(4.28)

2

dk

(4.26)

 0 . Sekarang,

f  x 0   f  x 0   0d 0 

g d 
C
T
0

1

2

0

d0

.

2

Karena x1  x0   0d0 , maka
f  x0   f  x1 

g d 
C
T
0

1

Untuk k  1

0

2

d0

2

.

f  x1   f  x 2 

g d 
C

f  x 2   f  x3 

g d 
C

Untuk k  2

Untuk k  n  1
f  x n 1   f  x n 

T
1

1

d1
T
2

1

d2

g
C

2

1

.

2

2

2

.

2



2
T
n 1 n 1

d

1

2

.

d n 1
Dijumlahkan semua pertidaksamaan di atas dan diperoleh
n 1

g d 

k 0

dk

f  x0   f  x n   C1 

T
k

2

k

2

Karena f terbatas di bawah dimana n   , maka diperoleh

.

(4.29)

11


g d 

k 0

dk

f  x0   f  C1 
*

T
k

2

k

(4.30)

2

dimana

f *  lim f (xk ) .

(4.31)

k 

Jadi diperoleh bahwa



g d 

k 0

dk



T
k

k

2

2

  . ∎

Lemma 4.2
Misalkan x k 1  x k   k d k diberikan oleh algoritme 4.1 maka d k yang
diberikan oleh persamaan (4.18) memenuhi kondisi sufficient descent
2
dTk g k   g k , k  0
(4.32)
Bukti
Misalkan k  k* .Untuk d 0  g 0 maka diperoleh
gT0 d 0  gT0 g 0   g 0

2

(4.33)

yang berlaku untuk k  0 .
Untuk k  1 , diperoleh

dk  g k  k*dk 1 .

(4.34)

Sekarang untuk k  k* , diperoleh


gT d 
d k  1   k* k k 21  g k   k*d k 1

g k 


gT d 
  k*dk 1  1   k* k k 21  g k .

g k 

Kedua ruas dikalikan dengan gTk , diperoleh
T

 T
* g k d k 1

g d k   g d k 1  1   k
gk gk
2

g k 

T
2
* T
* g k d k 1
T
g k d k   k g k d k 1  g k   k
gk
2
gk
T
k

(4.35)

* T
k k

2

 dTk g k   g k .
2

(4.36)
(4.37)

Oleh karena itu, persamaan (4.32) dipenuhi untuk semua k  1 . ∎

Lemma 4.3
Misalkan x k 1  x k   k d k diberikan algoritme 4.2 maka d k yang diberikan
oleh persamaan (4.19) memenuhi kondisi sufficient descent
2
dTk g k   g k , k  0
(4.38)
Bukti
Misalkan k  k** . Untuk d 0  g 0 maka diperoleh
gT0 d 0  gT0 g 0   g 0

2

(4.39)

12
yang berlaku untuk k  0 .
Untuk k  1 , diperoleh

dk  gk  k**dk 1

(4.40)

Sekarang untuk kH7  k** , diperoleh
T


** g k d k 1
d k  1   k
g k   k**d k 1

2

g k 

T


**
** g k d k 1
gk .
  k d k 1  1   k

2

g k 

Kedua ruas dikalikan dengan gTk , diperoleh

(4.41)


gT d 
gTk d k   k**gTk d k 1  1   k** k k 21  gTk g k

g k 

gT d
2
gTk d k   k**gTk d k 1  g k   k** k k 21 g k 2
gk

(4.42)

 dTk g k   g k .
2

(4.43)

Oleh karena itu, persamaan (4.38) dipenuhi untuk semua k  1 . ∎

Teorema 4.1 (Kekonvergenan Global Metode NH6)
Misalkan asumsi A terpenuhi. Diberikan barisan {xk } yang dihasilkan oleh
metode NH6 pada algoritme 4.1. Jika  k ditentukan oleh pencarian garis Wolfe dan
d k memenuhi persamaan (4.18), maka diperoleh

liminf g k  0

(4.44)

x

Bukti:
Pembuktian dilakukan dengan pembuktian kontradiksi yaitu persamaan (4.44) salah
maka ada sebuah konstanta   0 sehingga
g k   , k  0 .
(4.45)
Dari persamaan (4.18),
(4.46)
dk  hk gk  kH6dk 1
dengan hk  1   kH6

gTk d k 1
2

dan diperoleh  kH6gTk d k 1  hk g k

2

gk
Kedua ruas persamaan (4.46) dikuadratkan, diperoleh
dk

2

  kH6d k 1  hk g k 2
2



   kH6  d k 1  2hk hk g k
2

2

2

 gk

2
k

2

 2hk g k

   kH6  d k 1  2hk g k

2

 hk2 g k .

2

2

2

2

 h

2

   kH6  d k 1  2hk2 g k
2

2

2

   kH6  d k 1  2hk  kH6dTk 1g k  hk2 g k
2

 gk .

2

2

gk

 hk2 g k

2

2

13
Digunakan persamaan (4.32), maka
dk

2

   kH6  d k 1  2hk d Tk g k  hk2 g k .
2

2

2

(4.47)

Dilihat bahwa
 kH6  max 0, min  kWYL ,  kFR   max 0,  kWYL    kFR , k  0 .





Dibagi kedua ruas pada persamaan (4.47) dengan  gTk d k 

2

(4.48)
dan digunakan

persamaan (4.48), (4.32) serta definisi kFR , maka diperoleh
dk
gk

4

2

dk

g d 
T
k

2

2



2

dk

g d 
T
k

 



d k 1

H6 2
k

2

g d 
T
k

k

 

2

k



2

k

d k 1

FR 2
k

2

2

g d 
T
k

2

2

k

hk2 g k
2hk
 T 
g k d k  gT d 2
k k
hk2 g k
2hk
 T 
g k d k  gT d  2
k k

2

 g k 2  d k 1 2 2h
hk2
k




2
2
 g 2 g 4
gk
gk
k
 k 1 


2

d k 1
g k 1




g k 1


gk

2

d k 1

h

2
k

 h  1
 k

4

g k 1

2

gk

2

d k 1

1



4

2



T
2
k 1 k 1

(g d



2

1
gk

2

2

gk

d k 1

2

1



4

 2hk  1  1

)

1
gk

2

.

(4.49)

Akan diselesaikan persamaan (4.29) sebagai berikut:
Dari persamaan (4.3), untuk k  0 , d 0  g 0 dan digunakan persamaan (4.32),
diperoleh
2
gT0 d 0  gT0 g 0   g 0 .
(4.50)
Dari persamaan (4.49) dan (4.50), maka
untuk k  1
d1

2

g d 
T
1

2



1



d0
T
0

2

(g d 0 )

1
g0

2

2





1
g1

1
g1

2

2

14
1

1



2

,

2



gi

k 0

untuk k  2
2

d2

g d 
T
2



2

2

d1
T
1

(g d1 )

2

1



g0
2

1

1



g2

2

,

2

gi

k 0

2

g1
1



2

g2



2

1

untuk k  n
2

dn

g d 
T
n



2

n

2

d n 1
T
n 1

(g d n 1 )

1



g0
n


k 0

2

g1
1
2

gk

2

gn

1



2

1



2

1



2

g2





1
gn

2

,

sehingga diperoleh
2

dn

n

g d 
T
n



2

k 0

n

Dari persamaan (4.45), diperoleh
n
1


k 0

gk

n


k 0

2

1
gk

g d 
g d 
T
n

n

T
n

n





g d 

k 0

dn



g d 



2

2

n

T
n



2

dn



2

2

dn

T
n



n

2

.

n 1

2
n 1

2
2
n 1


k 0

2

2

2

n

2

gk

n 1

2

n

1

2
k 1


1
.
k 0 k  1

 2

dn
Pertidaksamaan terakhir di atas dapat disimpulkan bahwa
k 0

(4.51)

(4.52)

15



i 0

4

gk



1
 
k 0 k  1

  2

2

dk

(4.53)

yang kontradiksi dengan persamaan (4.21). ∎

Teorema 4.2 (Kekonvergenan Global Metode NH7)
Misalkan asumsi A terpenuhi. Diberikan barisan {xk } yang dihasilkan oleh
metode NH7 pada algoritme 4.2 dan d k memenuhi persamaan (4.19) dengan  k
memenuhi pencarian garis Wolfe, maka diperoleh
(4.54)
liminf g k  0
x

Bukti:
Misalkan dengan pembuktian kontradiksi yaitu persamaan (4.54) tidak
terpenuhi maka ada sebuah konstanta   0 sehingga
g k   , k  0 .
(4.55)
Dari persamaan (4.19), diperoleh
(4.56)
dk  hk gk  kH7dk 1
dimana hk  1   kH7

gTk d k 1

dan  kH7gTk d k 1  hk g k

2

 gk .

2

2

gk
Dari persamaan (4.56) dan persaman (4.38), diperoleh
dk
dk
dk

dk
dk

2

  kH7d k 1  hk g k

2

2

   kH7  d k 1  2hk  kH7dTk 1g k  hk2 g k

2

   kH7  d k 1  2hk hk g k

2

   kH7  d k 1  2hk2 g k

2

 2hk g k

2

   kH7  d k 1  2hk g k

2

 hk2 g k .

(4.57)

   kH7  d k 1  2hk d Tk g k  hk2 g k .

(4.58)

2

2

2



2

2

2

2

2

2

 gk

2

2

 h

2

2
k

gk

 hk2 g k

2

2

2

Digunakan persamaan (4.38)
dk

2

2

2

2

Dilihat bahwa
0   kH5   kCD , k  0 .

(4.59)

Kedua ruas pada persamaan (4.58) dibagi dengan  gTk d k  . Setelah itu, digunakan
2

persamaan (4.59), (4.38) dan definisi kCD , maka diperoleh
dk
gk

2
4



2

dk

g d 

 

T
k

2

 



H7 2
k

k



CD 2
k

d k 1

2

g d 

 gk 2 

2 
 g k 1 

T
k

2

2

k

d k 1

k

2

g d 
T
k

k

2

2

hk2 g k
2hk
 T 
g k d k  gT d 2
k k
2

h2 g
2h
 T k  k k 2
g k d k  gT d 
k k
2

g d 
T
k

d k 1

2

2

hk2 g k
2hk
 T 
g k d k  gT d  2
k k

(4.60)

16
2

 gk 2

 g 2
 k 1
2

d k 1



g k 1

 2hk  1  1

2

1



2

gk

2

d k 1



 hk  1



4

2
k

2

gk

2

d k 1

h

1



4

g k 1


 d k 1 2
2hk
hk2



2
2
 g 4
gk
gk
k


2

gk

1



.
(4.61)
2
g k 1
gk
Akan diselesaikan persamaan (4.61) sebagai berikut:
Dari persamaan (4.61) di atas dan persamaan (4.3), untuk k  0 maka d 0  g 0
dan diperoleh
4

gT0 d 0  gT0 g 0   g 0

2

,

(4.62)

untuk k  1
2

d1

4

g1

2

d0



g0

g0
k 0

1



2

1



2

g1

1



1



4

2

g1

1

,

2

gi

untuk k  2
d2
g2

2

d1



4

g1

2
4



2



1



g0
2


k 0

1

1

1
2

1



2

g1

gi

2

g2

g2

2

,

untuk k  n
2

dn

g d 
T
n

2



n

2

d n 1
T
n 1

(g d n 1 )

1



g0
n


k 0

g1
1

gk

2

,

1



gn

1



2

2

2



2

1
g2

2





1
gn

2

17
sehingga diperoleh,
2

dn

n

 gTn dn 

2

k 0


k 0

2

gk

n

1
gk

g d 
g d 
T
n

n

T
n

n

k 0

dn



g d 



2





g d 
T
n



n

2

n 1

2
n 1

2
2
n 1
n



2

k 0

2



2
k 1


2

1

 k 1 .

dn
k 0
Pertidaksamaan terakhir di atas dapat disimpulkan bahwa
4
 g

1
k
2





2
k 0 k  1
i 0 d k
k 0

(4.63)

(4.64)

2

2

n

.

2

n 1

2

n



2

2

dn
T
n



2

dn

gk

k 0

Dari persamaan (4.55), diperoleh
n
1



1



(4.65)

yang kontradiksi dengan persamaan (4.21). ∎

Hasil Numerik

Pada sub-bab ini dilakukan perbandingan hasil numerik dari metode-metode
yang diusulkan dalam penelitian ini yaitu NH6 (algoritme 4.1) dan NH7 (algoritme
4.2) dengan metode-metode yang telah diusulkan pada penelitian-penelitian
sebelumnya yaitu NH1, NH2 dan NH3. Algoritme setiap metode ditulis dalam
bahasa pemograman. Ukuran langkah  k  0 untuk metode-metode ini
menggunakan pencarian garis kondisi Wolfe dengan parameter   0.3 dan
  0.8. Batas toleransi yang ditetapkan adalah   1  107 . Setiap parameter yang
digunakan dalam pengujian algoritme telah ditetapkan sama untuk setiap algoritme.
Perbandingan masing-masing metode diterapkan pada 12 fungsi tak linear (Andrei
2008) dengan dimensi yang beragam. Pada kinerja numerik ini yang dibandingan
dan dievaluasikan adalah jumlah iterasi pada masing-masing metode yang disajikan
pada Tabel 1 dan running time pada masing-masing metode yang disajikan oleh
Tabel 2.

18
Tabel 1 Jumlah iterasi dari masing-masing metode konjugat gradien
No.

Fungsi Tak
Linear

1

Rosenbrock
Function

2

Extended
Himelblau
Function

3

Raydan 2
Function
Diagonal 4
Function

4

5

FLETCHR
Function
(CUTE)

6

Hager Function
(CUTE)

7

Generalized
Quartic Function

8

Generalized
PSC1 Function

9

10

11

12

Freudenstein
and Roth
Function
Generelazed
Tridiagonal 1
Function
DQDRTIC
Function
(CUTE)
SINCOS
Function

Dimensi

NH1 NH2

NH3

NH6

NH7

10 214 216
100 987 1032
1000 8602 8770
50
11
11
100
12
11
1000
10
11
5000
10
10
50
4
4
500
4
4
5000
4
4
10000
4
4
2
37
29
100
31
46
500
42
42
5000
42
40
5
41
38
60 403 474
200 2340 2483

197
987
8523
11
11
10
10
4
4
4
4
37
31
42
42
39
529
1990

208
997
8140
12
12
10
9
4
4
4
4
39
35
33
42
41
610
1577

207
1008
8854
11
11
9
9
4
4
4
4
26
31
28
28
46
530
2495

8
14
18
512
378
166
22
21
19
10
31
14

8
14
17
699
199
213
21
21
20
21
15
21

9
14
17
716
193
213
22
21
21
10
32
15

7
40
800
12
60
400
8
50
2000
2
10
500

8
8
14
13
18
17
373 1253
391 954
403 244
22
22
21
21
20
24
10
14
36
25
14
18

9
75
600
36
150

13
40
24
15
12

12
37
24
15
12

13
43
22
15
12

12
35
24
15
12

14
38
27
15
12

6
800
2000

25
24
30

24
23
26

25
24
34

23
33
27

20
22
22

19
Tabel 2 Hasil running time dari masing-masing metode konjugat gradien
No.

Fungsi Tak
linear

1

Rosenbrock
Function

2

Extended
Himelblau
Function

3

Raydan 2
Function

4

Diagonal 4
Function

5

FLETCHR
Function
(CUTE)

6

Hager
Function

7

Generalized
Quartic
Function

8

Generalized
PSC1
Function

9

Freudenstein
and Roth
Function
Generelazed
Tridiagonal
1 Function
DQDRTIC
Function
(CUTE
SINCOS
Function

10

11

12

Dimensi

NH1

NH2

NH3

NH6

NH7

10 0.540196 1.149559 0.464055 0.484480 0.301483
100 2.465159 1.763389 2.160109 2.343008 1.321149
1000 54.052158 34.894212 47.988596 45.834046 31.089336
50 0.112150 0.106121 0.121300 0.080983 0.115310
100 0.115265 0.129351 0.177326 0.124318 0.100417
1000 1.190812 1.261490 1.209838 1.192360 1.094568
5000 15.757557 15.788496 15.715578 14.073954 14.325513
50 0.045896 0.053731 0.065514 0.048695 0.043893
500 0.054416 0.051283 0.081365 0.047115 0.049114
5000 0.074809 0.099493 0.169468 0.106169 0.103151
10000 0.160189 0.322798
0.41569 0.148267 0.150085
2 0.080181 0.087283 0.080075 0.081377 0.068848
100 0.093162 0.123455 0.102941 0.070642 0.102103
500 0.187928 0.216171 0.186296 0.160606 0.146307
5000 1.285450 1.267526 1.286423 1.328152 0.813863
5 0.093477 0.087259 0.087096 0.090688 0.0774651
60 0.791486 0.772398 0.866064 1.001142 0.878579
200 5.188722 5.541594 4.295492 3.513345 5.510332
7
40
100
12
60
400

0.098325
0.079921
0.180692
0.704127
2.393723
2.729331

0.045938
0.081674
0.167208
2.933549
5.882562
7.954628

0.038661
0.079976
0.212769
1.033300
3.714522
5.005591

0.039366
0.088561
0.178579
1.491344
1.954894
6.467841

0.041019
0.080087
0.178097
1.571936
1.784715
6.728827

8 0.063896 0.093470 0.062415 0.065117 0.063838
50 0.156198 0.377699 0.158407 0.154274 0.194806
2000 14.716253 17.347199 13.442014 13.494793 14.971710
2
10
500

0.024853
0.117663
0.95132

0.053394
0.105540
1.294782

0.042639
0.100294
0.992344

0.038329
0.061308
1.473269

0.039937
0.106267
1.024423

9
75
600
36
171

0.057410
0.396385
5.593209
0.069555
0.058353

0.054736
0.374397
5.622398
0.035019
0.055542

0.050456
0.419451
5.038909
0.086436
0.091141

0.046288
0.356664
5.528094
0.066224
0.031572

0.037552
0.380812
6.227834
0.058343
0.035003

6 0.065499 0.071014 0.063979 0.063689 0.054775
800 3.016210 2.873730 3.026089 3.616082 2.589047
2000 15.613189 13.482076 17.946547 13.766135 11.605393

20
Untuk melihat perbandingan kinerja pada masing-masing metode, digunakan
kinerja profil yang diperkenalkan oleh Dolan dan Moré (2002). Kinerja profil ini
sangat efisien untuk mengevaluasi dan membandingkan hasil himpunan metode S
pada himpunan masalah (fungsi tak linear) P dalam menganalisis algoritme. Hal
ini ditunjukkan pada Gambar 1 dan Gambar 2 dimana profil kinerja untuk jumlah
iterasi dan running time yang diplot. Misalkan P  { p1 , p2 ,..., p38} adalah
himpunan fungsi tak linear dengan masing-masing dimensi dan S  {s1 , s2 , s3 , s4 , s5}
adalah himpunan metode NH1, NH2, NH3, NH6 dan NH7 yang dibandingkan
kinerja metode s pada masalah p . Misalkan t p, s adalah pengukuran kinerja profil
(iterasi dan running time) maka rasio kinerja diberikan oleh
t p,s
.
rp , s 
min{t p , s : s  S}
Untuk memperoleh penilaian keseluruhan dari kinerja masing-masing metode
maka didefinisikan kinerja profil sebagai berikut:
1
 s ( )  size{ p  P : log 2 (rp , s )   } ,
np
dimana  s ( ) adalah peluang untuk metode s  S , rasio kinerja rp,s , faktor  
adalah rasio kemungkinan terbaik dan n p jumlah fungsi dengan masing-masing
dimensi. Fungsi  s adalah fungsi distribusi komulatif untuk rasio kinerja.
Catatan:
Pada perhitungan ini selalu mempunyai hasil rp, s  1. Jika rp , s  1 , diperoleh
t p , s  min t p , s : s  S 

yang berarti bahwa metode s  S adalah yang terbaik dalam menyelesaikan fungsi
tak linear p dari semua fungsi tak linear.

Gambar 1 Hasil profil jumlah iterasi masing-masing metode

21

Gambar 2 Hasil profil running time masing-masing metode
Gambar 1 dan 2, masing-masing menunjukkan kinerja dari lima metode
konjugat gradien hibrid baru NH1, NH2, NH3 NH6 dan NH7 yang relatif terhadap
iterasi dan running time. Semua metode yang diusulkan berhasil menyelesaikan
semua masalah optimasi fungsi tak linear tanpa kendala yang diberikan. Dari
Gambar 1, dilihat metode NH6 dan NH7 kompetitif dengan metode NH1, NH2 dan
NH3 dalam profil iterasi. Metode NH6, NH7 dan NH1 lebih baik dalam profil
iterasi dari metode NH2 dan NH3. Sedangkan pada Gambar 2, dalam profil running
time-nya metode NH6 dan NH7 yang diusulkan juga kompetitif dengan metode
NH1, NH2 dan NH3. Metode NH6, NH7 dan NH1 lebih baik dalam profil running
time-nya dari pada metode NH2 dan NH3. Dengan demikian, metode hibrid baru
NH6 dan NH7 yang diusulkan kompetitif dan efisien serta menambah koleksi
metode hibrid yang sudah tersedia dalam mencari solusi untuk masalah optimasi.

5 SIMPULAN
Metode konjugat gradien adalah salah satu teknik optimasi yang bersifat
iteratif yang dapat digunakan dalam menyelesaikan masalah optimasi tanpa kendala
skala besar. Penelitian ini mengusulkan metode konjugat gradien hibrid baru yaitu
metode WYL-FR dan metode PRP-CD. Metode-metode ini memenuhi kondisi
sufficient descent. Kedua metode ini telah dibuktikan memenuhi kekonvergenan
global. Hasil numerik menunjukkan bahwa kedua metode yang diusulkan cukup
kompetitif dan efisien optimasi tanpa kendala dengan fungsi objektif tak linear yang
diberikan.

22

DAFTAR PUSTAKA
Argyros IK. 2008. Convergence and Applications of Newton-type Iterations. New
York: Springer.
Andrei N. 2008. An Unconstrained Optimization Test Functions Collection.
Advanced Modeling and Optimization. 10(1):147-161.
Bartle R, Sherbert DR. 2011. Introduction to Real Analysis. USA: Jhon Wiley &
Sons Inc.
Bazara MS, Sherali HD, Shetty CM. 2006. Nonlinear Programming: Theory and
Algorithms. USA: Wiley-Interescience.
Chapman SJ. 2008. Matlab Programming for Enggineers, 4th ed. Ontario (CA):
Thomson Learning.
Cormen TH, Leiserson CE, Rivest RL, Stein C. 2009. Introduction to Algorithms:
Third Edition. England: The MIT Press.
Dai YH, Yuan Y. 1999. A Nonlinear Conjugate Gradient Method with a Strong
Global Convergence Property. SIAM Journal on Optimization. 10(1):17782.doi:10.1137/S1052623497318992.
Dai YH, Yuan Y. 2001. An Efficient Hybrid Conjugate Gradient Method for
Unconstrained Optimization. Annals of Operations Research. 103(1-4):33-47.
Dolan ED, Moré JJ. 2002. Benchmarking optimization software with performance
profiles. Mathematical Programming. 912(2):201–213.doi: 10.1007/s101070100263.
Fletcher R. 1987. Practical Methods of Optimization, Unconstrained Optimization.
New York: Wiley.
Fletcher R, Reeves C. 1964. Function Minimization by Conjugate Gradients. The
Computer Journal. 7(2):149-154.doi:10.1093/comjnl/7.2.149.
Hestenes MR, Stiefel EL. 1952. Methods of Conjugate Gradients for Solving Linear
Systems. Journal of Research of the National Bureau of Standards. 49(6):
409-432.
Liu YL, Storey CS. 1991. Efficient Generalized Conjugate Gradient Algorithms,
Part 1: Theory. Journal of Optimization Theory and Applications. 69(1):129137.doi:10.1007/BF00940464.
Meyer CD. 2000. Matrix Analysis and Apllied Linear Algebra. USA: Siam.
Nocedal J, Wright SJ. 1999. Numerical Optimization. New York: Springer.
Snyman JA. 2005. Practical Mathematical Optimization: An Introduction to Basic
Optimization Theory and classical and New Gradient-Based Algorithms.
New York: Spinger.
Pillo GD, Giannessi F. 1999. Nonlinear Optimization and Related Topics. New
York: Springer.
Polyak BT. 1969. The Conjugate Gradient Method in Extreme Problems. USSR
Computational Mathematics and Mathematical Physics. 9:94112.doi:10.1016/0041-5553(69)90035-4.
Thomson BS, Bruckner JB, Bruckner AM. 2007. Elementary Real Analysis. USA:
Prentice-Hall, Inc.
Touati-Ahmed D, Storey C. 1990. Efficient Hybrid Conjugate Gradient Techniques.
Journal Optimization Theory and Application. 64:379–397.

23
Wei Z, Yao SW, Liu LY. 2006. The Convergence Properties of Some New
Conjugate Gradient Methods. Applied Mathematics and Computation.
183:1341-1350.
Zhang L. 2006. Nonlinear Conjugate Gradient Methods for Optimization Problems
[Disertasi]. Changsa (CN): College of Mathematics and Econometrics,
Hunan University.
Zhang L, Zhou WJ, Li DH. 2006. A Descent Modified Polak-Ribière-Polyak
Conjugate Gradient Method and Its Global Convergence. IMA Journal of
Numerical Analysis. 26(4):629-640.doi:10.1093/imanum/drl016.
Zhang L, Zhou WJ. 2007. Two Descent Hybrid Conjugate Gradient Methods for
Optimization. Journal of Computational and Applied Mathematics. 216:251
– 264.doi:10.1016/j.cam.2007.04.028.
Zhou A, Zhu Z, Fan H, Qing Q. 2011. Three New Hybrid Conjugate Gradient
Methods for Optimization. Journal Applied Mathematics. 2:303308.doi:10.4236/am.2