Metode Conjugate gradient dengan Pendekatan Quasi Newton

METODE CONJUGATE GRADIENT DENGAN PENDEKATAN QUASI NEWTON
TESIS
Oleh MIZAN 097021001/MT
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA MEDAN 2011
Universitas Sumatera Utara

METODE CONJUGATE GRADIENT DENGAN PENDEKATAN QUASI NEWTON
TESIS
Diajukan Sebagai Salah Satu Syarat untuk Memperoleh Gelar Magister Sains dalam
Program Studi Magister Matematika pada Fakultas Matematika dan Ilmu Pengetahuan Alam
Universitas Sumatera Utara Oleh
MIZAN 097021001/MT
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA MEDAN 2011
Universitas Sumatera Utara

Judul Tesis
Nama Mahasiswa Nomor Pokok Program Studi

: METODE CONJUGATE GRADIENT DENGAN PENDEKATAN QUASI NEWTON
: Mizan : 097021001 : Matematika


Menyetujui, Komisi Pembimbing

(Prof. Dr. Tulus, M.Si) Ketua

(Dr. Saib Suwilo, M.Sc) Anggota

Ketua Program Studi

Dekan

(Prof. Dr. Herman Mawengkang) (Dr. Sutarman, M.Sc.)

Tanggal lulus: 16 Juni 2011

Universitas Sumatera Utara

Telah diuji pada : 16 Juni 2011
PANITIA PENGUJI TESIS Ketua : Prof. Dr Tulus, M.Si Anggota : 1. Dr. Saib Suwilo, MSc
2. Prof. Dr. Herman Mawengkang 3. Dra. Mardiningsih M.Si
Universitas Sumatera Utara


ABSTRAK Metode Conjugate Gradient merupakan teknik iterasi dalam penyelesaian perihal sistem persamaan linier dengan menggunakan matriks koefisien simetris definite positif. Penyelusuran garis merupakan bahagian terpenting dalam optimisasi untuk menentukan arah p yang dicari. Kekonvergenan Metode Conjugate gradient merupakan teknik iterasi untuk penyelesaian persamaan linier definite positif simetris. Penyelesaian himpunan persamaan linier dengan matriks simetris merupakan ekivalen dengan fungsi kuadratik minimisasi. Nilai fungsi dan gradient dari model ini pada p sama dengan 0. Metode Quasi-Newton dengan menggunakan skema beda hingga merupakan suatu pendekatan untuk menyatakan arah yang dicari tanpa kehilangan kekonvergenan Conjugate gradient. Kata kunci: M¯ etode Conjugate gradient, Metode Quasi-Newton
i Universitas Sumatera Utara

ABSTRACT Conjugate gradient Method is an iteration technique in solving about the linier equation using the positive definite symmetric coefficient matrix. Line tracking is an important part of optimization to determine the direction of p. The convergence of conjugate gradientt method is an iteration method to solve the symmetric positive definite linier equation. The solving of linier equation by symmetric matrix is equivalent to the minimum quadratic function. Function and gradient value of this model on p is equal to 0. Quasi Newton Method using the different scheme as an approach to determine the direction without eliminate the convergence of conjugate gradient. Keyword: C¯onjugate Gradient Method, Quasi-Newton Method
ii Universitas Sumatera Utara

KATA PENGANTAR
Segala Puji bagi Allah yang Maha Pengasih lagi Maha Penyayang atas segala rahmat dan karunia-Nya penulis dapat menyelesaikan tesis ini tepat pada waktunya. Tesis ini berjudul: Metode Conjugate gradient dengan Pendekatan Quasi Newton. Tesis ini merupakan persyaratan tugas akhir pada Program studi Magister Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara.
Dalam menyelesaikan tesis ini penulis banyak mendapat dukungan dari berbagai pihak, oleh karena itu pada kesempatan ini penulis mengucapkan terima kasih dan penghargaan yang setinggi-tingginya serta apresiasi yang sebesarbesarnya kepada: Prof. Dr. dr. Syahril Pasaribu, DTMH, M.Sc (CTM)&, Sp.A(K) selaku Rektor Universitas Sumatera Utara. Dr. Sutarman, M.Sc Dekan Fakultas Matematika dan Ilmu Pengetahuan Alam Universistas Sumatera Utara. Prof. Dr. Herman Mawengkang selaku Ketua Program Studi Magister Matematika FMIPA Universitas Sumatera Utara yang telah banyak memberikan bantuan dalam penulisan tesis ini. Dr. Saib Suwilo, M.Sc selaku Sekretaris Program Studi Magister Matematika FMIPA Universitas Sumatera Utara. Prof. Dr. Tulus, M.Si selaku Ketua Komisi Pembimbing yang telah meluangkan waktu beliau memberikan bimbingan dan pengarahan dalam menyusun tesis ini. Dr. Saib Suwilo, M.Sc selaku anggota komisi pembimbing yang telah memberikan bimbingan dan pengarahan dalam menyusun tesis ini. Prof. Dr. Herman Mawengkang selaku anggota penguji yang telah memberikan koreksi, masukan dan motivasi untuk perbaikan dan kesempurnaan tesis ini. Dra. Mardiningsih, M.Si yang telah banyak memberikan koreksi, masukan dan motivasi untuk perbaikan dan kesempurnaan tesis ini. Ir. Nahar MT, Direktur Politeknik Negeri Lhokseumawe, yang telah memberikan tugas belajar kepada penulis.
iii Universitas Sumatera Utara

Fakhrur Rozi, SST. selaku pimpinan pengelola dana IMHERE. Politeknik Negeri Lhokseumawe. Seluruh Staf Pengajar pada Program Studi Magister Matematika FMIPA Universitas Sumatera Utara yang telah banyak memberikan Ilmu yang bermanfaat bagi penulis selama masa perkuliahan dan juga kepada sdri. Misiani, S.Si, staf administrasi Program Studi Magister Matematika yang telah memberikan pelayanan yang baik kepada penulis.
Ucapan yang teristimewa penulis persembahkan kepada kedua orang tua, Bapak Tengku Abdullah Wujudi (alm) dan Ibu Semah dan Bapak Mertua Abdul Halim, Ibu Mertua Nurhayati (alm).
Secara khusus terima kasih diperuntukkan kepada Istri tercinta Sri Nirwana dan anak-anak tersayang Alfinnura Simehate, Mukhlas Naufal dan Ramzi Muayadtullah bin Mizan dan kepada seluruh keluarga.
Semoga tesis ini dapat memberi manfaat bagi pembaca dan pihak-pihak lain yang memerlukannya. Penulis sadar atas segala kekurangan dalam tesis ini.
Medan, 16 Juni 2011 Penulis,
Mizan
iv Universitas Sumatera Utara


RIWAYAT HIDUP Mizan lahir di Toweren Takengon Tahun 1959, anak ke-5 dari tujuh bersaudara ayah Abdullah Wujudi (alm) dan Ibu Semah. Menamatkan Sekolah Ibtidaiyah Negeri (MIN) Toweren tahun 1973, Madrasyah Tasyanawiyah Agama Islam Negeri (MTSAIN) Takengon tahun 1976, Sekolah Menengah Atas (SMA) Negeri 1 Takengon 1980 jurusan IPA. Tahun 1980 kuliah di jurusan matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Riau (UNRI) Pekan Baru, Memperoleh gelar sarjana Matematika tahun 1987. Tahun 1993 menjadi staf pengajar Politeknink Negeri Lhokseumawe hingga sekarang. Menikah dengan Sri Nirwana tahun 1995 dikaruniai seorang putri dan dua putra. Tahun 2009 mengikuti pendidikan Program Studi Magister Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara, Medan.
v Universitas Sumatera Utara

DAFTAR ISI

ABSTRAK ABSTRACT KATA PENGANTAR RIWAYAT HIDUP DAFTAR ISI
BAB 1 PENDAHULUAN
1.1 Latar Belakang 1.2 Perumusan Masalah 1.3 Tujuan Penelitian 1.4 Kontribusi Penelitian 1.5 Metode Penelitian
BAB 2 TINJAUAN PUSTAKA

Halaman i ii
iii v vi
1
1 3 3 3 4
5

BAB 3 LANDASAN TEORI
3.1 Pencarian Garis (Line Searches) 3.2 Metode Conjugate Gradient 3.3 Metode Arah Conjugate untuk Persoalan Quadratik 3.4 Metode Quasi - Newton 3.5 Kesalahan (error) dari Algoritma Conjugate Gradient
BAB 4 PEMBAHASAN
4.1 Algoritma LS-BFGS 4.2 Algoritma dan Implementasinya

4.2.1 Algoritma

7
7 8 8 12 18
20
22 28 28

vi Universitas Sumatera Utara

4.2.2 Implementasi BAB 5 KESIMPULAN DAN SARAN
5.1 Kesimpulan DAFTAR PUSTAKA

30 32 32 33

vii Universitas Sumatera Utara

ABSTRAK Metode Conjugate Gradient merupakan teknik iterasi dalam penyelesaian perihal sistem persamaan linier dengan menggunakan matriks koefisien simetris definite positif. Penyelusuran garis merupakan bahagian terpenting dalam optimisasi untuk menentukan arah p yang dicari. Kekonvergenan Metode Conjugate gradient merupakan teknik iterasi untuk penyelesaian persamaan linier definite positif simetris. Penyelesaian himpunan persamaan linier dengan matriks simetris merupakan ekivalen dengan fungsi kuadratik minimisasi. Nilai fungsi dan gradient dari model ini pada p sama dengan 0. Metode Quasi-Newton dengan menggunakan skema beda hingga merupakan suatu pendekatan untuk menyatakan arah yang dicari tanpa kehilangan kekonvergenan Conjugate gradient. Kata kunci: M¯ etode Conjugate gradient, Metode Quasi-Newton
i Universitas Sumatera Utara

ABSTRACT Conjugate gradient Method is an iteration technique in solving about the linier equation using the positive definite symmetric coefficient matrix. Line tracking is an important part of optimization to determine the direction of p. The convergence of conjugate gradientt method is an iteration method to solve the symmetric positive definite linier equation. The solving of linier equation by symmetric matrix is equivalent to the minimum quadratic function. Function and gradient value of this model on p is equal to 0. Quasi Newton Method using the different scheme as an approach to determine the direction without eliminate the convergence of conjugate gradient. Keyword: C¯onjugate Gradient Method, Quasi-Newton Method

ii Universitas Sumatera Utara

BAB 1 PENDAHULUAN

1.1 Latar Belakang
Metode Conjugate Gradient (CG) dapat dipakai untuk menyelesaikan sistem persamaan linear dengan matriks koefisien definite positif simetris. Penyelesaian Sistem Linier yang dimaksud dapat ditulis sebagai

Ax = b; A ∈ Rn×n; x ∈ Rn; b ∈ Rn

(1.1)

Di sini A merupakan suatu matriks simetris definite positif. Asumsikan bahwa x0 solusi awal dari persamaan (1.1). Metode Conjugate Gradient pada mulanya menghitung sisa awal r0 = b − Ax0 dan membangun solusi pendekatan x1, x2, . . . sedemikian hingga sisa vektor ri = b − Axi; i = 0, 1, . . . dapat ditulis dalam bentuk :
ri = Pi(A)r0

dimana Pi pada ruang polynomial berderajat i yang memenuhi hubungan Pi(0) = 1; (Bouyouli et al, 2008).

Laju konvergen dari Metode Conjugate Gradient didefinisikan pada ruang Hilbert. Hasil sebelumnya pada Rn untuk laju kekonvergenan pada sublinear dan superlinear, diperlukan bermacam-macam kondisi yang tak dapat diperinci dengan luas oleh operator linear.

Operator Differential Elliptic yang menghasilkan penafsiran yang relevan dan saling bertautan dipakai. Penafsiran yang dimaksud mencakup matriks berukuran besar pada masalah nilai batas diskrit (Axelsson dan Karaston, 2001).


Modifikasi formula Conjugate Gradient yang berbentuk βkMLS merupakan dasar dari formula Liu-Storey (LS) pada Metode Conjugate Gradient nonlinear,

dengan pembuktian oleh Wolfe-Powell pada pencarian garis dan penyederhanaan-

nya

menggunakan

parameter σ



(0,

1 2

).

Metode ini merupakan


metode

baru yang

mewarisi sifat Global Convergence (Wei, Kai-Rong, 2010).

Universitas Sumatera U1tara

2
Pengembangan versi yang berbeda dari Metode Conjugate Gradient dengan perhatian khusus dari sifat Global Convergence.
Metode Conjugate Gradient terdiri dari algoritma Optimasi tak berkendala yang mempunyai karakterisasi. Suatu ketentuan yang harus diingat adalah sifat kekonvergenan. Strong Local dan Global Convergence (Harger dan Zhang, 2005).
Persoalan tak terbatas pada arah pencarian bila matriks Hessi tak berhingga atau mendekati Singular. Suatu algoritma baru yang dapat diusulkan pada matriks Hessi Singular secara natural dan teori yang ekuivalen. Keterampilan ini dapat dilakukan oleh matriks eksplisit yang dimodifikasi yang dapat dengan mudah beradaptasi untuk ditiru. Modifikasi implicit yang digunakan oleh metode daerah layak (Trust-Region Method).
Modifikasi algoritma Conjugate Gradient yang melengkapi strategi pada suatu robus merupakan cara yang efisien untuk pembuktian varian baru. Hasil numerik dibuktikan dengan melakukan keefektifan pendekatan ini pada hasil dari suatu Metode Pencarian Garis (Line Search Method). Untuk optimisasi Non Convex tak berkendala berskala besar (Zhou, Griffin dan Akrotirianakis).
Studi tentang sifat Global Convergence dari Class Broyden lebih terbatas daripada Metode Quasi- Newton, bila digunakan fungsi Objective Convex. Di asumsikan memenuhi Pencarian Garis suatu kondisi standar yang sangat kurang dan pendekatan awal Hessi beberapa matriks definite positif.
Dengan memperlihatkan konvergensi super linier global untuk metode DFP. Hal ini menyamaratakan Powell yang sudah dikenal baik untuk metode BFGS. Kemampuan analisa yang diberikan ke dalam sifat dari algoritma ini khusus ditunjukkan DFP yang dipunyai dan yang disukai Self-Correcting yang dimiliki oleh BFGS (Byrd, Nocedal dan Yuan, (1987)).
Pengusulan pada suatu algoritma yang baru terjadi untuk persoalan subjek minimisasi pada nonlinear memeriksa pada Constrain yang sama. Keduanya menjaga pendekatan pada Project dari Hessi dan Langrangian, Onto (Linearisasi) manifold dari Constrain aktif pada setiap iterasi.
Dapat ditunjukkan kedua algoritma yang digunakan dengan beberapa QuasiNewton umum disesuaikan dengan hukum (rule) dan digunakan analisis dari Stoer
Universitas Sumatera Utara

3

(1984), Barisan dari projected pendekatan Hessi yang konvergen (Wright, 1986).
Studi tentang prosedur non-monoton Line-Search, yang merupakan kombinasi dengan keluarga Non-Quasi Newton di bawah keseragaman Convexity asumsi pada fungsi objektif, global dan Super Linear Convergence dari keluarga nonQuasi-Newton dengan pengusulan non-monoton Pencarian Garis adalah pembuktian yang sesuai kondisi (Liu, 2010).
Suatu Metode Hybrid Direct Search-Quasi Newton untuk persoalan Invers nonlinear dari Electrical Impedance Tomography (EIT) pada 2D domain yang dimiliki metode Interior Path. Finite Element Method (FEM) digunakan untuk menyelesaikan problem forward EIT memandang scalar potensial dan memiliki nilai kepadatan yang mutakhir. Pendekatan perubahan adalah penggunaan pada solusi Problem Invers pengetahuan pendahuluan Inhomogenitas pada daerah asal (domain) digunakan (Guliashki Vassil, 2008).
1.2 Perumusan Masalah
Metode Conjugate Gradient merupakan algoritma minimisasi yang efisien dengan turunan kedua, dengan pendekatan Quasi-Newton untuk pencarian arah tanpa kehilangan kekonvergenan. Metode Conjugate Gradient didasari pada algoritma BFGS ( Broyden-Fletcher-Goldfarb-Shanno)
1.3 Tujuan Penelitian
1. Menentukan laju kekonvergenan dari suatu fungsi tak linier
2. Menentukan besar pembulatan kesalahan (round-off errors) dari fungsi tak linier

1.4 Kontribusi Penelitian
1. Pada pengembangan untuk Analisa mekanik 2. Pengembangan Analisa Vektor dan Tensor 3. Pengembangan Optimisasi Numerik

Universitas Sumatera Utara

4
1.5 Metode Penelitian Penelitian ini dilakukan dengan Metode tinjauan pustaka dengan langkah-
langkah sebagai berikut,

1. Analisa Generalisasi Conjugate Gradient dengan menggunakan pendekatan beda hingga dengan rumus berikut ini


Uk

=

1 γ

gkT

(∇f

(xk

+

γk gk )



gk )


Selanjutnya menghitung Vk dan Wk dengan menggunakan relasi berikut ini

Hk dk−1



1 tk−1

(gk

− gk−1)

2. Analisis Successive Affine Reduction pada kasus dua dimensi (Zk = {△xk, △gk}) dinilai dengan LS Algoritma.

3. LS-BFGS dinilai dengan membuat algoritma LS.

Universitas Sumatera Utara

BAB 2 TINJAUAN PUSTAKA


Metode Conjugate Gradient dan Metode Quasi-Newton adalah ekivalen untuk suatu fungsi objek kuadratik bila ada garis pencarian yang digunakan. Metode Conjugate Gradient dan Quasi-Newton hanya digunakan pada turunan pertama dan turunan kedua dari suatu fungsi (Fallgren Mikael, 2006). Metode Quasi-Newton adalah Metoda iterasi untuk penyelesaian suatu persoalan minimum yang tidak menggunakan kendala pada persamaan berikut ini

minimisasix∈Rnf (x),

((P))

dimana f suatu fungsi yang sudah disederhanakan, fungsi convex dengan Gradient ∇f(x) yang ada dari persoalan fungsi kuadratik adalah f(x),
f (x) = 1 xT Hx + cT x 2
Dalam hal ini matriks Hessi H mempunyai m nilai karakteristik yang real. Metode Conjugate Gradient akan menentukan penyelesaian pada titik m sebagian besar iterasi dengan m kelompok yang real dan nilai karakteristik. Metode Conjugate Gradient akan mendekati penyelesaian persoalan pada iterasi ke m (Fallgren Mikael, 2006). Metode Conjugate Gradient suatu algoritma minimisasi yang efisien menggunakan informasi turunan kedua tanpa menggunakan penghematan matriks oleh pendekatan beda hingga. Dengan menunjukan skema beda hingga dapat menggunakan pendekatan Metode Quasi-Newton untuk menentukan suatu arah yang dicari tanpa kehilangan kekonvergenan. Metode Conjugate Gradient merupakan dasar pada pendekatan BFGS yang membandingkan dengan Metode yang ada dari clas yang sama (Koko, 1991). Telah diselidiki sifat algoritma LS-BFGS yang awalnya adalah algoritma LS dan algoritma SAR.

Algoritma LS di atas berhubungan dengan waktu CPU secara relatif lebih cepat dan menguntungkan fungsi optimisasi, untuk algoritma SAR mempunyai hasil yang baik, tetapi memerlukan beberapa fungsi/Gradient untuk menghitung tanpa menggunakan bentuk algoritma LS.
Universitas Sumatera U5tara

6 Untuk mengevaluasi fungsi dalam penyelamatan waktu diproleh dengan LSB1 adalah signifikan. Kegagalan LSB1 dan LSB2 pada percobaan numerik berupa kesalahan pembulatan komputasi H pada langkah ke-5 dari algoritma LD-BGFS. Hal ini disebabkan oleh penggunaan Q dan matriks orthogonalisasi Q .Sebelum penghitungan kemungkinan lebih jelas lagi kesalahan pembulatan (round-off errors) dan dapat memperbaiki algoritma LS-BFGS (Koko, 1991).
Universitas Sumatera Utara

BAB 3 LANDASAN TEORI

3.1 Pencarian Garis (Line Searches)
Untuk penentuan s∗ dalam penyelesaian persamaan 3.1 harus dapat suatu global konvergen dari suatu algoritma optimisasi. Sifat ini berhubungan dengan sifat yang paling populer yang dikembangkan oleh kondisi wolfe (wolfe condition).

Definisi 3.1: Suatu pencarian garis yang mana pilih s∗ pada minimisasi φ(s) = F (xk + spk) dikatakan dari perfect (sempurna) atau exact.

Definisi 3.2 : Tidak Kuat (Weak) atau Tidak Tepat (InExact) pencarian garis adalah yang mana satu yang di temui dari beberapa nilai s. Sehingga F (xk + spk) − F (xk) adalah negative dan loncatan jauh dari nol. Pencarian garis bagian yang penting pada Optimisasi jika arah p yang dicari Search Direction dan jika ditulis :

ϕ(s) = F (xk + sp), dengan menggunakan expansi Deret Taylor

(3.1)

ϕ(s)

=

F (xk) +

spT ∇F (xk) +

s2 2

P

T

∇2F

(xk)P

+

O(s3

p 3)

dan

juga

dϕ ds

=

pT ∇F (xk) + spT ∇2F (xk)p + O(s2

p 3).

Tetapi ∇F (xk + sp) = ∇F (xk) + s∇2F (xk)P + O(s2 p 2)

juga

dϕ ds

=

P T ∇F (xk + sp).

Persamaan (3.1) disederhanakan dengan konvergen awal dari xk sepanjang Search

Direction p adalah

dϕ dS

=

pT ∇F (xk).

Universitas Sumatera U7tara

8
3.2 Metode Conjugate Gradient
Metode Conjugate Gradient adalah suatu teknik iterasi untuk menyelesaikan persoalan sistem persamaan Linier Ax = b. dimana A suatu matriks koefesien simetris dan definite positif :
A ∈ Rn×n ∀x ∈ Rn, x = 0 AT = A xT Ax > 0
Pada tahun 1982 Steihang Trout, menyatakan minimisasi tidak terkendala dari suatu fungsi disederhanakan pada variable merupakan salah satu persoalan yang banyak dari suatu persoalan yang sangat penting dalam matematika programming. Karena fungsi mulus Lokal minimal terjadi pada titik stationar yaitu gradient sama dengan nol.
Algoritma effectif digunakan sebagai dasar pada metode- Newton atau beberapa variasi yang disukai Metode -Newton untuk menentukan gradient sama dengan nol. Untuk memperluas daerah konvergen metode membutuhkan modifikasi. Dimana ada dua pokok pendekatan pencapaian global konvergen. Sebagian besar modifikasi dengan menggunakan pendekatan pencarian garis, dimana arah P dihitung. Untuk pencarian suatu pendekatan lokal minimum sepanjang garis yang didefinisikan oleh arah P . Suatu pendekatan yang menarik adalah dasar observasi metode Quasi-Newton. Model fungsi dengan pendekatan kuadratik sekeliling rangkaian iterasi. Keakuratan kuadratik hanya pada suatu tetangga (neighborhood) dari rangkaian iterasi dan iterasi yang baru. Sekarang memilih pendekatan minimum dari kuadratik konstan menjadi suatu daerah yang diyakini pembentukannya.
3.3 Metode Arah Conjugate untuk Persoalan Quadratik
Persoalan solusi suatu himpunan persamaan linier dengan matriks simetrik definite positif adalah ekivalen dengan persoalan minimisasi fungsi kuadratik, dengan mempertimbangkan persoalan penentuan x ∈ Rn yang memenuhi
Ax = b,
Universitas Sumatera Utara

9

dimana A ∈ Rn×n, b ∈ Rn dan A matriks simetrik definite positif. Solusi persoalan ini juga merupakan solusi persoalan optimisasi (P ) dengan rumus berikut ini

lim [f(x)
x∈Rn

=

1 2

xT

Ax



bT x].

(3.2)

Dengan mempertimbangkan titik x¯ sedemikian hingga

∇f(x¯) = δ(x¯) = Ax¯ − b = 0.

(3.3)

Persamaan (3.2) membuktikan kondisi optimisasi untuk persoalan (3.1)

Lemma 3.1 Andaikan A matriks simetris definite positif , jika x¯ solusi persamaan (3.1) maka penyelesaian (3.2 ) sebagai pedoman.

Bukti : Andaikan δ(x¯) = r¯ = 0 dan hitung f di titik x¯ − αr¯, dimana α ∈ RT

F (x¯ − αx¯) = 1(x¯ − αx¯)T A(x¯ − αx¯)bT (x¯ − αx¯) 2

1 2

x¯T

Ax¯



αx¯T Ar¯ +

1 2

α2r¯T



bT x¯

+

αbT r¯

f (x¯)



α(Ax¯



b)2r¯

+

1 2

α2r¯T

Ar¯

f (x¯)



αr¯T r¯ +

1 2

α2r¯T

Ar¯

untuk bilangan kecil dari α diperoleh

f(x¯ − αr¯) < f(x¯),

kontradiksi solusinya x¯ pada persamaan (3.1 ). Solusi x¯ dari metode arah conjugate pada persamaan (3.1) menyarankan pada suatu barisan sederhana persoalan optimisasi.

Andaikan A suatu matriks diagonal dengan elemen diagonal sama dengan

(λ1, λ2, . . . , λn) dimana λ1 ≥ λ2 ≥ . . . λn > 0, maka order pada penentuan nilai

minimum dari f diselesaikan suatu barisan dari persoalan optimisasi dimensi satu

(Pi):

xmi∈iRnn[fi(xi)

=

1 2

λi(xi)2



bixi].

Setiap

persoalan

(Pi) mempunyai solusi

xi

=

,bi
λi

i

=

1, 2, . . . , n dan

solusi

ini

kombinasi dari constitute dari solusi (P ).

Algoritma ( 1,1 ) ( metode Arah Conjugate Sederhana )

Universitas Sumatera Utara

10

1. Pilih sembarang xi ∈ Rn, Set k = 1.

2. Set Pk = ek, ek vektor.

3. Tentukan αk > 0, sehingga

f (xi

+

αk pk )

=

lim
α>0

f (xk

+

αpk ).

4. Subsitusi xk + αkpk untuk xi+1, naik k by one. Jika k ≤ n, then the go to step 2, untuk yang lain stop.

Minimisasi pada langkah 3 sangat berperan pada relasi g(xk + αkpk)T pk = O ditulis sebagai
[λi[(xk)i + αk(pk)i] − bi](pk)i = 0

karena

pk

=

ek

diperoleh

αk

=

−(xk)i

+

.bi
λi

jika

(xk+1)

asumsi

nilai

bk λk

dan

karena

pk

=

ek

akan

diperoleh

λk

=

−(xk)i

+

bi λi

.

Jika

(xk+1)k

asumsi

nilai

,bk
λk

tambahan

lagi

;

skala

perhitungan

ke

k

langkah

xk+1

fungsi f minimum pada ruang bagian dibangun oleh vector-vektor e1, e2, . . . , ek

dan melalui titik x1

k
℘k = {x ∈ ℜn; x = xi + γ1ei, γi ∈ ℜ, i = 1, 2, 3, . . . k}.
i=1

(3.4)

Sifat dapat ditunjukkan jika dibuktikan gradient δk+1 memenuhi

gkT+1pi = gkT+1ei = 0, ∀i ≤ k.

(3.5)

Pada bagian akhir akan mempertimbangkan hitungan gradient pada titik x1, x2, . . . , xn diperoleh xk+1 sebagai berikut

 b1/λ1 

b2/λ2

  

...

  

xk+1

=

 

bk/λk

 

(x1)...k+1

  

(x1)n

Universitas Sumatera Utara

11

untuk menentukan δk+1 digunakan rumus berikut ini

0

0

  

...

  

δk+1

=

0

λk+1(x1 


)k...+1





bk+1

 





λn(x1)n − bn

dengan demikian rumus (3.5) merupakan pegangan.

Solusi pada problem (p) terletak pada bagian garis tegak lurus pada ruang Pk

dan melalui titik xk+1

n
Pn−k = {x ∈ ℜn : x = xk+1 + ei, γi ∈ ℜ, i = k + 1, . . . , n}.
i

(3.6)

Hal ini disebabkan ℘n−k adalah ruang bagian dari ℜn dan setiap iterasi dari Al-

goritma (1.1) menurunkan dimensi statis pada n iterasi. Solusi pada problem (p)

akan ditentukan.

Jika A merupakan matriks diagonal akan diperoleh

pTi APj = eTi = 0, ∀ = i, i, j = 1, 2, 3, . . . , n.

(3.7)

Bila A bukan matriks diagonal, himpunan vektor {ek}n1 tidak merupakan jaminan konvergen pada bilangan berhingga dari iterasi. Jika kita dapat transformasi matriks A oleh matriks non singular S pada matriks diagonal

nonsingular Aˆ = ST AS,

(3.8)

persoalan optimisasi menjadi

lim [fˆ(xˆ)
xˆ∈Rn

=

1 2

xˆT

S

T

AS





bT Sxˆ].

Ruang variabel baru x = Sxˆ. Pada ruang variabel xˆ dapat digunakan algoritma (1.1) untuk menentukan minimum dari fˆ pada suatu bilangan berhingga dari Iterasi. Penggunaan pendekatan pada suatu matriks definite positif A sembarang mempunyai suatu kelemahan. Dalam hal ini harus diketahui salah satu matriks S atau vektor {pi}n1 sehingga pi = S−1ei. Hubungan (3.6) dengan Ruang Variabel xˆ menjadi

PiT Apj = 0; ∀i = j; i, j = 1, 2, 3, . . . , n.

(3.9)

Universitas Sumatera Utara

12

3.4 Metode Quasi - Newton

Turunan metode Kuadratik dari fungsi objek pada rangkaian iterasi Xk adalah sebagai berikut:

mk(p)

=

fk

+

∇fkTp

+

1 2

pTBk

p.

(3.10)

Dimana Bk matriks simetrik definite positif yang akan diperbaiki atau disesuaikan setiap iterasi. Nilai fungsi dan gradient dari model ini pada p = 0 menandingi penyajian dari fk dan ∇fk, Minimisasi pk dari model kuadratik convex, yang akan ditulis dalam bentuk explicit

pk = −Bk−1∇fk, dengan menggunakan arah pencarian dan iterasi baru, yaitu

(3.11)

xk+1 = xk + αkpk,

(3.12)

langkah selanjutnya memilih αk yang memenuhi kondisi Wolfe. Sebagai pengganti pada penghitungan Bk yang baru pada setiap iterasi Davidon mengusulkan penyelesaian dengan cara yang sederhana untuk pengukuran kelengkungan yang terjadi selama ini. Andaikan dibangun iterasi baru xk+1dan ingin membuat model kuadratik baru dari bentuk

mk+1(p)

=

fk+1

+

∇fk+1Tp

+

1 2

pT

Bk+1p.

Suatu kebijaksanaan yang perlu gradient dari mk+1 akan menandingi gradient dari fungsi objek f pada dua iterasi yang lambat xk dan xk+1. Karena ∇mk+1(0) adalah persis ∇fk+1, yang kedua kondisi ini otomatis memenuhi. Kondisi pertama ditulis dalam bentuk matematik

∇mk+1(−αkpk) = ∇fk+1 − αkBkk + 1pk = ∇fk. Dengan menyusun, diperoleh

Bk+1αkpk = ∇fk+1 − ∇fk.

(3.13)

Dengan menggunakan definisi vektor

sk = xk+1 − xk = αkpk; yk = ∇fk+1 − ∇fk,

(3.14)

Universitas Sumatera Utara

13

persamaan (3.12) menjadi

Bk+1sk = yk.

(3.15)

Penggantian sk dan perubahan gradient yk, persamaan garis potong memerlukan matriks simetrik definite positif Bk+1 memetakan sk kedalam yk. Hal ini akan mungkin hanya jika sk dan yk membuat kondisi kelengkungan

skT yk > 0,

(3.16)

bila f betul-betul cembung (strongly convex) , persamaan (3.16) akan memenuhi dua titik xk dan xk+1. Berdasarkan kondisi Wolfe pada arah pencarian ini membuktikan bentuk persamaan (3.16) dan kondisi Wolfe

∇fkT sk ≥ C2∇fkT sk dan oleh karena ykT sk ≥ (C2 − 1)αk∇fkT pk.

(3.17)

Karena C2 < 1 dan pk adalah arah yang layak (decent direction) dengan istilah kanan positif dan kondisi kelengkungan pada persamaan (3.16). Penentuan Bk+1 secara tunggal dapat membebani penambahan kondisi di antara semua matriks simetris yang memenuhi persamaan garis potong (secent) , Bk+1 tertutup pada rangkaian matriks Bk.

dengan kendala

min
B

B − Bk

(3.17(a))

B = BT , Bsk = yk

(3.18)

dimana sk dan yk memenuhi persamaan (3.16) dan Bk matriks simetris dan definite positif. Perbedaan matriks norm (norm) diberikan kenaikan pada perbedaan Metode Quasi-Newton. Norm menandakan penyelesaian dari persoalan minimisasi (3.17 ) dan diberikan kenaikan pada sekala invariant optimisasi metode adalah norm bobot Frobenius

A W ≡ W 1/2AW 1/2 F ,

(3.19)

nn

dimana

• F didefinisikan oleh

C

2 F

=

Ci2j .

i=1 j=1

Matriks bobot W dapat dipilih sebagai matriks yang memenuhi hubungan W yk =

Universitas Sumatera Utara

14

sk. Kenyataan, dapat diasumsikan W = Gk−1 dimana G¯k rata-rata Hessi didefinisikan oleh

1
G¯k = [ f (xk + τ αkpk)dτ ].
0

(3.20)

Sifat

yk = G¯kαkpk = G¯ksk.

(3.21)

Norm persamaan (3.19) adalah nondimensional, dimana suatu sifat yang diperlukan, karena tidak menginginkan penyelesaian dari persamaan (3.17 ) tak bebas pada satuan persoalan. Dengan bobot matriks ini dan Norm ini penyelesaian tunggal dari persamaan (3.17) adalah

(DFP)Bk+1 = (I − ρkyksTk )Bk(I − ρkskykT ) + ρkykykT ,

(3.22)

dengan

ρk

=

1 ykT sk

.

(3.23)

Invers Bk di tulis Hk = Bk−1. Sehingga Hk+1 dapat di tulis dalam bentuk

(DFP)

Hk+1

=

Hk



HkykykT Hk ykT Hkyk

+

skskT ykT sk

.

(3.24)

Untuk persamaan garis potong (secent) (Bk+1sk = yk) di tulis

Hk+1yk = sk

Analog

Subject

min H − Hk
H

(3.24(a))

H = HT , Hyk = sk.

(3.25)

Matriks bobot W adalah matriks memenuhi W sk = yk sehingga solusi tunggal Hk+1 pada persamaan (3.24(a)) adalah

(BFGS) Hk+1 = (I − ρkskykT )Hk(I − ρykskT ) + ρskskT ,

(3.26)

Universitas Sumatera Utara

15

dimana ρk didefinisikan pada persamaan (3.22) dan menggunakan Shermen - Morrison - Woodbury formula diperoleh

(BFGS)

Bk+1

=

Bk



BksksTk Bk sTk Bksk

+

yk ykT ykT sk

.

(3.27)

Algoritma ( BFGS ) Dimulai dengan titik X0 konvergen toleransi ε > 0, pendekatan Invers Hessi H0; k←0 while ∇fk > ε;

dihitung search direction

Pk = −Hk∇fk;

(3.28)

Set Xk+1 = Xk + αkPk dimana dari arah pencarian Prosedur memenuhi kondisi Wolfe. Definisikan sk = xk+1 − xk dan yk = ∇fk+1 − ∇fk; Hitung Hk+1 dengan rata-rata dari penyelesaian (Hk+1); k ← k + 1; end(while).

Metode SR 1 ( Symmetric - rank 1 ) Bentuk umum dari simetris- rank 1 dapat di tulis dalam bentuk

Bk+1 = Bk + σvvT ,
dimana σ pada +1 atau −1 dan σ dan v memilih Bk+1 memenuhi persamaan Secant;

yk = Bk+1sk. Substitusi kedalam persamaan (3.15) sehingga diperoleh yk = Bksk + [σvT sk]vϑ = δ(yk − Bksk) untuk skalar δ. Substitusi bentuk v ke dalam persamaan (3.28)

(3.29)

diperoleh

(yk − Bksk) = σδ2[sTk (yk − Bksk)](yk − Bksk),

(3.30)

Universitas Sumatera Utara

16

dengan memilih parameter δ dan σ sehingga

α = Sign[skT (yk − Bksk)], δ = ±|skT (yk − Bksk)|−1/2.

Ditunjukkan hanya simetris-rank 1 diperbarui formulasi yang memenuhi persamaan secant adalah

(SR-1)

Bk+1

=

Bk

+

(yk

− Bksk)(yk − Bksk)T (yk − Bksk)T sk

.

(3.31)

Dengan menggunakan formula Sherman-Morrison diperoleh formula yang diperbarui untuk Invers Hessi pendekatan Hk yaitu

(SR-1)

Hk+1

=

Hk

+

(sk

− Hkyk)(sk − (yk − Hksk)T

Hk yk

yk

)

.

(3.32)

Algoritma (SR 1 TRUST - REGION METHODE) Dimulai dengan titik x0 Pendekatan Awal Hessi B0, jari-jari trust Region ∆0, konvergen toleransi ε > 0, parameter η ∈ (0, 10−3) dan r ∈ (0, 1); K ← 0; While ∇fk > ε;

Menghitung sk dengan penyelesaian sub soal

min
s

∇fkT

s

+

1 2

sT

Bks

subject

to

s ≤ ∆k;

(3.33)

Hitung Yk = ∇f (xk + Sk) − ∇fk,

Ared = fk − f (Xk + Sk) (actual redoction)

Pred

=

−(∇fkT

Sk

+

1 2

SkT

BkSk

)

(

predicted

reduction

);

if ared/pred > η

xk+1 = xk + Sk; else

xk+1 = xk;

Universitas Sumatera Utara

17

end (if)

if ared/pred > 0,75

if sk ≤ 0, 8∆k

∆k+1 = ∆k; else

∆k+1 = 2∆k; end (if)

else if 0, 1 ≤ ared/pred ≤ 0, 75

∆k+1 = ∆k;

else

∆k+1 = 0, 5∆k; end (if)

if ( 3.32 ) holds

Gunakan persamaan ( 3.31 ) untuk menghitung Bk+1 ( jika kejadian xk+1 = xk )

else

Bk+1 ← Bk; end (if)

k ← k + 1;

end (while).

Andaikan f : Rn → R. adalah fungsi kuadratik Strongly Convex f (x) = bT x +

1 2

xT

Ax

di

mana

A

matriks

simetris

definite

positif.

Maka

untuk

titik

Awal

x0

dan

matriks simetris awal H0, konvergen pada minimisasi pada step ke n.

Buktikan (sk − Hkyk)T yk = 0; ∀k.

Dengan kata lain, jika pada step ke-n dilakukan. Jika Search Direction p bebas

Universitas Sumatera Utara

18
linear maka Hn = A−1 Analisa konvergen dari metode SR-1. Andaikan iterasi xk yang di bangun oleh algoritma. Andaikan memenuhi kondisi .

1. Barisan dari iterasi bukan akhir , tetapi tersisa menutupi Convex set D ( menutupi convex set D ) yang mana fungsi f adalah terdiferensial continue ke dua dan f mempunyai titik tetap tunggal x∗;
2. Hessian ∇2f (x∗) definite positif dan ∇2f (x∗) continue Lipschits pada Neighborhood dari x∗;
3. Barisan dari matriks {Bk} berbatas pada Norm;
4. Kondisi (4.24) diperoleh pada setiap iterasi, dimana r ∈ (0, 1).

Maka

lim
k→∞

xk

=

x∗

dan

diperoleh

lim
k→∞

xk+n+1 − x∗ xk − x∗

= 0.

3.5 Kesalahan (error) dari Algoritma Conjugate Gradient

Pendekatan kreatif diusulkan oleh Hestenes dan Stiefel pada 1952 . Membangun metode Arah Conjugate yang mana menghitung arah pk hanya pada basis sebelum arah dan rangkaian gradient dengan menggunakan persamaan berikut ini

pk = −rk + βkpk−1 = −gk + βpk−1

dimana βk koefesien tak bebas dari rangkaian data iterasi sebelumnya, karena pk dan pk−1 asumsi menjadi conjugate

PkT Apk−1 = −rkT pk−1 + βkpTk−1Apk−1 = 0

βk dapat dihitung dengan formula

βk

=

rkT Apk−1 pTk−1 Apk−1

.

Dengan asumsi P1 = −g1. Algoritma → (algoritma conjugate gradient)

(3.34)

Universitas Sumatera Utara

1. Memilih sembarang x1 ∈ ℜn. Himpunan p1 = −r1 = −g1 dan k = 1.

19

2. Menentukan αk yang mana f minimum pada garis

Lk

=

{x



ℜn

:=

xk

+

αpk, x



ℜ}αk

=

rkT pk pTk Apk

.

3. Substitusi xk + αkpk untuk xk+1, jika γk+1 = 0 maka stop, untuk yang lainnya, hitung βk+1 dengan menggunakan

βk+1

=

rkT+1 Apk pkT+1 Apk

(3.35)

dan Pk+1 menurut Pk+1 = −rk+1 + βk+1Pk dimana rk+1 = Axk+1 − b = gk+1.

4. Membalik k ke nilai 1 dan ke langkah 2.

Alternatif untuk formula βk pertama amati ck ck = rkT pk = rkT (−rk + βkpk−1) = − rk 2 .

gunakan relasi persamaan (3.34) dan

rk 2 = (rk + αkApk)T rkT+1 = rkT+1rk − ckβk+1

untuk βk+1 Sehingga

βk+1 =

rk+1

2 − rkT+1rk rk 2

=

rkT+1(rk+1 − rk 2

rk) .

βk+1 =

rk+1 rk

2

2

.

(3.36)

Teorema 3.2 Andaikan titik xk dibangun oleh algoritma Conjugate Gradient, bukan titik minimum dari f. Maka

Span{r1, r2, . . . , rk+1} = k(r1, k)
Span{p1, p2, . . . , pk+1} = k(r1, k) pkT Api = 0; i = 1, 2, 3, . . . , k − 1 rkT ri = 0; i = 1, 2, 3, . . . , k − 1

(3.37) (3.38) (3.39) (3.40)

Universitas Sumatera Utara

BAB 4 PEMBAHASAN

Untuk pembahasan Bab 4 menggunakan definisi dasar, teorema, dan algoritma yang terdapat dalam Bab 3. Kosentrasi ditujukan pada persoalan minimisasi tak berkendala berbentuk

min f (x), x ∈ Rn

((P))

dengan f merupakan dua kali fungsi yang dapat dideferensialkan secara kontinu. Bila demensi (P) besar, metode Conjugate Gradient secara khusus mempergunakan sifat-sifatnya. Metode klasik Conjugate Gradient bertujuan menyelesaikan (P) dengan menggunakan urutan pencarian garis (line search)

xx+1 = xk + tkdk, k = 1, 2, . . .
dengan tk adalah langkah yang panjang dan arah pencarian dk berasal dari bentuk persamaan berikut ini
dk = −gk + βkdk−1
dengan gk = ∇f (xk). Terdapat banyak formula untuk menghitung koefesien βk; Liu dan Storey mengusulkan suatu metode Conjugate Gradient baru, di mana arah pencarian berasal dari bentuk persamaan berikut ini

dk = −αkgk + βkdk−1, αk > 0,

(4.1)

dengan mempertimbangkan pengaruh pencarian garis yang tidak tepat. Ditulis

pendekatan Newton dari f (xk+1), yaitu :

F

(xk

+

tk dk )

=

f (xk)

+

(gkT

dk )tk

+

1 2

(dTk

Hk dk )t2k ,

k



2,

dimana Hk = ∇2f (xk) adalah Hessi dari f di xk. Jika Hk definite positif, maka

min
tk>0

F

(xk

+

tkdk )



f (xk)



F

(xk

+

dk )



f (xk).

(4.2)

Akhirnya, untuk membuktikan pencarian garis, Liu dan Storey (1991) mengajukan (αk, βk) pada (4.1) sebagai minimisasi dari ruas kanan persamaan (4.2) yaitu dari fungsi

Φ(

,

β)

=

f (xk

+

dk )



f (xk)

=

(gkT

dk )tk

+

1 2

(dTk

Hk dk )tk2 ,

k



2.

Universitas Sumatera U20tara

21

Dengan menghitung langsung koefesien αk dan βk dari pencarian arah akan dike-

tahui dengan

dimana

αk

=

1 Dk

[

gk

2 vk − (gkT dk−1)wk],

βk

=

1 Dk

[

gk

2 wk − (gkT dk−1)uk],

(4.3) (4.4)

uk = gkT Hkgk, vk = dTk−1Hkdk−1, wk = gkT Hkdk−1, dk = ukvk − wk2 > 0.

(4.5) (4.6) (4.7)

Liu dan Storey (1991) telah menunjukan bahwa algoritma Conjugate Gradient

secara global konvergen dalam kondisi pencarian garis

F (xk

+ tkdk) − f (xk)



σ1tk∇f (xk)T dk, 0

<

σ1

<

1 2

|∇f (xk + tkdk)T dk| ≤ −σ2∇f (xk)T dk, 0 < σ1 < σ2 < 1,

(4.8) (4.9)

jika diasumsikan level himpunan L = {x|f(x) ≤ f(x0)} adalah melambung. Kondisi yang paling utama dari teorema kovergensinya adalah

uk > 0, vk > 0,

(4.10)

1−

wk2 ukvk



1 4rk

,



>

rk

>

0,

uk gk 2

vk dk 2

−1
≤ rk, ∞ > rk > 0.

(4.11) (4.12)

Pada tulisan ini dibahas Conjugate Gradient dari Liu dan Storey (1991) sebagai

algoritma LS. Untuk menghindari penghitungan dan penyimpanan dari Hk, Liu

dan Storey menawarkan perhitungan pendekatan uk, vk dan wk dengan menggu-

nakan beberapa bentuk dari pendekatan yang berbeda

uk

=

1 γk

gkT

(∇f

(xk

+

γk gk )



gk),

(4.13)

vk

=

1 δk

dTk−1

(∇f

(xk

+

δkdk) − gk),

wk

=

1 δk

dkT

(∇f

(xk

+

δk dk )



gk),

(4.14) (4.15)

dimana δk dan γk adalah bilangan positif terkecil yang sesuai. Untuk menghindari

beberapa evaluasi gradient tambahan penghitungan vk dan wk dengan menggu-

nakan relasi

Hkdk−1



1 tk−1

(gk



gk−1 ),

(4.16)

Universitas Sumatera Utara

22

diperoleh dari teorema nilai rata-rata. Karena kondisi (4.10) harus dipenuhi, Hk harus definite positip. Telah diketahui hal ini memungkinkan, karena secara umum hanya beberapa neighborhood dari suatu lokal minimum. Sebagai tambahan, jika fungsi evaluasi berharga waktu lebih baik mengevaluasinya sejarang mungkin. Tulisan ini mengusulkan perhitungan uk, vk dan wk dengan menggunakan formula pendekatan BFGS sehingga (4.10) dan menghilangkan evaluasi gradient tambahan. Pada bagian selanjutnya akan diturunkan algoritma LS dengan menggunakan pendekatan BFGS.

4.1 Algoritma LS-BFGS

Karena algoritma LS menggunakan pendekatan BFGS dimana limit memori BFGS algoritma adalah global konvergen jika fungsi k kontinu di deferensial ke-2 dan Hessi berbatas uniform. Dengan memisalkan Zk−1 adalah rentangan dari −gk dan dk−1 dan Qk−1 adalah −gk dan dk−1. Misalnya Zk−1 = rentang{−gk, dk−1} dan Qk−1 = (−gkdk−1). Metoda LS merupakan metoda- Newton yang berdimensi dua, artinya metode ini menggunakan arah baru pada titik xk, dan arah Newton dibatasi dari f ke Zk−1. Sebenarnya Zk−1 merupakan Hessi dari f di titik terbaru aliranya adalah

H˜k = QkT−1, HkQk−1,

(4.17)

dimana Hk = ∇2f (xk); dan gradientnya adalah g˜k = QkT−1gk. Akhirnya arah yang terbaru diberikan oleh

dk = −(Qk1H˜k−1QTk−1gk,

(4.18)

atau dalam bentuk perluasan dk = αkgk + βkdk−1, dimana

αk βk

= −H˜k−1g˜k

(4.19)

Hal yang menarik dari analisis Liu dan Storey adalah analisa ini dapat menggantikan matriks H˜k yang diberikan dengan menggunakan teknik- teknik Quasi-
Newton.

Seluruh kuantitas ( vektor dan matriks ) dalam mengubah ruang Zk akan ditandai
dengan diletakkannya tanda ∼ terhadap rumus yang belum ditransformasikan. Matriks H˜k yang dikemukakan dengan formula (4.17) berasal dari bentuk berikut
ini H˜k = −uwk k −vwk k

Universitas Sumatera Utara

23
dan kondisi (4.11) dapat ditulis berbentuk
0 < ukvk/(4rk) ≤ ukvk − wk2 = det H˜k.
Selanjutnya pada setiap iterasi ke-k pada (4.11) diberikan suatu batas dari bawah untuk ditentukan kondisi (4.10)−(4.11). Dalam hal ini dapat dipastikan H˜k adalah definite positif. Sebelum matriks definite positif meletakkan Hk pada (4.18) perlu mengetahui sesuai tidaknya algoritma konvergensi. Akibat 1. Andaikan level himpunan L dari f dibatasi ( bounded ) dan kondisi pencarian garis (4.8) − (4.9). Misalkan
H˜k = −uwk k −vwk k

adalah matriks 2 × 2 yang memenuhi (4.10)-(4.12) dan Qk−1 = (−gkdk−1). Maka ada type algoritma LS dengan pencarian arah diberikan oleh

dk = −(Qk−1H˜k−1QkT )gk

(4.20)

adalah konvergen.
Bukti. Karena Liu dan Storey (1991) menggunakan besaran kuantitas uk, vk dan
wk tanpa menggantinya dengan (4.5) − (4.7) konsekuensinya menjadi valid. Dicatat juga bahwa, jika H˜k memenuhi (4.11 ) maka wk < √ukvk dan karena itu gkT dk < 0. Akibat 1 dapat juga menggunakan (4.18) atau (4.19) dengan matriks definite poisitif lainnya memenuhi (4.10)-(4.12) bukan H˜k yang dikemukakan pada formula (4.17). Karena Hˆk adalah Hessi yang di reduksi, dapat mengganti pendekatan
Hessi yang di reduksi dengan menggunakan formula BPGS yang diperbaiki.

Misalkan ∆xk = xk+1 − xk dan ∆gk = gk+1 − gk dengan ∆xkT ∆gk > 0. Formula koreksi BFGS yang diperbaiki membangun suatu pendekatan pada matriks Hessi dari f yang didefinisikan oleh

Hk+1 = UBF GS (∆xk, ∆gk, Hk)

(4.21)

yang ekuivalen dengan

Hk+1

=

Hk

+

∆gk∆gkT ∆xTk ∆gk



Hk ∆xk∆xkT ∆xkT Hk∆xk

.

(4.22)

Universitas Sumatera Utara

24

Disini akan dipergunakan fungsi perbaikan dengan (4.21), yang diperkenalkan oleh Dennes dan More. Untuk menuliskan (4.22), menggunakan argumen yang sesuai, seperti dalam metode Nazareth‘s. Skema umum untuk memutakhirkan Hˆk pada masing-masing iterasi adalah sebagai berikut:
i. H¯k = QkT HkQk proyeksi dari Hk diatas Zk = span {−gk+1, dk}. ii. ∆x˜k = QkT ∆xk, ∆g˜k = QTk ∆gk. iii. Jika ∆x˜Tk ∆g˜k > 0 maka gunakan formula BFGS yang diperbaiki
Hˆk+1 = UBF GS(∆x˜k, ∆g˜k, H¯k).
iv. Mengembangkan pendekatan terhadap seluruh ruang Rn.

Pada skema ini, titik-titik krusial adalah ( iii ) dan ( iv ). Hubungan ∆x˜k∆g˜k > 0 perlu untuk memastikan bahwa H˜k+1 adalah definite positif. Pencarian garis (4.8)-(4.9) tidak hanya akan menjamin bahwa ∆x˜k∆g˜k > 0. Sehingga pengguna dapat menemukan relasi diantara pencarian garis (4.8)−(4.9) dan hasil kali dalam
∆x˜k∆g˜k. Teorema di bawah ini memberikan hubungan yang dimaksud.

Teorema 4.1 Jika di dalam pencarian garis kondisi diberhentikan pada (4.8) − (4.9), ∆x˜k∆g˜k > 0 jika dan hanya jika

− dk 2 /σ2 < gkT ∆gk < (1 − σ2) dk 2 /σ2.

(4.23)

Bukti .

Dari bentuk Qk = (−gk+1dk) mempunyai

∆x˜k = tk

−dgTkkT

dk dk

dan

∆g˜k =

−dgTkkT

gk gk

.

Maka

∆x˜Tk ∆g˜k = tk[(gkT dk)(gkT ∆gk) + (dTk dk)dTk ∆gk].

(4.24)

Dapat diperhatikan jika ∆xkT ∆gk > 0 menyatakan secara tidak langsung dTk ∆gk > 0. Istilah persoalan dalam formula (4.24) merupakan ruas pertama pada sisi kanan. Akan tetapi dari (4.8) − (4.9) diketahui bahwa

gkT dk ∈ [σ2gkT dk, −σ2gkT dk].

Universitas Sumatera Utara

25

Terpenuhi. Jika gkT+1∆gk > 0 maka

∆x˜Tk ∆g˜k ≥ tk[σ2(gkT dk)(gkT gk) + d2 2 (σ2 − 1)gkT dk].

Dengan menggunakan σ2(gkT dk) sebagai vektor, hal itu akan mengikuti

∆x˜kT ∆g˜k > tkσ2(gkT dk)[gkT ∆gk) + (σ2 − 1) d2 2 /σ2 > 0.

Dengan cara yang sama, dapat ditentukan bahwa jika gkT ∆gk < 0 maka

∆x˜Tk ∆gk > −tkσ2(gkT dk)[gkT ∆gk) + d2 2 /σ2 > 0.

Jika diperoleh ∆x˜Tk ∆g˜k > 0,

(gkT dk)(gkT ∆gk) + (dTk dk)dkT ∆gk > 0.

Jika gkT dk > 0, dapat digunakan rumus

gkT ∆gk > − d2 2 (dTk ∆gk)/(gkT dk).

Karena dTk ∆gk = dkT gk+1 − dkT gk > −gkT dk dan gkT dk ≤ −σ2gkT dk, maka diperoleh

gkT+1∆gk < − d2 2 /σ2.

Jika gkT dk < 0,

gkT ∆gk < − d2 2 (dTk ∆gk)/(gkT dk),

−dkT ∆gk = −dkT gkT+1 + dTk gk < (1 − σ2)gkT dk dan gkT+1dk > σgkT dk,

diperoleh

gkT+1dk < (1 − σ2) dk 2 /σ2.

Pertidaksamaan (4.23) menunjukan bahwa hubungan antara parameter pencarian

garis σ2 dan hasil kali dalam ∆x˜kT ∆g˜k. Semakin besar nilai σ2 akan menurunkan interval yang diketahui dengan formula (4.23) karena ∆x˜Tk ∆g˜k > 0. Jika pencarian garis yang tepat digunakan untuk menentukan panjang langkah tk, ∆xkT ∆gk > 0 mengimplikasikan ∆x˜kT ∆g˜k > 0. Jika ∆x˜Tk ∆g˜k > 0 dengan H¯k = QTk HkQk proyeksi Hessi Hk ke dalam Zk. Di sini akan menghitung H˜k+1 menggunakan formula BFGS yang diperoleh pada
(4.22). Untuk memperluas pendekatan Hessi ini sampai keseluruh ruang Rn, harus menetapkan Q¯k = (pkqk), orthonormalized bentuk dari Qk dengan

pk = −

1 gk

gk+1,

qk =

1 sk

(dk



gkT+1 dk gk+1 2

gk+1

),

Universitas Sumatera Utara

26

dimana

sk =

gk

2



(gkT dk)2 gk 2

1/2
.

(4.25)

Perlu digarisbawahi bahwa sifat utama Q¯k adalah Q¯kQ¯Tk z = z untuk setiap z ∈ Zk. Sehingga
(In − Q¯kQ¯kT )gk+1 = 0, (In − Q¯kQ¯kT )dk = 0.

Kolom

dari

(In − Q¯kQ¯Tk )T

membangun

Z

1 k

dan

Hk+1 = QkH˜k−1QkT + (In − Q¯kQ¯Tk ),

(4.26)

memberikan perluasan dari invers Hessi Hk−1 keseluruh ruang Rn. Maka arah pencarian baru akan diketahui dengan

dk+1 = −Hk+1gk+1 = −(QkH˜k−1QTk )gk+1.
Formula (4.26) hanya digunakan untuk menghitung proyeksi H¯k dari Hessi Hk kedalam subruang (supspace) atas Zk = rentang{−gk+1, dk}. Dan akan didekati dengan formula

H¯k = (QTk Qk−1)H˜k(QTk Qk−1)T + QTk Qk − (QkT Q¯k−1)(qkT Q¯k−1)T ,

(4.27)

matriks 2×2 digunakan sebagai pendekatan awal untuk Hessi pada formula BFGS yang diperbaikai. H¯k dapat dihitung lebih efesien menggunakan hasil kali vektor
gk+1, dk, gk dan dk−1.

Algoritma LS, BFGS

0. k ← 0, d0 ← −g0. Line search (4.8)-(4.9): x1 = x0 + t0d0 Q0 = (−g1d0); ←˜ I2
1. If gk+1 < ǫ, then STOP otherwise k ← k + 1.
2. If k > n then go to 7.
3. dk = −αkgk + βkdk−1 Line search (8)-(9): xk+1 = xk + tkdk ∆xk = xk+1 − xk; ∆gk = gk+1 − gk.
Universitas Sumatera Utara

27

4. If σ2(gkT ∆dk) ≤ − gk+1 2 or σ2(gkT ∆dk) ≥ −(1 − σ2) gk+1 2 then go to 7.
5. = (−gkT+1dk); ∆x˜k = QkT ∆xk; ∆g˜k = QkT ∆gk; g˜k+1 = QkT gk+1; Vk = QTk Qk−1; Wk = QTk Q¯k−1 and H¯k = VkT H˜kVk + QkT Qk − WkT Wk. BFGS update: H˜k+1 = UBFGS(∆x˜k, ∆g˜)k, H¯k) with formula (4.22).
6. If 1 − wk2+1/(uk+1vk+1) ≥ 1/(4rk+1) and uk+1 dk 2 /(vk+1 gk+1 2 ≤ rk+1,k+1 > 0, Then (αk+1βk+1)T = −H˜k−1g˜k+1 and go to 1.
7. x0 ← xk and go to 0.

Untuk mendapatkan H˜k−1, dapat menggunakan pendekatan invers Hessi yang dire-
duksi dari f, tetapi, untuk ini harus mendapatkan kebalikan kondisi teorema kon-
vergensi dari Liu dan Storey (1991) Akibat 2 Misalkan H˜k = wu¯¯kk wv¯¯kk Adalah matriks 2 × 2 sedemikian hingga

i. H˜k adalah definite positif,

ii.

1−

w¯k2 u¯k v¯k



1 4rk

,



>

rk

>

0,

iii.

v¯k dk−1 2

u¯k gk 2

−1
≤ rk, ∞ > rk > 0.

Menurut kondisi pencarian garis (4.8)−(4.9), untuk setiap algoritma tipe LS yang lain dengan arah pencarian diketahui, akan diberikan oleh

dk = −(Qk−1H˜kQkT )gk,

(4.28)

sehingga konvergen. Formula BFGS yang diperbaiki pada (4.22) akan digantikan dengan

H˜k+1 = H¯k +

1

+

δg˜kT H¯k∆g˜k ∆x˜Tk ∆g˜k

∆x˜k∆g˜kT ∆x˜kT ∆g˜k



∆x˜k∆g˜kT H¯k + H¯k∆g˜k∆x˜kT ∆x˜Tk ∆g˜k

yang membangun invers pendekatan Hessi. Untuk menghitung pendekatan baru dari H˜k pada langkah 5 dari algoritma LSBFGS, perlu menghitung 10 Inner products dan 7 Inner products terbaik. Jika
dk−1 2 , gk 2 dan sk (diberikan oleh (4.25)) dihitung dengan iterasi sebelumnya . Algoritma SAR membutuhkan jumlah operasi yang sama banyaknya untuk

Universitas Sumatera Utara

28
menghitung H˜k. Versi yang paling ekonomis untuk menghitung αk dan βk dengan metode LS dengan menggunakan (4.13) dan (4.16) dan untuk menghitung gradient memerlukan perhitungan 6 Inner products. Algoritma LS-BFGS (atau algoritma SAR) lebih menguntungkan jika dihitung ∇f (atau f) dengan menggunakan waktu lebih daripada menghitung 6 Inner products.
4.2 Algoritma dan Implementasinya
Setelah diuji algoritma baru yang dikemukakan pada bagian 2, pada bagian ini akan dibahas algoritma LS yang dikemukakan oleh Hu dan Storey dan algoritma SAR pada Nazareth. Dalam hal ini akan digunakan jenis pencarian yang diberikan oleh Gilbert dan Nocedal dengan langkah awal
t0 = min{2, 2(f (xk) − f ∗)/gKT dk},
dimana f∗ adalah perkiraan nilai fungsi optimal untuk semua pengujian masalah akan ditetapkan f∗ = 0, karena nilai fungsi optimal harus nonnegatif parameter pencarian garis pada (4.8) − (4.9) adalah
σ1 = 0, 0001 dan σ2 = 0, 1
Pada semua kasus, kondisi akan dihentikan bila
gk < 10−5 max(1, xk ).
Barisan {rk} diperlukan untuk menguji keko