Analisis Pengaruh Panjang Bit Kode Pada Kinerja Program Kompresi Yang Menggunakan Algoritma Lempel Ziv Welch (LZW)
ANALISIS PENGARUH PANJANG BIT KODE PADA KINERJA PROGRAM KOMPRESI YANG MENGGUNAKAN
ALGORITMA LEMPEL ZIV WELCH (LZW)
SKRIPSI
Diajukan untuk melengkapi tugas akhir dan memenuhi syarat mencapai gelar Sarjana Komputer
FAHRUR RAZI 041401023
PROGRAM STUDI S1 ILMU KOMPUTER DEPARTEMEN ILMU KOMPUTER
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA
MEDAN
2009
(2)
PERSETUJUAN
Judul : ANALISIS PENGARUH PANJANG BIT KODE
PADA KINERJA PROGRAM KOMPRESI YANG MENGGUNAKAN ALGORITMA LEMPEL ZIV WELCH (LZW)
Kategori : SKRIPSI
Nama : FAHRUR RAZI
Nomor Induk Mahasiswa : 041401023
Program Studi : SARJANA (S1) ILMU KOMPUTER
Departemen : ILMU KOMPUTER
Fakultas : MATEMATIKA DAN ILMU PENGETAHUAN
ALAM (FMIPA) UNIVERSITAS SUMATERA UTARA
Diluluskan di
Medan, 10 Maret 2009
Komisi Pembimbing :
Pembimbing 2 Pembimbing 1
Drs. Haluddin Panjaitan Prof. Dr. Herman Mawengkang
NIP 130 701 888 NIP 130 442 447
Diketahui/Disetujui oleh Prog. Studi Ilmu Komputer S-1 Ketua,
Prof. Dr. Muhammad Zarlis NIP. 131 570 434
(3)
PERNYATAAN
ANALISIS PENGARUH PANJANG BIT KODE PADA KINERJA PROGRAM KOMPRESI YANG MENGGUNAKAN
ALGORITMA LEMPEL ZIV WELCH (LZW)
SKRIPSI
Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya
Medan, 10 Maret 2009
FAHRUR RAZI 041401023
(4)
PENGHARGAAN
Syukur Alhamdulillah penulis nyatakan kehadirat ALLAH SWT Yang Maha Pengasih dan Maha Penyayang, dengan limpahan rahmat dan karunia-Nya skripsi ini berhasil diselesaikan dalam waktu yang telah ditetapkan.
Ucapan terima kasih saya sampaikan kepada Bapak Prof. Dr. Herman Mawengkang dan Bapak Drs. Haluddin Panjaitan, selaku pembimbing pada penyelesaian skripsi ini yang telah memberikan panduan dan penuh kepercayaan kepada saya untuk menyempurnakan skripsi ini. Panduan ringkas, padat dan profesional yang telah diberikan kepada saya agar penulis dapat menyelesaikan tugas ini. Ucapan terima kasih juga ditujukan kepada Ketua dan Sekretaris Departemen Prof.Dr.Muhammad Zarlis dan Bapak Syahriol Sitorus, S.Si, M.IT., Dekan dan Pembantu Dekan Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara, semua dosen pada Departemen Ilmu Komputer FMIPA USU, pegawai di Ilmu Komputer USU, dan rekan-rekan kuliah. Akhirnya, tdak terlupakan kepada bapak, ibu dan semua ahli keluarga yang selama ini memberikan bantuan dan dorongan yang diperlukan. Semoga Tuhan Yang Maha Esa membalasnya.
(5)
ABSTRAK
Algoritma LZW adalah algoritma kompresi yang berjenis dictionary coding dimana panjang bit kode adalah salah satu faktor yang sangat menentukan pada kinerja kompresi. Namun kompresi dengan menggunakan panjang bit yang tidak tepat menyebabkan hasil kompresi tidak optimal. Cara pemecahan masalah adalah beberapa panjang bit dicoba menggunakan program kompresi yang menggunakan LZW, sehingga didapatkan kesimpulan bagaimana pengaruh panjang bit kode yang digunakan pada kinerja program kompresi yang mengggunakan algoritma LZW. File-file yang dicoba adalah Calgary Corpus dan Canterbury Corpus. Dari penelitian ini didapatkan hasil bahwa pada Calgary Corpus panjang bit kode yang paling optimal adalah 14 bit, pada Canterbury Corpus 13 bit, dan pada Canterbury Corpus Large File 19 bit.
(6)
THE EFFECT OF CODEWORD LENGTH TO PERFORMANCE OF COMPRESSION PROGRAM USED LZW ALGORITHM
ABSTRACT
LZW algorithm is compression algorithm based on dictionary coding where codeword length is a factor that very important to performance of LZW algorithm. But compression with bad codeword length result not optimal compression ratio. Problem solving method are some codeword length are test with program based on LZW, with the result conclusion how effect codeword length to performance of compression program used LZW algorithm. Test file are Calgary Corpus and Canterbury Corpus. From research the result are in Calgary Corpus optimal codeword length is 14 bit, in Canterbury Corpus optimal codeword length is 13 bit, and in Canterbury Corpus Large File optimal codeword length is 19 bit.
(7)
DAFTAR ISI
Halaman
Persetujuan ii
Pernyataan iii
Penghargaan iv
Abstrak v
Abstract vi
Daftar Isi vii
Daftar Tabel ix
Daftar Gambar x
Bab 1 Pendahuluan 1
1.1Latar Belakang 1
1.2Perumusan Masalah 2
1.3Batasan Masalah 2
1.4Tujuan 2
1.5Manfaat 2
1.6Tinjauan Pustaka 3
1.7Metodologi Penelitian 4
1.8Sistematika Penulisan 4
Bab 2 Landasan Teori 6
2.1 Pengertian Kompresi 6
2.2 Metode Kompresi 7
2.3 Rasio Kompresi 7
2.4 Dictionary Coding 7
2.5 Algoritma Lempel Ziv 77 (LZ77) 9
2.6 Algoritma Lempel Ziv 78 (LZ78) 12
2.7 Algoritma Lempel Ziv Welch (LZW) 15
2.8 Struktur Data pada Dictionary 19
2.8.1 Struktur Data Binary Tree 19
Bab 3 Perancangan dan Implementasi Perangkat Lunak 21
3.1 Karateristik Algoritma LZW 21
3.1.1 Proses Kompresi LZW 21
3.1.2 Proses Dekompresi LZW 24
3.2 Pemodelan Fungsional 24
3.2.1 DFD Level 0 ( Context Diagram ) 25
3.2.2 DFD Level 1 26
3.2.3 DFD Level 2 27
(8)
3.2.5 Perancangan Struktur Data 31
3.2.6 Perancangan Prosedural 31
3.3 Perangkat Keras Dan Perangkat Lunak Pengujian 37
3.4 Implementasi Antarmuka 37
Bab 4 Analisis Pengaruh Panjang Bit Kode pada Kinerja Program Kompresi yang
Menggunakan Algoritma LZW 42
4.1 File Yang Dicoba 42
4.1.1 Calgary Corpus 42
4.1.2 Canterbury Corpus 43
4.2 Analisis Pengaruh Panjang Bit Kode pada Program Kompresi yang
Menggunakan Algoritma LZW 43
4.2.1 Analisis Pada Calgary Corpus 44
4.2.2 Analisis Pada Canterbury Corpus 51
4.2.3 Analisis Menggunakan Canterbury Corpus Large File 53
Bab 5 Penutup 56
5.1 Kesimpulan 56
5.2 Saran 56
(9)
DAFTAR TABEL
Halaman
Tabel 2.1 Proses kompresi 17
Tabel 2.2 Proses dekompresi 19
Tabel 3.1 Contoh proses kompresi 22
Tabel 3.2 Contoh proses dekompresi 24
Tabel 3.3 Spesifikasi proses context diagram perangkat lunak kompresi LZW 26
Tabel 3.4 Spesifikasi proses diagram level 1 P.0 27
Tabel 3.5 Spesifikasi proses diagram level 2 P.1 28
Tabel 3.6 Spesifikasi proses diagram level 2 P.2 29
Tabel 3.7 Kamus data 30
Tabel 4.1 Daftar ukuran file pada Calgary Corpus 45
Tabel 4.2 Hasil pengujian rata-rata rasio algoritma LZW pada Calgary Corpus 46 Tabel 4.3 Hasil pengujian waktu proses rata-rata kompresi algoritma LZW pada
Calgary Corpus 48
Tabel 4.4 Jumlah item rata-rata proses kompresi algoritma LZW pada Calgary
Corpus 50
Tabel 4.5 Daftar ukuran file pada Canterbury Corpus 51
Tabel 4.6 Hasil pengujian rata-rata rasio algoritma LZW pada Canterbury Corpus 52 Tabel 4.7 Hasil pengujian rasio algoritma LZW pada Canterbury Corpus Large File 54
(10)
DAFTAR GAMBAR
Halaman
Gambar 2.1 Ilustrasi contoh cara kerja algoritma LZ77 9
Gambar 2.2 Ilustrasi penggeseran window pada algoritma LZ77 10
Gambar 2.3 Ilustrasi penggunaan token (offset,length) 10
Gambar 2.4 Ilustrasi contoh fragmen lookahead yang terdapat pada history 11
Gambar 2.5 Ilustrasi implementasi dari algoritma LZ77 12
Gambar 2.6 Ilustrasi proses encoding algoritma LZ78 14
Gambar 2.7 Ilustrasi proses decoding algoritma LZ78 15
Gambar 2.8 Ilustrasi binary tree 20
Gambar 3.1 Ilustrasi binary tree pada proses kompresi 23
Gambar 3.2 DFD level 0 25
Gambar 3.3 DFD level 1 26
Gambar 3.4 DFD level 2 Proses P.1 27
Gambar 3.5 DFD level 2 Proses P.2 28
Gambar 3.6 Flowchart proses encoding algoritma LZW 33
Gambar 3.7 Flowchart proses decoding algoritma LZW 36
Gambar 3.8 Tampilan halaman utama 38
Gambar 3.9 Tampilan proses kompresi 39
Gambar 3.10 Tampilan proses dekompresi 39
Gambar 3.11 Tampilan pencarian file 40
Gambar 3.12 Tampilan bantuan 41
Gambar 4.1 Grafik rasio rata-rata hasil kompresi algoritma LZW pada
Calgary Corpus 47
Gambar 4.2 Grafik waktu rata-rata proses kompresi pada Calgary Corpus 49 Gambar 4.3 Grafik rasio rata-rata kompresi pada Canterbury Corpus 53 Gambar 4.4 Grafik rasio rata-rata kompresi pada Canterbury Large File 55
(11)
BAB 1
PENDAHULUAN
1.1 Latar Belakang
Perkembangan teknologi komputer yang sangat pesat menyebabkan data digital menjadi media yang umum dalam masyarakat. Pemakaian data digital ini meliput i seluruh lapisan masyarakat mulai dari perseorangan, lembaga, dan bisnis. Pemakaian data digital sangat efektif karena pada media dengan ukuran relatif kecil kita dapat menyimpan sangat banyak berkas dibandingkan pada media kertas yang berukuran relatif lebih besar.
Akan tetapi media penyimpanan data digital memiliki keterbatasan dalam ukuran data yang dapat disimpan. Sedangkan data digital terus bertambah besar dan banyak sehingga pada suatu saat media penyimpanan data digital akan penuh oleh data digital tersebut.
Pengiriman data digital membutuhkan bandwidth dalam pengirimannya dan
bandwidth tersebut memerlukan biaya. Sehingga semakin besar data digital yang
dikirim maka makin besar pula biaya yang dikeluarkan. Oleh karena sebab-sebab inilah maka kompresi data menjadi solusi tepat dalam menghemat pemakaian perangkat keras serta menurunkan biaya pengiriman data melalui internet. Selain lebih murah juga mengirim data yang telah terkompresi akan lebih cepat karena ukuran file telah diperkecil.
Menurut Yair Wiseman algoritma Lempel Ziv terbagi atas dua kelompok. Kelompok pertama didasarkan pada penggunaan referensi pada data yang berulang, kelompok ini kemudian dikenal dengan LZ77 dan kelompok yang kedua menggunakan pendekatan pada pembuatan dictionary dari frase yang umum dalam
(12)
data, grup ini dikenal dengan LZ78. Menurut David Salomon algoritma LZW adalah varian dari algoritma LZ78.
Menurut Yair Wiseman algoritma LZW merupakan algoritma yang menggunakan pointer. Dan jumlah bit yang digunakan pointer akan mempengaruhi efesiensi kompresi dari kedua algoritma tersebut. Analisis akan dilakukan dengan mencoba jumlah bit pointer yang berbeda-beda sehingga dapat disimpulkan jumlah bit mana yang paling tepat pada jenis file tertentu.
1.2. Rumusan Masalah
Dari latar belakang diatas dapatlah dirumuskan masalah yang menjadi latar belakang tugas akhir ini, yaitu bagaimana pengaruh panjang bit kode pada kinerja program kompresi yang menggunakan algoritma LZW dimana kinerja tersebut diukur dengan parameter rasio file hasil kompresi dan waktu yang dibutuhkan untuk proses kompresi dan dekompresi.
1.3. Batasan masalah
Batasan masalah adalah file-file yang dicoba terbatas pada Calgary Corpus dan
Canterbury Corpus sebagai set file yang digunakan.
1.4. Tujuan
Tujuan dari penulisan tugas akhir ini adalah untuk mengetahui pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW.
(13)
Manfaat dari penulisan Tugas Akhir ini menambah pengetahuan bagaimana pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW.
1.6. Tinjauan Pustaka
Menurut David Salomon kompresi data adalah proses pengkodean informasi dengan menggunakan bit yang lebih sedikit dibandingkan dengan kode yang sebelumnya dipakai dengan menggunakan skema pengkodean tertentu. Kompresi data, terutama untuk komunikasi, dapat bekerja jika kedua pihak antara pengirim dan penerima data komunikasi memiliki skema pengkodean yang sama (Salomon, 2005).
Menurut Mengyi (2006, hal:117) Dictionary Coding adalah metode yang menggunakan sekumpulan daftar frase (kamus), yang diharapkan berisikan banyak frase yang terdapat pada file sumber, dimana kamus digunakan untuk menggantikan fragmen dari sumber dengan pointer kamus tersebut. Kompresi hanya dapat dilakukan jika pointer yang dibutuhkan kurang dari ukuran fragmen tersebut. Dalam banyak hal, metode dictionary lebih mudah dimengerti daripada metode probabilistik.
Algoritma Lempel Ziv ini terbagi atas dua varian utama yaitu LZ77 dan LZ78. Perbedaan utama kedua algoritma ini adalah pada teknik pembuatan dictionary. Pada LZ77 dictionary adalah fragmen dari sebuah window (sliding window). LZ78 menggunakan frase-frase yang pada file sebagai dictionary. Algoritma LZW adalah varian dari algoritma LZ78. Keunggulan masing-masing adalah algoritma LZ78 menggunakan struktur data yang lebih kompleks dalam mengelola penyimpanan
dictionary, LZ77 mengubah dengan cepat dictionary dan lebih cepat pada saat decoding. Pada aplikasi pemilihan skema dapat sangat kompleks karena telah
dipatenkan (Hankerson et al, 2003).
Algoritma Lempel-Ziv-Welch (LZW) menggunakan teknik adaptif dan berbasiskan “kamus” Pendahulu LZW adalah LZ77 dan LZ78 yang dikembangkan oleh Jacob Ziv dan Abraham Lempel pada tahun 1977 dan 1978. Terry Welch
(14)
mengembangkan teknik tersebut pada tahun 1984. LZW banyak dipergunakan pada UNIX, GIF, V.42 untuk modem.
Algoritma ini bersifat adaptif dan efektif karena banyak karakter dapat dikodekan dengan mengacu pada string yang telah muncul sebelumnya dalam teks. Prinsip kompresi tercapai jika referensi dalam bentuk pointer dapat disimpan dalam jumlah bit yang lebih sedikit dibandingkan string aslinya. Panjang bit yang digunakan akan berpengaruh pada rasio hasil kompresi maupun kecepatan kompresi.
1.7. Metodologi Penelitian
Metodologi penelitian yang digunakan adalah metodologi penelitian komparatif. Dimana untuk menunjukkan pengaruh panjang bit kode pada kinerja program kompresi yang menggunakan algoritma LZW, beberapa panjang bit kode dicoba untuk dibandingkan. Kinerja program kompresi tersebut diukur dari rasio file hasil kompresi dan waktu proses yang dibutuhkan. Setelah dibandingkan maka dari hasil tersebut dibuat grafik untuk mempermudah analisis pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW. Dan kemudian disimpulkan bagaimana pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW. File-file yang digunakan dalam perbandingan ini adalah Calgary
Corpus dan Canterbury Corpus.
1.8. Sistematika Penulisan
Dalam penulisan tugas akhir ini, Penulis membagi sistematika penulisan menjadi 5 Bab, yang lebih jelasnya dapat dilihat di bawah ini :
BAB 1 PENDAHULUAN
Berisi tentang latar belakang diambilnya judul Tugas Akhir “Pengaruh Panjang Bit Kode pada Kinerja Program Kompresi yang Menggunakan
(15)
Algoritma Lempel Ziv Welch”, rumusan masalah, batasan masalah, tujuan, manfaat, tinjauan pustaka, metodologi penelitian, dan sistematika penulisan Tugas Akhir yang menjelaskan secara garis besar susbstansi yang diberikan pada masing-masing bab.
BAB 2 LANDASAN TEORI
Membahas tentang pengertian pemampatan data (file compression) secara umum, metode dan cara kerja dari algoritma LZW.
BAB 3 PERANCANGAN DAN IMPLEMENTASI PERANGKAT
LUNAK
Membahas bagaimana perancangan program kompresi. Dimana perancangan sangat penting dalam pembuatan sebuah program. Pada bab ini juga dibahas mengenai hasil implementasinya pada perangkat lunak.
BAB 4 ANALISIS PENGARUH PANJANG BIT KODE PADA KINERJA PROGRAM KOMPRESI YANG MENGGUNAKAN ALGORITMA LZW
Membahas bagaimana pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW. Program yang telah implementasi sebelumnya kemudian digunakan sebagai alat penguji. Panjang bit kode yang berbeda-beda akan dicoba untuk mendapatkan kesimpulan.
BAB 5 KESIMPULAN DAN SARAN
(16)
BAB 2
LANDASAN TEORI
2.1 Pengertian Kompresi
Menurut David Salomon kompresi data adalah proses pengkodean informasi dengan menggunakan bit yang lebih sedikit dibandingkan dengan kode yang sebelumnya dipakai dengan menggunakan skema pengkodean tertentu. Kompresi data, terutama untuk komunikasi, dapat bekerja jika kedua pihak antara pengirim dan penerima data komunikasi memiliki skema pengkodean yang sama (Salomon, 2005).
Pemampatan merupakan salah satu dari bidang teori informasi yang bertujuan untuk menghilangkan redundansi dari sumber. Pemampatan bermanfaat dalam membantu mengurangi konsumsi sumber daya yang mahal, seperti ruang hard disk atau perpindahan data melalui internet (Nelson, 1996).
Kompresi data ditujukan untuk mereduksi penyimpanan data yang redundan atau merepresentasikan kembali data tersebut kedalam bentuk yang lebih efisien dari segi kapasitas. Kompresi data terdiri dari dua kategori yaitu kompresi lossy dan
lossless, dan pada citra digital kompresi jenis lossy yang sering digunakan. Kompresi
jenis lossy merupakan suatu teknik kompresi yang pada prosesnya menghilangkan sebagian dari data sehingga file tidak dapat dikembalikan secara utuh, sebaliknya kompresi lossless merupakan teknik kompresi yang tetap mempertahankan informasi asli dari suatu data secara utuh. Pada citra digital kompresi lossy merupakan kategori yang sering digunakan. Akan tetapi tidak menutup kemungkinan untuk melakukan kompresi secara lossles (Mengyi, 2006).
(17)
2.2 Metode Kompresi
Terdapat banyak metode kompresi dan metode-metode tersebut dapat dibagi menjadi: 1. Metode Lossless
Menurut Mengyi (2006, hal:5) kompresi lossless adalah kompresi data yang menghasilkan file data hasil kompresi yang dapat dikembalikan menjadi file data asli sebelum dikompresi secara utuh tanpa perubahan apapun. Kompresi jenis ini ideal untuk kompresi teks. Algoritma yang termasuk dalam metode kompresi lossless diantaranya adalah dictionary coding dan huffman coding.
2. Metode Lossy
Menurut Mengyi (2006, hal:6) kompresi data yang menghasilkan file data hasil kompresi yang tidak dapat dikembalikan menjadi file data sebelum dikompresi secara utuh. Ketika data hasil kompresi di-decode kembali, data hasil decoding tersebut tidak dapat dikembalikan menjadi sama dengan data asli tetapi ada bagian data yang hilang.
2.3 Rasio Kompresi
Menurut Mengyi (2006, hal:11) rasio kompresi adalah ukuran dari output stream dibagi dengan ukuran dari input stream. Misalnya nilai rasio kompresi adalah 0.6 itu berarti data yang terkompres menggunakan hanya 60% dari ukuran sebenarnya. Dan nilai rasio kompresi yang lebih dari 1 berarti data yang dikompres malah membesar.
Rasio = 100%
_ _ _ _ × asli file Ukuran i terkompres file Ukuran
( 2.1 )
(18)
Menurut Mengyi (2006, hal:117) Dictionary Coding adalah metode yang menggunakan sekumpulan daftar frase (kamus), yang diharapkan berisikan banyak frase yang terdapat pada file sumber, dimana kamus digunakan untuk menggantikan fragmen dari sumber dengan pointer kamus tersebut. Kompresi hanya dapat dilakukan jika pointer yang dibutuhkan kurang dari ukuran fragmen tersebut. Dalam banyak hal, metode dictionary lebih mudah dimengerti daripada metode probabilistik.
Metode dictionary yang termudah dibuat adalah metode dengan menggunakan kamus yang tetap (statis) dimana kamus ini telah ada pada coder dan decoder. Untuk file teks misalnya teks bahasa inggris, beberapa ribu kata yang paling sering digunakan sebagai dictionary. Jika file sumber adalah file yang berisi kode sumber sebuah bahasa pemrograman tertentu misalnya bahasa C, maka daftar keyword dan
standard library function dapat digunakan sebagai dictionary. Dictionary yang tetap
(statis) lebih baik untuk situasi tertentu, tetapi setidaknya terdapat dua permasalahan serius. Penambahan, perubahan, penghapusan pada dictionary harus mengubah juga seluruh program kompresi yang telah tersebar luas. Permasalah kedua adalah
dictionary yang statis tidak dapat melakukan kompresi pada teks yang tidak terdapat
pada dictionary. Misalnya bahasa pemrograman C, dimana kompresi tidak dapat dilakukan pada nama variabel yang dibuat oleh programer (Hankerson et al, 2003).
Hal yang terpenting pada metode Dictionary adalah bagaimana menciptakan algoritma yang dapat mengadaptasi seluruh jenis file sumber, dan biasanya untuk melakukan harus dilakukan scan pada file tersebut. Akan tetapi, komunikasi melalui modem yang misalnya V.42bis dimana penggunaan dictionary yang statis tidak digunakan melainkan penambahan dictionary akan dilakukan secara on-the-fly (Hankerson et al, 2003).
Metode Adaptive dictionary ditemukan oleh Ziv dan Lempel pada tahun 1977 dan 1978. Sehingga kedua algoritma tersebut kemudian dikenal luas sebagai LZ77 dan LZ78. Algoritma LZ77 telah diaplikasikan pada Lharc, PKZIP, GNU zip, Info-ZIP, dan Portable Network Graphics (PNG) yaitu format kompresi citra lossless yang
(19)
didesain sebagai penerus dari GIF. Algoritma LZ78 telah digunakan pada standar komunikasi modem (V.42bis), dan program kompres Unix bernama compress, dan pada GIF format file citra (Hankerson et al, 2003).
Algoritma Lempel Ziv ini terbagi atas dua varian utama yaitu LZ77 dan LZ78. Perbedaan utama kedua algoritma ini adalah pada teknik pembuatan dictionary. Pada LZ77 dictionary adalah fragmen dari sebuah window (sliding window). LZ78 menggunakan frase-frase yang pada file sebagai dictionary. Algoritma LZW adalah varian dari algoritma LZ78. Keunggulan masing-masing adalah algoritma LZ78 menggunakan struktur data yang lebih kompleks dalam mengelola penyimpanan
dictionary, LZ77 mengubah dengan cepat dictionary dan lebih cepat pada saat decoding. Pada aplikasi pemilihan skema dapat sangat kompleks karena telah
dipatenkan (Hankerson et al, 2003).
2.5 Algoritma Lempel Ziv 77 (LZ77)
Pada dasarnya algoritma LZ77 membagi window dengan dua bagian yaitu history dan
lookahead. Dalam pertimbangan pembuatan dictionary maka history akan digunakan
sebagai dictionary sehingga history harus memiliki panjang lebih dari lookahead. Idenya adalah menggantikan segmen dari lookahead dengan pointer pada dictionary, dan menggeser prosesnya sepanjang window (Hankerson et al, 2003).
Gambar 2.1 Ilustrasi contoh cara kerja algoritma LZ77
Pada Gambar 2.1 misalkan segmen inisial ‘he’ sama dengan karakter kedua dari frase dictionary ‘shell’ dan pada contoh ini digunakan offset 10 pada dictionary
(20)
dan dihitung dari kanan ke kiri. Dimana komponen ketiga adalah karakter selanjutnya dari file sumber dan kemudian window digeser lihat Gambar 2.2.
Gambar 2.2 Ilustrasi penggeseran window pada algoritma LZ77
Kemudian ‘he’ diganti menjadi sebuah token yaitu (10,2,spasi). Dimana 10 berarti jarak karakter dengan karakter lookahead, 2 berarti panjang string yang sama, dan spasi adalah karakter setelah karakter ‘he’ tersebut. Kompresi akan sukses jika token ini menghasilkan jumlah bit yang lebih sedikit dari pada file sumber. Selanjutnya karakter yang tidak sama pada token dapat mengakibatkan suatu kasus dimana tidak ada karakter yang sama pada history. Maka penggunaan (offset,length) dapat digunakan ketimbang token triple sebelumnya. Gambar 2.3 menunjukkan beberapa langkah proses pada contoh masalah:
Gambar 2.3 Ilustrasi penggunaan token (offset,length)
Sebuah decoder menerima output token, dimana token tersebut akan dibangun ulang. Menurut Hankerson (2003, hal:231) ada beberapa hal yang harus diperhatikan pada algoritma ini, yaitu:
(21)
1. Decoder harus dapat membedakan antara sebuah token dengan sebuah karakter
asli.
2. Kualitas kompresi akan bergantung pada token, tepatnya pada panjang string
token. Dimana panjang yang terlalu pendek dapat menyebabkan rasio kompresi
membesar.
3. String yang sama didasarkan pada lookahead. Seperti pada Gambar 2.4 dimana window berisi fragmen tersebut.
Gambar 2.4 Ilustrasi contoh fragmen lookahead yang terdapat pada history
4. Setiap langkah, maka digunakan greedy parsing dimana dictionary dicari untuk sebuah string sama yang terpanjang pada inisial segmen. Tidak ada jaminan penggunaan greedy parsing adalah maksimal. Pencarian untuk longest match pada dictionary adalah hal yang cukup sulit. Dimana banyak varian LZ77 yang menggunakan struktur data yang baik untuk mempercepat pencarian.
5. Banyak varian LZ77 yang mempunyai kecepatan tinggi saat proses decoding, akan tetapi diperlukan kerja keras untuk mencari algoritma dan struktur data yang cepat pada proses encoding.
6. Sebuah token dapat dikompres lagi dengan metode kompresi tertentu. Sebuah contoh, seharusnya digunakan jumlah bit yang tetap untuk menyimpan match
length kemudian match length tersebut dikompres lagi dengan menggunakan
metode kompresi probabilistik seperti Huffman akan menambah efektivitas dari algoritma LZ77.
(22)
Implementasi dari LZ77 file sumber tentu berisi ASCII akan terdiri dari 256 karakter dan panjang bit adalah 8 bit. Kemudian history dan lookahead keduanya mempunyai panjang yang tetap, dengan offsets menggunakan 12 bits dan length menggunakan 4 bits. Dan 1 bit digunakan sebagai penanda atau flag yang membedakan antara token dengan sebuah karakter asli.
Sehingga total bit yang dibutuhkan adalah 17 bits sedangkan sebuah karakter asli membutuhkan 9 bits. Oleh sebab itu, maka token hanya digunakan untuk match
length minimal 2 karakter. Penggunaan 4 bits pada length merepresentasikan panjang
2 sampai 17. Pada Gambar 2.5 dapat dilihat ilustrasi cara kerja dari implementasi algoritma LZ77.
Gambar 2.5 Ilustrasi implementasi dari algoritma LZ77
File sumber membutuhkan 36 x 8 = 288 bits. Sedangkan hasil kompresi algoritma LZ77 adalah 6 token dan 18 karakter asli sehingga jumlah bit hasil kompresi adalah 6 x 17 + 18 x 9 = 264 bits. Sehingga proses kompresi dapat menghemat 24 bit.
LZ78 adalah algoritma yang tipikal menggunakan sebuah trie untuk menyimpan seluruh pola string. Sebuah dictionary pada algoritma LZ78 adalah sebuah set entry pola, dimana diindex dari 0 dan bernilai integer. Mirip dengan LZ77 dimana index menunjuk (pointing) pada sebuah kata pada dictionary yang disebut
token. Berbeda dengan algoritma LZ77 output dari proses encoding algoritma LZ78
hanya berupa deretan token saja sehingga tidak dibutuhkan bit tambahan yang digunakan sebagai flag seperti algoritma LZ77.
(23)
Berbeda dengan LZ77 yang menggunakan token yang terdiri dari 3 bagian, LZ78 hanya membutuhkan 2 bagian untuk satu token. Token ini direpresentasikan sebagai <f,c> dimana f merepresentasikan offset yang berisi posisi awal dari sebuah match
string dan c adalah karakter yang merupakan simbol selanjutnya pada file sumber.
Sedangkan panjang match telah tersimpan pada dictionary, sehingga tidak dibutuhkan lagi komponen panjang match pada kode output. Jika simbol tidak ditemukan pada
dictionary, token <0,x> digunakan sebagai penanda bahwa string adalah null string + x. Awalnya sebuah dictionary diisi dengan seluruh 256 karakter ASCII. Berikut
algoritma encoding LZ78, yaitu:
INPUT: file sumber
OUTPUT : Sekumpulan token <index(word), c>, dictionary yang telah diupdate 1. while not EOF do
2. word ← empty 3. c ← next_char()
4. while word + c is in the Dictionary do
5. word ← word + c
6. c ← next_char()
7. end while
8. output token <index(word), c>
{ Dimana index(word) adalah index dari word pada dictionary } 9. add word + c into the dictionary at the nex available location 10.end while
Misalkan input string ”a date at a date” akan dikompres menggunakan algoritma LZ78 maka proses encoding dimulai dengan dictionary yang kosong. Proses
(24)
Gambar 2.6 Ilustrasi proses encoding algoritma LZ78
Proses decoding adalah membaca elemen dari token dari file yang terkompresi kemudian membangun dictionary dengan cara yang sama pada proses encoding. Misalnya <x,c> adalah sebuah token, dimana x adalah index dari dictionary dan c adalah karakter selanjutnya. Algoritma proses decoding algoritm LZ78 adalah sebagai berikut:
INPUT: Sekumpulan token <x,c>
OUTPUT : string dari simbol yang telah didecode 1. while not EOF do
2. x ← next_codeword() 3. c ← next_char()
4. output dictionary_word(x) + c
5. add dictionary_word(x) + c into dictionary at the nex available location 6. end while
(25)
Misalnya input dari proses encoding adalah token-token : 0a 0<spasi> 0d 1t 0e 2a 0t 6<spasi> 3a 7e. Proses decoding dapat dilihat pada Gambar 2.7. Dari proses ini didapat hasil berupa string asli yaitu “a date at a date” kembali.
Gambar 2.7 Ilustrasi proses decoding algoritma LZ78
Menurut Menyi (2003, hal:139) beberapa hal yang perlu diperhatikan pada algoritma LZ78 adalah sebagai berikut:
1. LZ78 telah membuat perbaikan-perbaikan daripada LZ77. Dimana komponen
token yang digunakan lebih sedikit dibanding LZ77.
2. Tidak diperlukannya tambahan bit sebagai flag seperti LZ77 sehingga lebih efisien.
3. LZ78 mempunyai banyak varian dan LZW adalah salah satu varian LZ78 yang sangat populer.
2.7 Algoritma Lempel Ziv Welch (LZW)
Algoritma Lempel-Ziv-Welch (LZW) menggunakan teknik adaptif dan berbasiskan “kamus” Pendahulu LZW adalah LZ77 dan LZ78 yang dikembangkan oleh Jacob Ziv
(26)
dan Abraham Lempel pada tahun 1977 dan 1978. Terry Welch mengembangkan teknik tersebut pada tahun 1984. LZW banyak dipergunakan pada UNIX, GIF, V.42 untuk modem.
Algoritma ini bersifat adaptif dan efektif karena banyak karakter dapat dikodekan dengan mengacu pada string yang telah muncul sebelumnya dalam teks. Prinsip kompresi tercapai jika referensi dalam bentuk pointer dapat disimpan dalam jumlah bit yang lebih sedikit dibandingkan string aslinya.
Menurut David Salomon (2005, hal:123) algoritma ini adalah versi aplikasi dari algoritma dictionary LZ78. Algoritma ini mempunyai ciri-ciri sebagai berikut :
Dictionary diinisialisasi dengan semua symbol dari sumber input, sehingga jika symbol pertama kali muncul sudah punya entry dalam dictionary.
Algoritma ini mengeluarkan output berupa indeks untuk string yang ada dalam
dictionary. Jika kombinasi string tersebut tidak ada, maka kombinasi tersebut
akan ditambahkan dalam dictionary dan algoritma akan mengeluarkan output dari kombinasi yang ada.
Menurut Mengyi (2006, hal:120) algoritma untuk proses kompresi dengan algoritma Lempel Ziv Welch adalah sebagai berikut :
(27)
1. CHAR = get input character
2. WHILE there are still input characters DO 3. NEXT = get input character
4. IF CHAR+NEXT is in the string table then 5. CHAR = CHAR+NEXT
6. ELSE
7. output code for CHAR
8. add CHAR+NEXT to the string table 9. CHAR = NEXT
10. END of IF 11.END of WHILE
12.output the code for STRING
Contoh proses kompresi yaitu misal string “AAABAABBBB” akan dikompresi dengan LZW. Dictionary akan diisi dengan nilai awal dan kode untuk karakter ascii dan pada proses kita menggunakan panjang bit kode adalah 9 bit. Tahapan proses kompresi ditunjukkan pada Tabel 2.1.
Tabel 2.1 Proses kompresi
CHAR NEXT CHAR + NEXT output code dictionary
A A AA <65> ‘A’ AA = <256>
A A AA
AA B AAB <256> AAB = <257> B A BA <66> ‘B’ BA = <258>
A A AA
AA B AAB
AAB B AABB <257> AABB = <259> B B BB <66> ‘B’ BB = <260>
B B BB
(28)
Sehingga output yang dihasilkan dari proses kompresi adalah sebagai berikut : <65><256><66><257><66><260>. Hasil kompresi menghasilkan 6 codeword dengan panjang 9 bit, maka jumlah bit yang digunakan adalah 54 bit. Sedangkan file sumber mempunyai 10 karakter ASCII dengan masing-masing karakter 8 bit sehingga berjumlah 80 bit. Sehingga dapat dihitung rasio kompresi adalah :
Rasio = 100%
_ _ _ _ × asli file Ukuran i terkompres file Ukuran
= 100% 80 54 × = 67,5%
Menurut Mengyi (2006, hal:125) algoritma untuk proses dekompresi dengan algoritma Lempel Ziv Welch adalah sebagai berikut :
1. read x from the compressed file 2. look up dictionary for element at x 3. output element
4. word = element 5. while not E0F do 6. read x
7. look up dictionary for element at x 8. if there is no entry yet for index x then 9. element = word + firstCharOfWord 10. end if
11. output element
12. add word + firstCharOfElement to the dictionary 13. word = element
(29)
Contoh Proses dekompresi misalnya output yang didapat dari hasil kompresi yang telah dilakukan yaitu <65><256><66><257><66><260> kemudian akan didekompresi menggunakan algoritma dekompresi Lempel Ziv Welch (LZW), proses dekompresi sebagai berikut :
Tabel 2.2 Proses dekompresi
x element output word in loop dictionary
65 A A
256 AA AA AA AA = 256
66 B B B AAB = 257
257 AAB AAB AAB BA = 258
66 B B B AABB = 259
260 BB BB BB BB = 260
Setelah proses dekompresi dilakukan maka file tersebut kembali pada data semula yaitu : “AAABAABBBB”. Algoritma LZW telah banyak diaplikasikan diantaranya program utilitas Unix yang bernama compress.
2.8 Struktur Data pada Dictionary
Pemilihan struktur data sangat penting pada algoritma LZW, terutama pemilihan struktur data pada dictionary. Struktur data binary tree sangat tepat digunakan pada dictionary, karena binary tree akan menghemat waktu pencarian. Karena waktu pencarian dapat dikurangi maka akan berdampak pada kecepatan waktu kompresi dan dekompresi yang semakin baik. Hal ini akan menambah tingkat efisiensi dari algoritma tersebut.
2.8.1 Struktur Data Binary Tree
Binary Tree adalah tree yang terurut yang pada setiap node dapat mempunyai satu,
(30)
berurut berdasarkan abjad dari string dictionary. Sehingga pencarian dapat dilakukan dengan lebih cepat, hal ini adalah salah satu keuntungan pemakaian binary tree jika dibandingkan struktur data list biasa (Weiss, 2003).
F
E G
C EF D
(31)
BAB 3
PERANCANGAN DAN IMPLEMENTASI PERANGKAT LUNAK
3.1 Karateristik Algoritma LZW
Cara kerja algoritma LZW adalah menyimpan karakter yang berulang pada sebuah
dictionary. Kemudian output berupa kode dari string yang terdapat pada input
tersebut. Sehingga efisiensi algoritma ini sangat bergantung pada dictionary, dimana implementasi dictionary akan mempengaruhi kecepatan serta hasil dari kompresi. Sebuah dictionary dapat menyimpan jumlah item bergantung pada pemilihan panjang kode bit, semakin panjang kode bit yang digunakan maka semakin banyak item yang dapat disimpan pada program.
3.1.1 Proses Kompresi LZW
Proses kompresi LZW adalah membaca karakter dari file sumber kemudian karakter tersebut digabung dengan karakter yang telah dibaca sebelumnya menjadi sebuah
string. String tersebut kemudian dicari pada dictionary jika tidak terdapat maka
tambahkan string tersebut pada dictionary kemudian output string tersebut. Berikut contoh proses kerja algoritma LZW.
Contoh proses kompresi yaitu misalnya string “^WED^WE^WEE^WEB^WET” akan dikompresi dengan LZW. Dictionary akan diisi dengan nilai awal dan kode untuk karakter ascii. Kompresi akan menghasilkan
(32)
Tabel 3.1 Contoh proses kompresi
Output Code Dictionary
<94> ‘^’ ^W = <256> <87> ’W’ WE = <257> <69> ‘E’ ED = <258> <68> ‘D’ D^ = <259> <256> ^WE = <260> <69> ‘E’ E^ = <261> <260> ^WEE = <262> <261> E^W = <263> <257> WEB = <264> <66> ‘B’ B^ = <265> <260> ^WET = <266> <84> ‘T’
Proses pembuatan dictionary menggunakan struktur data binary tree. Hal ini dimaksudkan agar kecepatan pencarian pada dictionary dapat ditingkatkan. Dari
dictionary yang dilihat pada tabel maka contoh binary tree yang dihasilkan pada
(33)
“^W” 256 “^WE” 259 “E^” 260 “^WEE” 261 “E^W” 262 “WEB” 263 “B^” 264 “^WET” 265 “ED” 257 “D^” 258 “WE” 257
Gambar 3.1 Ilustrasi binary tree pada proses kompresi
Proses pencarian pada binary tree rata-rata membutuhkan O (log n) waktu dan
worst case dari proses pencarian adalah O(n) untuk n adalah banyak data pada dictionary. Dengan waktu rata-rata yang cukup baik maka kecepatan kompresi dan
dekompresi akan semakin cepat. Hal ini adalah keuntungan pemakaian stuktur data
binary tree.
Misalkan kita memilih kompresi menggunakan jumlah bit kode 9 bit maka jumlah data dictionary adalah 2 9 = 512 data yang dapat disimpan pada dictionary. Semakin besar jumlah bit kode yang digunakan maka jumlah item dictionary akan semakin banyak. Dampak dari jumlah item dictionary adalah rasio kompresi yang dihasilkan. Dan hasil kompresi adalah sebagai berikut : <94><87><69><68> <256><69> <260><261><257><66><260><84>. Dan masing-masing kode yang dihasilkan adalah sebuah data dengan panjang kode 9 bit. Sehingga jumlah kode bit akan menentukan jumlah item data pada dictionary, hal ini sangat mempengaruhi efisiensi kompresi yang dilakukan baik pada kecepatan maupun rasio.
(34)
3.1.2 Proses Dekompresi LZW
Proses dekompresi yaitu membaca satu-persatu kode bit dan menerjemahkan pada
dictionary kemudian output hasilnya. Karateristik algoritma LZW adalah membangun
kembali dictionary berdasarkan kode bit yang diterima. Proses pembuatan dictionary ini tetap menggunakan struktur data binary tree. Sesuai proses kompresi yang telah dilakukan maka kode-kode bit tersebut adalah : <94><87><69><68> <256><69> <260><261><257><66><260><84>. Kemudian hasil dekompresi algoritma LZW dapat dilihat pada Tabel 3.2:
Tabel 3.2 Contoh proses dekompresi
Output Code Dictionary
<94> ‘^’ ^W = <256> <87> ’W’ WE = <257> <69> ‘E’ ED = <258> <68> ‘D’ D^ = <259> <256> ^WE = <260> <69> ‘E’ E^ = <261> <260> ^WEE = <262> <261> E^W = <263> <257> WEB = <264> <66> ‘B’ B^ = <265> <260> ^WET = <266> <84> ‘T’
3.2 Pemodelan Fungsional
Pemodelan fungsional diharapkan agar sebuah sistem yang dibangun memiliki fungsi yang maksimal. Oleh karena itu, maka fungsi-fungsi yang ada pada sistem tersebut
(35)
perlu dianalisis. Pada perangkat lunak kompresi yang menggunakan algoritma LZW, secara garis besar terdapat dua fungsi utama yaitu kompresi dan dekompresi menggunakan algoritma LZW.
Pemodelan fungsional menggambarkan aspek dari sistem yang berhubungan dengan transformasi dari nilai, seperti fungsi, pemetaan, batasan, dan ketergantungan fungsional. Pemodelan fungsional menangkap sesuatu yang dikerjakan oleh sistem tanpa memperhatikan bagaimana dan kapan hal itu dikerjakan. Data Flow Diagram (DFD) adalah representasi grafis yang menggambarkan aliran informasi dan transformasi yang terjadi pada data dari input sampai output.
3.2.1 DFD Level 0 ( Context Diagram )
DFD level 0 atau disebut juga context diagram yang menggambarkan interaksi sistem dengan entitas-entitas eksternal. Semua proses sistem digambarkan pada sebuah lingkaran proses yang bertujuan agar diagram dapat menggambarkan bagaimana entitas-entitas luar mengirim dan menerima data dari sistem tersebut. DFD level 0 untuk sistem ini ditunjukan pada gambar 3.2.
P.0
Proses Encoding dan Decoding Algoritma
LZW User
File Asli File Terkompresi
File Asli File Terkompresi
Informasi
(36)
Tabel 3.3 Spesifikasi proses context diagram perangkat lunak kompresi LZW
Nama Input Keterangan Proses Output
Proses 0 / Proses Encoding dan Decoding Algoritma LZW
File Asli, File
Terkompresi, Informasi
Proses Encoding adalah proses mengubah file asli menjadi file terkompresi, dan Proses Decoding adalah proses mengubah
file yang telah
terkompresi menjadi file asli kembali.
File asli, file
terkompresi, Informasi
3.2.2 DFD Level 1
DFD Level 1 memberikan gambaran umum dari sistem. Pada level ini juga terdapat proses utama pada sistem. Serta pada level ini juga terdapat hubungan sistem dengan entitas, baik entitas eksternal maupun entitas internal. Masing-masing entitas data yang tercantum pada DFD level 0 sama dengan entitas data pada tabel 3.3.
P.1 Proses Encoding User P.2 Proses Decoding File Asli File Terkompresi File Terkompresi File Asli Informasi Informasi
(37)
Tabel 3.4 Spesifikasi Proses DFD Level 1 P.0
Nama Input Keterangan Proses Output
Proses 1 / Proses Encoding
File Asli Proses Encoding adalah proses mengubah file asli menjadi file terkompresi. Dimana pada proses ini dilakukan encoding dengan menggunakan algoritma LZW
File terkompresi,
informasi
Proses 2 / Proses Decoding
File terkompresi Proses Decoding adalah proses mengubah file terkompresi menjadi file asli. Dimana pada proses ini dilakukan decoding dengan menggunakan algoritma LZW
File Asli, informasi
3.2.3 DFD Level 2
DFD level 2 merepresentasikan proses yang terjadi pada algoritma LZW. Berikut grafik serta tabel spesifikasi proses DFD Level 2 untuk proses P.1 dan proses P.2:
(38)
P.3 Baca String Dari File P.4 Cari String pada Dictionary
File Asli str str_terdapat_pada_dictionary
P.5 Tambahkan str pada Dictionary str_tidak_terdapat_pada_dictionary + P.6 Output Kode str_ditambahkan File Terkompresi +
Gambar 3.4 DFD level 2 Proses P.1
Tabel 3.5 Spesifikasi Proses DFD Level 2 P.1
Nama Input Keterangan Proses Output
Proses 3 / Baca String Dari File
File Asli Membaca string dari file sampai End of File
str
Proses 4 / Cari String pada Dictonary
str Mencari str yang terdapat
pada Dictonary
str_terdapat_pada_d ictionary,
str_tidak_terdapat_p ada_dictionary
Proses 5 / Tambahkan str pada dictionary
str_terdapat_pada_ dictionary
Tambahkan str_terdapat
_pada_dictionary pada dictionary
str_ditambahkan
Proses 6 / Output Kode
str_ditambahkan Output kode dari
str_ditambahkan sehingga
menghasilkan File
Terkompresi
(39)
P.7 Baca codeword Dari File Terkompresi File Terkompresi P.8 Cari word untuk codeword pada Dictionary codeword P.9 Output word
word File Asli
Gambar 3.5 DFD level 2 Proses P.2
Tabel 3.6 Spesifikasi Proses DFD Level 2 P.2
Nama Input Keterangan Proses Output
Proses 7 / Baca token dari File Terkompresi
File Terkompresi Membaca token dari file terkompresi
codeword
Proses 8 / Cari word untuk token pada
Dictionary
codeword Mencari string asli dari
token yang telah dibaca.
Kemudian menghasilkan word sebagai string asli.
word
Proses 9 / Output word
word Output word sehingga didapat file asli
File Asli
3.2.4 Kamus Data
Kamus data merupakan sekumpulan data yang terdapat pada sistem, dimana data disusun untuk memudahkan selama proses analisis dan desain. Kamus data menjelaskan lebih rinci mengenai istilah-istilah data yang terdapat pada DFD. Kamus
(40)
data membantu analis sistem untuk mendesain sistem dimana tidak ada data yang menggunakan nama berbeda padahal isi data tersebut identik, ataupun kesalahan dimana nama data berulang pada desain. Kamus data juga sangat berguna untuk menjelaskan sistem yang telah didesain dan mempermudan pemeliharaan maupun penambahan fungsi pada sistem.
Masukan-masukan kamus data bisa dibuat setelah diagram aliran data dilengkapi atau bisa juga disusun saat diagram aliran data sedang dikembangkan. Penganalisis sistem bisa saja membuat suatu diagram aliran data level 0 dan sekaligus membuat masukan-masukan data awal. Selanjutnya, sewaktu penganalisis sistem mengembangkan diagram level data menjadi diagram anak, penganalisis juga bisa memodifikasi masukan-masukan kamus data yang baru sesuai dengan aliran data pada diagram alir anak.
Berikut ini merupakan kamus data yang berisikan data yang digunakan pada diagram alir data mulai dari diagram konteks, DFD level 1, DFD level 2.
Tabel 3.7 Kamus data
Nama Tipe Data Keterangan
File Asli File File yang akan dikompresi
File Terkompresi File File yang telah terkompresi
dengan algoritma LZW
informasi String Informasi ukuran file, rasio
kompresi, dan waktu yang dibutuhkan pada proses kompresi maupun dekompresi
str String String yang dibaca dari file asli
str_terdapat_pada_dictionary String String yang dibaca dari file asli dan terdapat pada dictionary
(41)
str_tidak_terdapat_pada_dictionary String String yang dibaca dari file asli dan tidak terdapat pada dictionary
str_ditambahkan String String yang dibaca dari file asli dan ditambahkan pada dictionary
codeword String Data yang dibaca dari file
terkompresi, yang disimpan dalam memori dengan tipe data string.
word String String yang didapat dari
penerjemahan token dengan menggunakan dictionary
3.2.5 Perancangan Struktur Data
Perancangan struktur data berguna untuk dapat menghasilkan desain struktur data terbaik pada implementasi. Dalam algoritma LZW struktur data terpenting adalah struktur data yang digunakan dictionary. Struktur data yang baik sangat berpengaruh pada kecepatan proses decoding maupun encoding.
Struktur Data Dictionary : TYPE
TreeNode = Pointer BinaryTreeNode; BinaryTreeNode = record
Key : integer; Data : String;
RighChild : TreeNode; LeftChild : TreeNode;
(42)
TYPE
DictionaryStructure = record Key : integer;
Data : String;
DictionarySize : integer; RighChild : TreeNode; LeftChild : TreeNode;
END TYPE
3.2.6 Perancangan Prosedural
Tahapan selanjutnya dalam perancangan perangkat lunak adalah tahapan perancangan prosedural atau detail algoritma. Tahapan ini disajikan dalam bentuk prosedur dan
flowchart. Hal ini dilakukan untuk mempermudah dalam pengkodean yang akan
dilakukan. Berikut ini prosedur dan flowchart proses encoding algoritma LZW: Prosedur 1. Proses Encoding LZW
{ Input : File asli }
{ Proses : Melakukan proses encoding algoritma LZW } { Output : File terkompresi dan informasi kompresi }
Kamus Data :
String1 : string; Karakter1 : char;
Dictionary : DictionaryStucture;
Algoritma Encoding LZW :
11. String 1 ← karakter pertama dari file sumber 12. while not EOF do
13. Karakter1 ← baca karakter dari file sumber 14. if Dictionary not full then
(43)
15. if Gabungan String1, Karakter1 terdapat pada Dictionary then
16. String1 ← String1 + Karakter1
17. else
18. Output kode untuk String1
19. Tambahkan Gabungan String1, Karakter1 pada
Dictionary
20. String1 ← Karakter1
21. end if
22. else
23. Output kode untuk String1
24. String1 = Karakter1
25. end if
26. end while
(44)
String1 = Baca Karakter
While NOT EOF
Karakter1 = Baca Karakter
IF String1 + Karakter1 Terdapat Pada
Dcitionary
Output Kode Untuk String1
String1 = String1+ Karakter1
Tambahkan String1 + Karakter1 Pada
Dictionary
String1 = Karakter1 Start
End IF Dictionary Not
Full
Output Kode Untuk String1
String1 = Karakter1
Output Kode Untuk String1
Yes
Yes
No
No
Gambar 3.6 Flowchart proses encoding algoritma LZW
Berikut ini prosedur proses pencarian string pada dictionary pada algoritma LZW:
(45)
Prosedur 2. Proses pencarian string pada dictionary
{ Input : String yang dicari }
{ Proses : Melakukan proses pencarian string pada dictionary }
{ Output : Nilai indeks untuk string pada dictionary, -1 artinya tidak ditemukan }
Kamus Data :
StringFind : string;
Dictionary : DictionaryStructure; RightTemp : BinaryTreeNode; LeftTemp : BinaryTreeNode;
Algoritma proses pencarian string pada dictionary: 1. if Dictionary= NULL then
2. return -1 3. end if
4. while TRUE
5. if Dictionary.Data = StringFind then
6. return Dictionary.Key
7. else
8. RightTemp = Dictionary.Right
9. LeftTemp = Dictionary.Left
10. if (RightTemp = NULL) and (LeftTemp = NULL) then
11. return -1
12. end if
13. if RightTemp.Data >= StringFind then
14. Dictionary= Dictionary.Right
15. else
16. Dictionary= Dictionary.Left
(46)
18. end if 19.end while
Prosedur penambahan string pada dictionary dapat dilihat pada Lampiran D. Berikut ini prosedur dan flowchart proses decoding algoritma LZW:
Prosedur 4. Proses Decoding LZW
{ Input : File terkompresi }
{ Proses : Melakukan proses decoding algoritma LZW } { Output : File asli }
Kamus Data :
element : string;
word : string;
x : integer;
Dictionary : DictionaryStucture;
Algoritma Decoding LZW :
15.baca token x dari file terkompresi 16.cari nilai element dengan indeks x 17.output element
18.word = element 19.while not E0F do 20. baca x
21. cari nilai element dengan indeks x 22. if tidak entri untuk indeks x then
23. element = word + karakter pertama pada word 24. end if
25. output element
26. tambahkan entri word + karakter pertama pada word pada dictionary 27. word = element
(47)
(48)
baca token x dari file terkompresi
While NOT EOF Start
End
Cari Nilai element Dengan indeks x
Output element
word = element
If tidak ada entri untuk indeks x
baca x
Cari Nilai element Dengan indeks x
element = word + karakter pertama pada word
Output element
Tambahkan entri word + karakter pertama pada word pada
dictionary
(49)
Gambar 3.7 Flowchart proses decoding algoritma LZW 3.3 Perangkat Keras Dan Perangkat Lunak Pengujian
Sebelum menganalisis perlu diketahui spesifikasi komputer yang digunakan. Karena hasil yang diperoleh dipengaruhi oleh kinerja dari komputer. Terutama waktu dan kecepatan proses karena perangkat keras yang lebih baik mempengaruhi waktu dan kecepatan proses. Sistem operasi yang digunakan adalah Windows XP. Bahasa pemrograman yang digunakan adalah bahasa pemrograman C++ yaitu menggunakan
compiler Visual C++ 2003. Perangkat keras yang digunakan adalah komputer
personal dengan spesifikasi sebagai berikut :
1. Prosessor AMD Sempron 2500+ (1,75 GHz) 2. RAM 896 MB
3. Hardisk 80 GB
3.4 Implementasi Antarmuka
Antarmuka perangkat lunak sangat penting untuk memudahkan pengguna dalam memakainya. Dalam hal ini walaupun perangkat lunak dibuat untuk analisis penulis, namun tetap saja aspek antarmuka sangat penting terutama dalam penyajian informasi hasil program tersebut. Implementasi antarmuka adalah sebagai berikut:
1. Tampilan Utama
Tampilan utama menampilkan menu File untuk memilih menu LZW dimana menu tersebut akan menampilkan halaman untuk melakukan proses kompresi maupun dekompresi File. Menu Help adalah menu yang menampilkan bagaimana cara pemakaian program, serta menu exit untuk keluar dari aplikasi.
(50)
Gambar 3.8 Tampilan halaman utama
2. Tampilan Proses Kompresi dan Dekompresi
Pada Tampilan inilah proses utama dari program dapat diakses. Untuk melakukan proses kompresi maka pengguna harus menentukan file sumber dan
file tujuan proses kompresi tersebut. Cara menentukan file sumber adalah
dengan melakukan klik pada tombol “Get File” pada “Source” kemudian pilih
file. Cara menentukan file tujuan adalah dengan melakukan klik pada tombol
“Get File” pada “Destination” kemudian pilih file. Kemudian pilih panjang bit yang akan digunakan dengan memilih dari combo box “Bit Length”. .Kemudian untuk mengkompres file maka klik pada tombol “Compress”. Untuk melakukan proses dekompresi maka pengguna harus menentukan file sumber dan file tujuan proses dekompresi. Cara menentukan file sumber adalah dengan melakukan klik pada tombol “Get File” pada “Source” kemudian pilih file. Cara menentukan file tujuan adalah dengan melakukan klik pada tombol “Get File” pada “Destination” kemudian pilih file. Kemudian untuk melakukan dekompresi file maka klik pada tombol “Decompress”.
(51)
(52)
Gambar 3.10 Tampilan proses dekompresi
3. Tampilan Dialog Pencarian File
Tampilan dialog pencarian file dilakukan pada halaman proses kompresi dan dekompresi dengan melakukan klik pada button “Get File”. Maka pengguna akan mendapatkan tampilan untuk mencari serta memilih file yang akan diproses seperti pada Gambar 3.9.
Gambar 3.11 Tampilan pencarian file
4. Tampilan Bantuan
Tampilan bantuan (Help) berguna sebagai halaman yang menjelaskan bagaimana cara menggunakan program. Hal ini berguna agar pengguna tidak binggung dalam cara pemakaian program.
(53)
(54)
BAB 4
ANALISIS PENGARUH PANJANG BIT KODE PADA KINERJA PROGRAM KOMPRESI YANG MENGGUNAKAN ALGORITMA LZW
4.1 File Yang Dicoba
Oleh sebab pada analisis penulis harus mencoba file-file tertentu dengan perangkat lunak yang telah dibuat, maka terlebih dahulu file-file yang dicoba haruslah file-file yang dapat memaksimalkan analisis. Untuk itu penulis memilih Calgary Corpus serta
Canterbury Corpus dalam analisis. Calgary Corpus dan Canterbury Corpus penulis
pilih karena keduanya telah umum digunakan dalam membandingkan algoritma kompresi. Selain itu penelitian penulis dapat lebih mudah dibandingkan dengan penelitian lain tentang kompresi karena menggunakan file-file yang telah umum digunakan untuk penelitian mengenai kinerja kompresi. Canterbury Corpus merupakan penyempurnaan dari Calgary Corpus dan Canterbury Corpus belum digantikan oleh standar yang lebih baru.
4.1.1 Calgary Corpus
Calgary Corpus adalah sebuah set file yang dibuat sebagai standar dalam pengujian
dan perbandingan algoritma kompresi. Calgary Corpus dibuat oleh Ian Witten dan Tim Bell pada tahun 1987 kemudian dipakai secara luas pada tahun 1990-an. Pada pembuatan Calgary Corpus terdapat beberapa kriteria sehingga Calgary Corpus sangat tepat digunakan untuk membandingkan kinerja algoritma kompresi. Kriteria-kriteria tersebut adalah :
(55)
2. Corpus harus tersebar luas, seperti melalui internet sehingga peneliti dapat
dengan mudah mendapatkannya.
3. Corpus harus berisi materi yang umum pada masyarakat, bukan materi atau content yang jarang pada masyarakat umum.
4. Besar ukuran Corpus haruslah sesuai, tidak boleh terlalu besar juga tidak boleh terlalu kecil.
5. Corpus harus valid, bukan data rekaan.
4.1.2 Canterbury Corpus
Canterbury Corpus adalah sebuah set file yang dibuat sebagai standar dalam
pengujian dan perbandingan algoritma kompresi sebagai penyempurnaan dari Calgary
Corpus. Canterbury Corpus dibuat untuk mengikuti perkembangan tipe file baru yang
umum dipakai masyarakat. Canterbury Corpus berisi file teks bacaan, fax image, kode sumber bahasa c, spreadsheet file, file biner, dokumentasi teknik, puisi berbahasa inggris, HTML, kode sumber lisp, dan buku manual GNU. Walaupun Calgary Corpus sudah disempurnakan dengan Canterbury Corpus, mencoba keduanya pada analisis ini akan memberikan hasil analisis yang lebih baik. Semakin banyak file yang dicoba diharapkan dapat memberikan analisis yang lebih baik.
4.2 Analisis Pengaruh Panjang Bit Kode pada Program Kompresi yang Menggunakan Algoritma LZW
Analisis pengaruh panjang bit kode pada program kompresi yang menggunakan algoritma LZW adalah mencoba set file pada program kompresi yang telah diimplementasikan dengan menggunakan panjang bit yang berbeda-beda. Dari analisis ini diharapkan didapatkan kesimpulan mengenai pengaruh panjang bit kode pada kinerja program kompresi.
(56)
4.2.1 Analisis Pada Calgary Corpus
File-file Calgary Corpus bib, book1, book2, paper1, paper2, paper3, paper4, paper5,
paper6 adalah file teks berisi teks bahasa inggris baik berupa fiksi maupun non fiksi.
File news adalah file yang berisi berita. File progc, progl, progp adalah file teks berisi
kode sumber program. File trans adalah file yang berisi transkip dari sebuah sesi pada terminal komputer. File obj1 dan obj2 adalah excutable file dan file pic berisi gambar
bitmap hitam putih dan file geo adalah file yang berisi data geophysical. File-file ini
akan dikompresi menggunakan program yang telah dibuat sebelumnya. Setelah itu rasio file hasil kompresi akan dicatat dan dibandingkan untuk mendapatkan kesimpulan keunggulan masing-masing panjang bit kode. Ukuran file merupakan faktor yang menentukan hasil kompresi oleh sebab itu ukuran file dapat dilihat pada Tabel 4.1.
(57)
Tabel 4.1 Daftar ukuran file pada Calgary Corpus
File-file Calgary Corpus dikompresi menggunakan program yang telah dibuat
sebelumnya. Program memberikan informasi ukuran file asli, file terkompresi, rasio kompresi dalam persen dan waktu yang dibutuhkan untuk melakukan proses kompresi. Hasil pengujian dapat dilihat pada Tabel 4.2 yang merupakan hasil rata-rata dari keseluruhan file yang dicoba, sedangkan hasil pengujiannya secara lengkap terdapat pada tabel Lampiran A.
Nama File Ukuran File (Byte)
bib 111261
book1 768771
book2 610856
geo 102400
news 377109
obj1 21504
obj2 246814
paper1 53161
paper2 82199
paper3 46526
paper4 13286
paper5 11954
paper6 38105
pic 513216
progc 39611
progl 71646
progp 49379
(58)
Tabel 4.2 Hasil pengujian rasio kompresi algoritma LZW pada Calgary Corpus
Penggunaan bit kode yang terlalu pendek maka jumlah item pada dictionary akan menjadi sedikit dan berdampak pada rasio kompresi yang tidak maksimal. Begitu juga penggunaan bit kode yang terlalu panjang juga akan menyebabkan rasio yang tidak maksimal. Semakin kecil rasio artinya hasil kompresi semakin kecil. Oleh sebab itu setelah menganalisis dan mencoba file satu persatu disimpulkan jika panjang bit kode lebih panjang dari 24 bit maka rasio kompresi semakin besar, begitu juga jika panjang bit kode lebih pendek dari 12 bit maka rasio kompresi semakin besar.
Panjang Bit Kode Rasio rata-rata (%)
9 Bit 71,39
10 Bit 63,94
11 Bit 59,48
12 Bit 56,29
13 Bit 54,16
14 Bit 52,98
15 Bit 54,20
16 Bit 56,24
17 Bit 58,89
18 Bit 62,18
19 Bit 65,63
20 Bit 68,87
21 Bit 72,54
22 Bit 75,99
23 Bit 79,28
(59)
Pemilihan panjang kode bit tidak lebih dari 24 bit disebabkan karena panjang bit lebih dari 24 bit tidak akan optimal, disebabkan oleh panjang bit 24 bit tersebut mempunyai jumlah item dictionary yang tidak terpakai yang sangat banyak sehingga terjadi pemborosan pemakaian bit.
Hasil Rasio Rata-rata Kompresi Algoritma LZW pada Calgary Corpus
0 20 40 60 80 100
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Panjang bit(bit)
R
asi
o
(%
)
Gambar 4.1 Grafik rasio rata-rata hasil kompresi algoritma LZW pada Calgary Corpus
Dari Tabel 4.2 rata-rata hasil kompresi yang terbaik adalah pada panjang bit kode 14 bit. Sehingga dapat disimpulkan bahwa untuk file-file Calgary Corpus hasil kompresi terbaik secara rata-rata adalah menggunakan panjang bit kode 14 bit. Dan semakin panjang bit kode setelah lebih besar dari 14 bit makin membesar pula rasio kompresi. Hal ini disebabkan karena pada panjang kode 14 bit jumlah item dictionary untuk menyimpan frase telah mencukupi sehingga untuk panjang bit berikutnya terdapat bit-bit yang tidak digunakan. Sehingga dapat disimpulkan bahwa panjang bit kode setelah 14 bit seterusnya tidak akan optimal.
Setelah analisis pengaruh panjang bit kode pada rasio hasil kompresi, waktu proses kompresi harus bandingkan juga. Hal ini dimaksudkan agar efisiensi algoritma dapat diketahui tidak dari parameter rasio saja tetapi juga dari waktu proses. Semakin sedikit waktu yang dibutuhkan dalam sebuah proses maka semakin efisien algoritma tersebut.
(60)
Tabel 4.3 Hasil pengujian waktu proses rata-rata kompresi algoritma LZW pada Calgary Corpus
Dari Tabel 4.3 dan Lampiran B dapat dilihat bahwa waktu rata-rata tercepat adalah pada 12 bit sampai 15 bit, setelah itu waktu rata-rata dari 16 bit sampai 24 bit perbedaan tidak begitu signifikan. Sehingga panjang bit kode berpengaruh pada waktu kompresi akan tetapi tidak dapat dipastikan bahwa semakin panjang bit kode tersebut maka semakin lama pula proses kompresi. Untuk lebih jelas dapat dilihat pada Gambar 4.2.
Panjang Bit Kode Waktu Rata-rata (milisekon)
9 Bit 251
10 Bit 257
11 Bit 260
12 Bit 255
13 Bit 267
14 Bit 275
15 Bit 290
16 Bit 301
17 Bit 308
18 Bit 308
19 Bit 308
20 Bit 311
21 Bit 309
22 Bit 308
23 Bit 306
(61)
Grafik Waktu Rata-rata Proses Kompresi Algoritma LZW pada Calgary Corpus
0 50 100 150 200 250 300 350
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Panjang Bit(bit)
W
akt
u
(m
il
iseko
n
)
Gambar 4.2 Grafik waktu rata-rata proses kompresi pada Calgary Corpus
Selain faktor panjang bit kode, faktor yang menentukan waktu proses kompresi adalah jumlah item dictionary pada proses kompresi. Item dictionary berpengaruh pada waktu proses disebabkan oleh semakin banyak item dictionary yang digunakan maka semakin banyak pencarian pada binary tree yang menyimpan
dictionary dan berdampak semakin lama waktu yang dibutuhkan pada setiap
(62)
Tabel 4.4 Jumlah item dictionary rata-rata proses kompresi algoritma LZW pada Calgary Corpus
Pada Tabel 4.4 dapat dilihat bahwa pada 17 bit sampai 24 bit jumlah item rata-rata sama, dan dilihat pada Gambar 4.2 pada 17 bit sampai 24 bit perbedaan waktu rata-rata kompresi tidak signifikan. Sedangkan pada 12 bit sampai 16 bit mempunyai jumlah item rata-rata yang cukup signifikan berdampak pula pada waktu proses kompresi yang cukup signifikan. Sehingga dapat disimpulkan bahwa semakin banyak jumlah item yang digunakan pada proses kompresi maka akan semakin lama pula proses kompresi tersebut.
Panjang Bit Kode
Jumlah Rata-rata Item Dictionary (item)
9 Bit 4096
10 Bit 4096
11 Bit 4096
12 Bit 4096
13 Bit 7829
14 Bit 13838
15 Bit 20557
16 Bit 28554
17 Bit 36853
18 Bit 36853
19 Bit 36853
20 Bit 36853
21 Bit 36853
22 Bit 36853
23 Bit 36853
(63)
4.2.2 Analisis Pada Canterbury Corpus
Ukuran file sangat berpengaruh pada rasio maupun waktu yang dibutuhkan untuk kompresi. Canterbury Corpus terdiri dari file-file serta ukurannya dapat dilihat pada Tabel 4.5.
Tabel 4.5 Daftar ukuran file pada Canterbury Corpus
Setelah itu seluruh file Canterbury Corpus dicoba dengan panjang bit yang berbeda. Seluruh hasil percobaan file Canterbury Corpus terdapat pada Lampiran C. Berikut hasil pengujian rasio rata-rata kompresi dapat dilihat pada Tabel 4.6.
Nama File Ukuran File (Byte)
Alice29.txt 82028
Asyoulik.txt 71929
Cp.html 24603
Fields.c 5318
Grammar.lsp 3721
Kennedy.xls 1029744
Lcet10.txt 426754
Ptt5 513216
Sum 38240
(64)
Tabel 4.6 Hasil pengujian rasio kompresi algoritma LZW pada Canterbury Corpus
Dari Tabel 4.6 dapat dilihat bahwa rasio kompresi terbaik didapat pada panjang bit yaitu 13 Bit. Hal ini berbeda dengan hasil yang didapat pada pengujian menggunakan Calgary Corpus yaitu panjang bit paling optimalnya adalah 14 bit.
Panjang Bit Kode Rasio Rata-rata (%)
9 Bit 49,46
10 Bit 49,46
11 Bit 49,46
12 Bit 49,46
13 Bit 48,77
14 Bit 49,66
15 Bit 50,71
16 Bit 52,92
17 Bit 55,43
18 Bit 58,17
19 Bit 61,80
20 Bit 65,05
21 Bit 68,30
22 Bit 71,07
23 Bit 74,37
(65)
Rasio Rata-rata Hasil Kompresi Algoritma LZW pada Canterbury Corpus
0 20 40 60 80 100
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Panjang Bit (bit)
R
asi
o
R
at
a-rat
a (
%
)
Gambar 4.3 Grafik rasio rata-rata kompresi pada Canterbury Corpus
Dari Gambar 4.3 dapat dilihat bahwa dimulai dari panjang kode bit 16 sampai 24 bit rasio kompresi semakin membesar secara signifikan. Hasil yang sama juga ditunjukkan pada Calgary Corpus dimana grafik pada Gambar 4.1 juga menunjukkan bahwa dimulai dari panjang bit 16 sampai 24 bit rasio kompresi semakin membesar secara signifikan. Sehingga penggunaan panjang bit kode 16 bit sampai 24 bit pada
Calgary Corpus maupun Canterbury Corpus tidak optimal.
4.2.3 Analisis Menggunakan Canterbury Corpus Large File
Penggolongan file yang besar dan kecil itu sangat relatif. Akan tetapi Canterbury
Corpus telah diciptakan sebagai set file yang dapat merepresentasikan bagaimana
karateristik rata-rata dari file yang digunakan dalam masyarakat. Dan seluruh file-file tersebut berukuran dibawah 1 Mb. Sedangkan pada Canterbury Corpus Large File ukuran-ukuran file-nya adalah bigbook.txt dengan ukuran 3,85 MB, E.coli dengan ukuran 4,42 MB, dan world192.txt dengan ukuran 2,35 MB.
(66)
Tabel 4.7 Hasil pengujian rasio algoritma LZW pada Canterbury Corpus Large File
Dari Tabel 4.7 dapat dilihat bahwa hasil rasio terkecil adalah pada panjang bit 19 bit. Berbeda dengan Calgary maupun Canterbury dimana panjang bit kode yang optimal masing-masing adalah 14 bit dan 13 bit. Baik Calgary maupun Canterbury menghasilkan rasio kompresi yang tidak optimal pada 19 bit. Salah satu penyebab 19 bit unggul pada Canterbury Large File adalah semakin besar ukuran file maka akan membutuhkan semakin banyak item pada dictionary. Dan pada panjang 13 bit dan 14 bit tidak dapat menyimpan item dengan jumlah yang cukup besar untuk file
Panjang Bit Kode
bigbook.txt E.coli world192.txt Rata-rata
rasio (%)
9 Bit 54,56 38,00 67,55 53,37
10 Bit 52,24 34,05 64,54 50,27
11 Bit 49,54 33,23 61,99 48,25
12 Bit 48,25 31,00 60,94 46,73
13 Bit 44,69 30,26 56,49 43,81
14 Bit 41,64 29,70 52,04 41,12
15 Bit 39,09 29,28 47,54 38,63
16 Bit 37,09 28,94 43,51 36,51
17 Bit 35,31 28,62 39,71 34,54
18 Bit 34,25 28,63 36,96 33,28
19 Bit 33,17 28,35 34,78 32,10
20 Bit 33,91 29,33 36,62 33,28
21 Bit 35,61 30,08 38,45 34,95
22 Bit 37,30 32,27 40,28 36,61
23 Bit 39,00 33,73 42,11 38,28
(67)
Canterbury Large File. Pada Gambar 4.4 dapat dilihat bagaimana grafik rasio file
hasil kompresi Canterbury Large File.
Rasio Rata-rata Hasil Kompresi Algoritma LZW pada Canterbury Large File
0 10 20 30 40 50 60
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Panjang Bit Kode(bit)
R
asi
o
(%
)
(68)
BAB 5
PENUTUP
5.1 Kesimpulan
Dari penelitian ini dapat disimpulkan beberapa hal mengenai analisis perbandingan pengaruh panjang bit kode pada kinerja program kompresi yang menggunakan algoritma LZW, yaitu :
1. Pada set file Calgary Corpus hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 14 bit.
2. Pada set file Canterbury Corpus hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 13 bit.
3. Pada set file Canterbury Corpus Large File hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 19 bit.
4. Penggunaan panjang bit kode yang tepat pada sebuah file akan
memaksimalkan hasil kompresi pada file tersebut.
5. Penggunaan panjang bit kode yang statis atau tidak berubah tidak maksimal karena panjang bit kode yang maksimal tidak sama antara satu file dengan file lainnya.
(69)
5.2 Saran
Sebagai saran pada pembaca yang mempunyai minat pada penelitian pada kompresi yang menggunakan algoritma LZW, agar dapat memaksimalkan kinerja program kompresi yang menggunakan algoritma LZW. Salah satu strategi yang dapat memaksimalkan program kompresi yang menggunakan algoritma LZW adalah dengan cara memakai panjang bit kode yang dinamis. Karena pada penelitian ini telah dapat disimpulkan bahwa penggunaan panjang bit yang tepat untuk sebuah file akan menghasilkan hasil kompresi yang optimal.
(70)
DAFTAR PUSTAKA
Bowman, Kevin. 2004. System Analysis: A Beginner’s Guide. Edisi Pertama. New York: Macmillan.
Gusfield, Dan. 1990. Algorithm on Strings, Trees, and Sequences. Edisi Pertama. Cambridge University Press.
Hankerson, Darrel dan Harris, Greg A. 2003. Introduction to Information Theory and
Data Compression. Cetakan Kedua. New York: CRC Press LLC.
Ian H. Witten, Alistair Moffat, dan Timothy C. Bell. 1999. Managing Gigabytes:
Compression and Indexing Documents and Images. Edisi Kedua. San
Fransisco: Morgan Kaufman Publisher.
John Paul Mueller. 2002. Visual C++ .NET Developer’s Guide. Edisi Pertama. San Berkeley: McGraw-Hill/Osborne.
Linawati, Panggabean. P. Henry, Perbandingan Kinerja Algoritma Pemampatan
Huffman, LZW, Dan DMC Pada Berbagai Tipe File. Jurnal Integral 9(1); hal.
7-16.
Mengyi Pu, Ida. 2006. Fundamental Data Compression. Edisi Pertama. London: Elsevier.
Nelson, Mark dan Gailly, Jean-Luop. 1996. The Data Compression Book. Edisi Kedua. New York: M & T Books.
Nelson, Mark. 1989. LZW Data Compression. Dr. Dobb’s Journal.
Pressman, Roger S. 2006. Software Engineer: A Pratitioner’s Approach. Edisi Kelima. New York: McGraw-Hill.
Salomon, David. 2005. Coding for Data and Computer Communication. Edisi Pertama. Northridge: Springer.
Salomon, David. 2007. Data Compression The Complete Reference. Edisi Keempat. Northridge: Springer.
(71)
Sayood, Khalid. 2003. Lossless Compression Handbook. Edisi Pertama. San Diego: Elsevier.
Sripriya dan Kishore, Sai. 2002. VC++ Professional Projects. Cetakan Pertama. Premier Press.
Weiss, Mark Allen. 2003. Data Structures And Problem Solving Using C++. Cetakan Pertama. Addison Wesley.
(1)
Tabel 4.7 Hasil pengujian rasio algoritma LZW pada Canterbury Corpus Large File
Dari Tabel 4.7 dapat dilihat bahwa hasil rasio terkecil adalah pada panjang bit 19 bit. Berbeda dengan Calgary maupun Canterbury dimana panjang bit kode yang optimal masing-masing adalah 14 bit dan 13 bit. Baik Calgary maupun Canterbury
Panjang Bit Kode
bigbook.txt E.coli world192.txt Rata-rata
rasio (%)
9 Bit 54,56 38,00 67,55 53,37
10 Bit 52,24 34,05 64,54 50,27
11 Bit 49,54 33,23 61,99 48,25
12 Bit 48,25 31,00 60,94 46,73
13 Bit 44,69 30,26 56,49 43,81
14 Bit 41,64 29,70 52,04 41,12
15 Bit 39,09 29,28 47,54 38,63
16 Bit 37,09 28,94 43,51 36,51
17 Bit 35,31 28,62 39,71 34,54
18 Bit 34,25 28,63 36,96 33,28
19 Bit 33,17 28,35 34,78 32,10
20 Bit 33,91 29,33 36,62 33,28
21 Bit 35,61 30,08 38,45 34,95
22 Bit 37,30 32,27 40,28 36,61
23 Bit 39,00 33,73 42,11 38,28
(2)
Fahrur Razi : Analisis Pengaruh Panjang Bit Kode Pada Kinerja Program Kompresi Yang Menggunakan Algoritma Canterbury Large File. Pada Gambar 4.4 dapat dilihat bagaimana grafik rasio file
hasil kompresi Canterbury Large File.
Rasio Rata-rata Hasil Kompresi Algoritma LZW pada Canterbury Large File
0 10 20 30 40 50 60
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Panjang Bit Kode(bit)
R
asi
o
(%
)
(3)
BAB 5
PENUTUP
5.1 Kesimpulan
Dari penelitian ini dapat disimpulkan beberapa hal mengenai analisis perbandingan pengaruh panjang bit kode pada kinerja program kompresi yang menggunakan algoritma LZW, yaitu :
1. Pada set file Calgary Corpus hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 14 bit.
2. Pada set file Canterbury Corpus hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 13 bit.
3. Pada set file Canterbury Corpus Large File hasil kompresi terbaik secara rata-rata adalah pada panjang bit kode 19 bit.
4. Penggunaan panjang bit kode yang tepat pada sebuah file akan
(4)
Fahrur Razi : Analisis Pengaruh Panjang Bit Kode Pada Kinerja Program Kompresi Yang Menggunakan Algoritma 5.2 Saran
Sebagai saran pada pembaca yang mempunyai minat pada penelitian pada kompresi yang menggunakan algoritma LZW, agar dapat memaksimalkan kinerja program kompresi yang menggunakan algoritma LZW. Salah satu strategi yang dapat memaksimalkan program kompresi yang menggunakan algoritma LZW adalah dengan cara memakai panjang bit kode yang dinamis. Karena pada penelitian ini telah dapat disimpulkan bahwa penggunaan panjang bit yang tepat untuk sebuah file akan menghasilkan hasil kompresi yang optimal.
(5)
DAFTAR PUSTAKA
Bowman, Kevin. 2004. System Analysis: A Beginner’s Guide. Edisi Pertama. New York: Macmillan.
Gusfield, Dan. 1990. Algorithm on Strings, Trees, and Sequences. Edisi Pertama. Cambridge University Press.
Hankerson, Darrel dan Harris, Greg A. 2003. Introduction to Information Theory and
Data Compression. Cetakan Kedua. New York: CRC Press LLC.
Ian H. Witten, Alistair Moffat, dan Timothy C. Bell. 1999. Managing Gigabytes:
Compression and Indexing Documents and Images. Edisi Kedua. San
Fransisco: Morgan Kaufman Publisher.
John Paul Mueller. 2002. Visual C++ .NET Developer’s Guide. Edisi Pertama. San Berkeley: McGraw-Hill/Osborne.
Linawati, Panggabean. P. Henry, Perbandingan Kinerja Algoritma Pemampatan
Huffman, LZW, Dan DMC Pada Berbagai Tipe File. Jurnal Integral 9(1); hal.
7-16.
Mengyi Pu, Ida. 2006. Fundamental Data Compression. Edisi Pertama. London: Elsevier.
Nelson, Mark dan Gailly, Jean-Luop. 1996. The Data Compression Book. Edisi Kedua. New York: M & T Books.
(6)
Fahrur Razi : Analisis Pengaruh Panjang Bit Kode Pada Kinerja Program Kompresi Yang Menggunakan Algoritma
Sayood, Khalid. 2003. Lossless Compression Handbook. Edisi Pertama. San Diego: Elsevier.
Sripriya dan Kishore, Sai. 2002. VC++ Professional Projects. Cetakan Pertama. Premier Press.
Weiss, Mark Allen. 2003. Data Structures And Problem Solving Using C++. Cetakan Pertama. Addison Wesley.