digilib.uns.ac.id/adaptive...digilib.uns.ac.id

82
perpustakaan.uns.ac.id digilib.uns.ac.id commit to user ADAPTIVE GENETIC ALGORITHM (AGA) RADIAL BASIS FUNCTION (RBF) NEURAL NETWORK UNTUK KLASIFIKASI SKRIPSI Diajukan untuk Memenuhi Salah Satu Syarat Mencapai Gelar Strata Satu Jurusan Informatika Disusun oleh : Muh Aziz Nugroho NIM. M0508053 JURUSAN INFORMATIKA FAKULTAS MATEMATIKA & ILMU PENGETAHUAN ALAM UNIVERSITAS SEBELAS MARET SURAKARTA 2012 HALAMAN JUDUL

Upload: nguyenxuyen

Post on 11-Apr-2019

217 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

i

ADAPTIVE GENETIC ALGORITHM (AGA) RADIAL

BASIS FUNCTION (RBF) NEURAL NETWORK

UNTUK KLASIFIKASI

SKRIPSI

Diajukan untuk Memenuhi Salah Satu Syarat Mencapai Gelar Strata Satu

Jurusan Informatika

Disusun oleh :

Muh Aziz Nugroho

NIM. M0508053

JURUSAN INFORMATIKA

FAKULTAS MATEMATIKA & ILMU PENGETAHUAN ALAM

UNIVERSITAS SEBELAS MARET

SURAKARTA

2012

HALAMAN JUDUL

Page 2: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

ii

HALAMAN PENGESAHAN

Page 3: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

iii

ADAPTIVE GENETIC ALGORITHM (AGA) RADIAL BASIS FUNCTION

(RBF) NEURAL NETWORK UNTUK KLASIFIKASI

MUH AZIZ NUGROHO

Jurusan Informatika.Fakultas Matematika dan Ilmu Pengetahuan Alam.

Universitas Sebelas Maret.

ABSTRAK

Jaringan Syaraf Tiruan (JST) merupakan salah satu metode yang dapat

digunakan untuk melakukan klasifikasi. Salah satu model jaringan syaraf tiruan

adalah Radial basis function (RBF). Dengan berkembangnya penelitian, muncul

beberapa penelitian yang bertujuan meningkatkan akurasi hasil pelatihan JST RBF

dengan cara optimasi bobot hasil pelatihan JST RBF. Salah satu algoritma yang

dapat digunakan untuk optimasi tersebut adalah algoritma genetika. Sementara itu

dari beberapa penelitian mengenai algoritma genetika, muncul beberapa modifikasi

untuk meningkatkan performa algoritma genetika. Salah satunya adalah Adaptive

Genetic Algorithm (AGA) yaitu dengan pendekatan baru untuk penentuan

probabilitas crossover dan probabilitas mutasi yang adaptif sesuai dengan fungsi

fitness. Oleh karena itu, penelitian ini melakukan evaluasi tentang penggabungan

RBF dengan AGA untuk klasifikasi data untuk mengetahui akurasi AGA RBF.

Penelitian ini dilakukan dengan melakukan simulasi pada data tumbuhan

iris. Penentuan center RBF menggunakan algoritma clustering K-Means. Setelah

RBF dilatih dan didapatkan bobot selanjutnya bobot diubah dengan AGA. Fungsi

fitness AGA adalah akurasi RBF untuk data training dimana proses training

menggunakan 70 % data dan proses testing dengan 30 %. Efektifitas klasifikasi

diukur dari hasil akurasi. Skenario yang dijalankan adalah melakukan simulasi untuk

mendapatkan variabel RBF yang terbaik untuk masing-masing arsitektur, kemudian

kombinasi variabel terbaik dari variabel RBF dari masing-masing arsitektur

dikombinasikan dengan variabel AGA RBF untuk mendapatkan variabel AGA RBF

yang terbaik untuk masing-masing arsitektur. Arsitektur yang digunakan adalah JST

dengan 2 hidden layer sampai 10 hidden layer.

Evaluasi dari simulasi menunjukkan bahwa JST AGA RBF (Adaptive

Genetic Algorithm Radial Basis Function) dapat memperbaiki akurasi untuk

arsitektur JST RBF yang sederhana yaitu pada arsitektur dengan hidden layer 2, 3, 4

dan 5, sedangkan untuk arsitektur yang lebih kompleks yaitu pada arsitektur dengan

hidden layer 6, 7, 8, 9 dan 10, akurasi AGA RBF relatif sama dengan akurasi RBF,

namun cenderung menurun dengan presentase penurunan akurasi yang relatif kecil.

Dari seluruh simulasi yang dilakukan dapat direkomendasikan bahwa algoritma yang

paling tepat untuk melakukan klasifikasi tumbuhan iris adalah algoritma RBF dengan

arsitektur 6 hidden layer.

Kata Kunci : Adaptive Genetic Algorithm, Jaringan Syaraf Tiruan, Klasifikasi, Radial

Basis Function

Page 4: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

iv

ADAPTIVE GENETIC ALGORITHM (AGA) RADIAL BASIS FUNCTION

(RBF) NEURAL NETWORK FOR CLASSIFICATION

MUH AZIZ NUGROHO

Department of Informatic. Mathematic and Science Faculty.

Sebelas Maret University

ABSTRACT

Artificial Neural Network (ANN) is one method that can be used to perform

classification. One model of neural network is a radial basis function (RBF). With

the development of research, there is some research that aims to improve the

accuracy of the RBF ANN training by optimization of RBF ANN weight training

results. One algorithm that can be used for optimization is the genetic algorithm.

Meanwhile, from some research on the genetic algorithm, it has been appeared some

few modifications to improve the performance of genetic algorithms. One is the

Adaptive Genetic Algorithm (AGA) is a new approach for determining the

probability of crossover and mutation probabilities are adaptive according to the

fitness function. Therefore, this study evaluates the incorporation of RBF with the

AGA for the classification of data to determine the accuracy of AGA RBF.

The research was done by performing simulations on data of iris plants.

Determination of RBF's centers using K-Means clustering algorithm. After the RBF

trained and gained weight then weight is converted by AGA. AGA's fitness function

is the RBF accuracy for training data where the training process uses 70% of the data

and testing process by 30%. Effectiveness is measured by classification accuracy

results. The Scenario is run simulation to get the best RBF variables for each

architecture, then the best RBF variables from each of the architecture combined

with a AGA RBF variable to get the best AGA RBF variable for each architecture.

ANN's architecture used is a ANN with 2 hidden layer to 10 hidden layer.

Evaluation of the simulation show that the ANN AGA RBF (Radial Basis

Adaptive Genetic Algorithm Function) can improve the accuracy for the RBF ANN

simple architecture is the architecture with 2, 3, 4 and 5 hidden layer , while for the

more complex architecture with 6, 7, 8, 9 and 10 hidden layer, accuracy of AGA

RBF relatively equal to the accuracy of RBF, but tends to decrease with the

percentage decrease in accuracy which is relatively small. From all the simulations

carried out can be recommended that the most appropriate algorithm to classify iris

plants are RBF algorithm with 6 hidden layer architecture.

Keyword: Adaptive Genetic Algorithm, Artificial Neural Networks, Classification,

Radial Basis Function

Page 5: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

v

MOTTO

β€œKarena sesungguhnya sesudah kesulitan itu ada kemudahan, sesungguhnya

sesudah kesulitan itu ada kemudahan, Maka apabila kamu telah selesai (dari sesuatu

urusan), kerjakanlah dengan sungguh-sungguh (urusan) yang lain”

(Q.S Alam Nasyrah : 5-7)

β€œIngatlah, sesungguhnya pertolongan Allah itu amat dekat”

(Q.S Al-Baqarah : 214)

β€œSesuatu yang belum dikerjakan, seringkali tampak mustahil, kita baru yakin kalau

kita telah berhasil melakukannya dengan baik”

(Evelyn Underhill)

β€œBanyak kegagalan dalam hidup ini dikarenakan orang-orang tidak menyadari

betapa dekatnya mereka dengan keberhasilan saat mereka menyerah”

(Thomas Alva Edison)

β€œKita berdoa kalau kesusahan dan membutuhkan sesuatu, mestinya kita juga berdoa

dalam kegembiraan besar dan saat rezeki melimpah”

(Kahlil Gibran)

Page 6: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

vi

PERSEMBAHAN

Kupersembahkan karya ini kepada :

Ibu, Bapak serta kedua kakak tercinta Mas Ma’ruf dan Mbak Iim

Semua teman Informatika UNS khsusnya angkatan 2008

Semua teman kos wijaya periode 2008-2012

Page 7: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

vii

KATA PENGANTAR

Bismillahirrahmaanirrahiim

Puji syukur penulis panjatkan kehadirat Allah Subhanahu Wa Ta’ala yang

senantiasa memberikan nikmat dan karunia-Nya sehingga penulis dapat

menyelesaikan skripsi dengan judul Adaptive Genetic Algorithm (AGA) Radial Basis

Function (RBF) Neural Network Untuk Klasifikasi, yang menjadi salah satu syarat

wajib untuk memperoleh gelar Sarjana Informatika di Universitas Sebelas Maret

(UNS) Surakarta.

Penulis menyadari akan keterbatasan yang dimiliki, begitu banyak

bimbingan, bantuan, serta motivasi yang diberikan dalam proses penyusunan skripsi

ini. Oleh karena itu, ucapan terima kasih penulis sampaikan kepada :

1. Bapak Wiharto, S.T., M.Kom. selaku Dosen Pembimbing I yang penuh

kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis

selama proses penyusunan skripsi ini,

2. Ibu Bapak Drs. YS. Palgunadi, M.Sc selaku Dosen Pembimbing II yang penuh

kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis

selama proses penyusunan skripsi ini,

3. Ibu Umi Salamah,S.Si.,M.Kom. selaku Ketua Jurusan S1 Informatika,

4. Bapak Wisnu Widiarto, S.Si., M.T. selaku Pembimbing Akademik yang telah

banyak memberi bimbingan dan pengarahan selama penulis menempuh studi di

Jurusan Informatika FMIPA UNS,

5. Bapak dan Ibu dosen serta karyawan di Jurusan Informatika FMIPA UNS yang

telah mengajar penulis selama masa studi dan membantu dalam proses

penyusunan skripsi ini,

6. Ibu, Bapak, dan kakak-kakakku, serta teman-teman yang telah memberikan

bantuan sehingga penyusunan skripsi ini dapat terselesaikan.

Penulis berharap semoga skripsi ini dapat bermanfaat bagi semua pihak

yang berkepentingan.

Surakarta, Agustus 2012

Penulis

Page 8: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

viii

DAFTAR ISI

HALAMAN JUDUL ..................................................................................................... i

HALAMAN PENGESAHAN ...................................................................................... ii

ABSTRAK .................................................................................................................. iii

ABSTRACT ................................................................................................................ iv

MOTTO ....................................................................................................................... v

PERSEMBAHAN ....................................................................................................... vi

KATA PENGANTAR ............................................................................................... vii

DAFTAR ISI ............................................................................................................. viii

DAFTAR TABEL ........................................................................................................ x

DAFTAR GAMBAR .................................................................................................. xi

DAFTAR LAMPIRAN ............................................................................................. xiii

DAFTAR SIMBOL ................................................................................................... xiv

BAB I PENDAHULUAN ............................................................................................ 1

1.1 Latar Belakang ................................................................................................. 1

1.2 Rumusan Masalah ............................................................................................ 3

1.3 Batasan Masalah ............................................................................................... 3

1.4 Tujuan Penelitian .............................................................................................. 3

1.5 Manfaat Penelitian ............................................................................................ 3

1.6 Sistematika Penulisan ....................................................................................... 4

BAB II TINJAUAN PUSTAKA .................................................................................. 5

2.1 Landasan Teori ................................................................................................. 5

2.1.1 Jaringan Syaraf Tiruan ........................................................................... 5

2.1.2 Jaringan Radial Basis Function .............................................................. 7

2.1.3 Algoritma K-Means Clustering ............................................................ 11

2.1.4 Algoritma Genetika .............................................................................. 13

2.1.5 Adaptive Genetic Algorithm (AGA) .................................................... 20

2.2 Penelitian Sebelumnya ................................................................................... 21

2.3 Rencana penelitian ......................................................................................... 30

Page 9: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

ix

BAB III METODE PENELITIAN............................................................................. 31

3.1 Studi Literatur ................................................................................................ 31

3.2 Perancangan ................................................................................................... 31

3.2.1 Data ...................................................................................................... 31

3.2.2 Algoritma AGA RBF ........................................................................... 31

3.2.3 Implementasi ........................................................................................ 40

3.2.4 Analisa.................................................................................................. 42

BAB IV HASIL DAN PEMBAHASAN ................................................................... 43

4.1 Variasi Simulasi Pada Variabel RBF ............................................................. 44

4.2 Variasi Simulasi Pada Variabel AGA RBF .................................................... 53

4.3 Perbandingan JST RBF dan AGA RBF ......................................................... 62

BAB V KESIMPULAN DAN SARAN ..................................................................... 67

5.1 Kesimpulan ..................................................................................................... 67

5.2 Saran ............................................................................................................... 67

Page 10: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

x

DAFTAR TABEL

Tabel 2.1 Probabilitas seleksi dan nilai fitness .......................................................... 18

Tabel 3.1 Deskripsi atribut data iris ........................................................................... 31

Tabel 3.2 Variasi Simulasi Pada Variabel RBF ......................................................... 40

Tabel 3.3 Variasi Simulasi Pada Variabel AGA RBF ............................................... 41

Tabel 4.1 Simulasi RBF Dengan 2 Hidden Layer ..................................................... 44

Tabel 4.2 Simulasi RBF Dengan 3 Hidden Layer ..................................................... 45

Tabel 4.3 Simulasi RBF Dengan 4 Hidden Layer ..................................................... 46

Tabel 4.4 Simulasi RBF Dengan 5 Hidden Layer ..................................................... 47

Tabel 4.5 Simulasi RBF Dengan 6 Hidden Layer ..................................................... 48

Tabel 4.6 Simulasi RBF Dengan 7 Hidden Layer ..................................................... 49

Tabel 4.7 Simulasi RBF Dengan 8 Hidden Layer ..................................................... 50

Tabel 4.8 Simulasi RBF Dengan 9 Hidden Layer ..................................................... 51

Tabel 4.9 Simulasi RBF Dengan 10 Hidden Layer ................................................... 52

Tabel 4.10 Simulasi AGA RBF Dengan 2 Hidden Layer .......................................... 53

Tabel 4.11 Simulasi AGA RBF Dengan 3 Hidden Layer .......................................... 54

Tabel 4.12 Simulasi AGA RBF Dengan 4 Hidden Layer .......................................... 55

Tabel 4.13 Simulasi AGA RBF Dengan 5 Hidden Layer .......................................... 56

Tabel 4.14 Simulasi AGA RBF Dengan 6 Hidden Layer .......................................... 57

Tabel 4.15 Simulasi AGA RBF Dengan 7 Hidden Layer .......................................... 58

Tabel 4.16 Simulasi AGA RBF Dengan 8 Hidden Layer .......................................... 59

Tabel 4.17 Simulasi AGA RBF Dengan 9 Hidden Layer .......................................... 60

Tabel 4.18 Simulasi AGA RBF Dengan 10 Hidden Layer ........................................ 61

Tabel 4.19 Perbandingan Akurasi RBF dan AGA RBF ............................................ 62

Tabel 4.20 Rumus Empiris Penentuan Jumlah Neuron Hidden Layer ...................... 63

Tabel 4.21 Perbaikan Akurasi Untuk Hidden Layer 2, 3, 4, 5 dan 6 ........................ 65

Tabel 4.22 Penurunan Akurasi Untuk Hidden Layer 7, 8, 9 dan 10 .......................... 65

Page 11: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

xi

DAFTAR GAMBAR

Gambar 2.1 Struktur unit jaringan syaraf tiruan .......................................................... 6

Gambar 2.2 Topologi Jaringan Radial Basis Function ................................................ 8

Gambar 2.3 Flowchart K-Means Clustering .............................................................. 13

Gambar 2.4 Seleksi roda roullet ................................................................................. 18

Gambar 2.5 Topologi JST RBF ................................................................................. 23

Gambar 2.6 Kromosom GA-RBF .............................................................................. 24

Gambar 2.7 Flowchart ANN-AG ............................................................................... 25

Gambar 2.8 Model jaringan syaraf tiruan (neuromodel). .......................................... 26

Gambar 2.9 Diagram alir penelitian ........................................................................... 28

Gambar 3.1 Algoritma AGA RBF ............................................................................. 32

Gambar 3.2 Tahapan pembangunan jaringan radial basis function .......................... 33

Gambar 3.3 Algoritma K-Means ................................................................................ 34

Gambar 3.4 Arsitektur jaringan radial basis function ............................................... 36

Gambar 3.5 Algoritma AGA RBF ............................................................................. 38

Gambar 4.1 Grafik Simulasi RBF 2 Hidden Layer .................................................... 44

Gambar 4.2 Grafik Simulasi RBF 3 Hidden Layer .................................................... 45

Gambar 4.3 Grafik Simulasi RBF 4 Hidden Layer .................................................... 46

Gambar 4.4 Grafik Simulasi RBF 5 Hidden Layer .................................................... 47

Gambar 4.5 Grafik Simulasi RBF 6 Hidden Layer .................................................... 48

Gambar 4.6 Grafik RBF Simulasi Dengan 7 Hidden Layer ...................................... 49

Gambar 4.7 Grafik Simulasi RBF Dengan 8 Hidden Layer ...................................... 50

Gambar 4.8 Grafik Simulasi RBF 9 Hidden Layer .................................................... 51

Gambar 4.9 Grafik Simulasi RBF Dengan 10 Hidden Layer .................................... 52

Gambar 4.10 Grafik Simulasi AGA RBF 2 Hidden Layer ....................................... 53

Gambar 4.11 Grafik Simulasi AGA RBF Dengan 3 Hidden Layer ........................... 54

Gambar 4.12 Grafik Simulasi AGA RBF 4 Hidden Layer ........................................ 55

Gambar 4.13 Grafik Simulasi AGA RBF Dengan 5 Hidden Layer ........................... 56

Gambar 4.14 Grafik Simulasi AGA RBF Dengan 6 Hidden Layer ........................... 57

Gambar 4.15 Grafik Simulasi AGA RBF Dengan 7 Hidden Layer ........................... 58

Page 12: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

xii

Gambar 4.16 Grafik Simulasi AGA RBF Dengan 8 Hidden Layer ........................... 59

Gambar 4.17 Grafik Simulasi AGA RBF Dengan 9 Hidden Layer ........................... 60

Gambar 4.18 Grafik Simulasi AGA RBF Dengan 10 Hidden Layer ......................... 61

Gambar 4.19 Grafik Perbandingan Simulasi RBF dan AGA RBF ............................ 63

Page 13: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

xiii

DAFTAR LAMPIRAN

LAMPIRAN A ........................................................................................................... 70

LAMPIRAN B ........................................................................................................... 72

LAMPIRAN C ........................................................................................................... 76

LAMPIRAN D ........................................................................................................... 86

Page 14: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

xiv

DAFTAR SIMBOL

p : Konstanta pada fungsi aktivasi JST

f(x) : fungsi variabel x

wk+1 : Bobot JST pada cacah ke k-1

wk : Bobot JST pada cacah ke k

wji : Bobot dari unit hidden layer j ke output i

Ξ± : Laju konvergensi (learning rate) (0 < Ξ± < 1)

v : Masukan yang diboboti

Xm : Vector input RBF ke-m

tj : Vector data yang dianggap sebagai center ke-j.

yj : Output JST ke-j

q : Jumlah hidden layer

MSE : Mean Square Error

Ο†j : Output fungsi basis ke j

exp : natural number

d(x,c) : Hasil jarak eucledian dari vector data x yang ke vector center c

r : Jarak eucledian antara vector data dengan vector center

cj : Vector center ke-j

d : Lebar fungsi Gaussian

Οƒ : nilai spread

x : Vector input data

k : Urutan cluster

π‘€π‘˜(π‘š) : Center ke-k pada iterasi ke-m

𝑀𝑖(π‘š) : Center ke-i pada iterasi ke-m

D : Jumlah dimensi pada algoritma K-Means

Clk : Cluster ke-k

Nk : Jumlah data-data pada cluster k

Jk : Error data-data terhadap masing-masing center

Pk : Subset yang berisi data-data untuk cluster ke -k

: Eucledian norm

Page 15: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

xv

pc : Probabilitas crossover

pm : Probabilitas mutasi

fmax : Fitness maksimal

f : Fitness terbesar dari solusi yang dimutasi

f’ : Fitness terbesar dari solusi yang disilangkan

𝑓 : Fitness rata-rata

k1 : Konstanta pertama untuk update probabilitascrossover

k2 : Konstanta pertama untuk update probabilitasmutasi

k3 : Konstanta kedua untuk update probabilitascrossover

k4 : Konstanta kedua untuk update probabilitasmutasi

Zn : Nilai gen ke n pada kromosom yang merepresentasikan bobot RBF

Zn+1 : Nilai gen ke n+1 pada kromosom yang merepresentasikan bobot bias

AP : Akurasi prediksi

Page 16: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

1

BAB I

PENDAHULUAN

1.1 Latar Belakang

Jaringan Syaraf Tiruan (JST) merupakan sistem komputasi dimana

arsitektur dan operasinya diilhami dari sistem otak manusia. JST dapat digunakan

untuk belajar dan menghasilkan aturan atau operasi dari beberapa contoh yang

diberikan. Dengan kemampuannya ini JST dapat digunakan untuk klasifikasi, dimana

sebuah kelas data dapat diketahui dari variabel yang dimasukkan sehingga walaupun

data yang diklasifikasi memiliki jumlah variabel yang cukup besar, JST bisa

memetakan input menjadi output yang akurat dari hasil belajarnya.

Salah satu model jaringan syaraf tiruan adalah Radial basis function, Model

ini melakukan pembelajaran secara hybrid yaitu menggabungkan antara

pembelajaran terbimbing dan pembelajaran tidak terbimbing. Beberapa penelitian

tentang radial basis function diantaranya adalah penelitian yang dilakukan oleh

Venkatesan & Anitha (2006) yang memaparkan penggunaan model RBF (radial

basis function) untuk melakukan diagnosis penyakit diabetes mellitus. Artsitekur

jaringan yang dipakai menggunakan satu hidden layer dengan penentuan center

menggunakan metode clustering K-Means. Dari hasil penelitian tersebut, diagnosis

menggunakan RBF (radial basis function) lebih baik dari pada menggunakan logistic

regression dan MLP (Multi Layer Perceptron) dengan tingkat akurasi mencapai

98%. Selain itu waktu yang dibutuhkan untuk melakukan pelatihan pada jaringan

RBF lebih cepat dari pada MLP.

Senada dengan penelitian tersebut, penelitian yang dilakukan oleh

Jayawardena & Fernando (1998) memaparkan perbandingan antara penggunanan

model RBF dengan metode clustering data noniterative clustering, RBF dengan

metode clustering K-Means dan model MLP (Multi Layer Perceptron) dengan

training menggunakan backpropagation. Pada model RBF dengan metode clustering

data noniterative clustering mempunyai tingkat error terkecil dengan 6 node pada

hidden layer sedangkan RBF dengan metode clustering K-Means mempunyai tingkat

Page 17: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

2

error terkecil dengan 11 node pada hidden layer. Jika dibandingkan dengan MLP,

model RBF memiliki tingkat akurasi yang lebih baik dan waktu yang lebih cepat

dalam trainingnya.

Dari penelitian di atas bobot neuron model RBF hasil pelatihan langsung

digunakan untuk melakukan testing. Namun dengan berkembangnya penelitian,

muncul beberapa penelitian yang bertujuan meningkatkan akurasi hasil pelatihan

dengan cara optimasi bobot hasil pelatihan jaringan RBF. Salah satu algoritma yang

dapat digunakan untuk optimasi tersebut adalah algoritma genetika. Algoritma ini

mengadopsi mekanisme evolusi biologis. Salah satu penelitian yang melakukan

optimasi pada radial basis function dengan algoritma genetika adalah penelitian yang

dilakukan oleh Zhangang, Yanbo, & Cheng (2007). Pada penelitian ini dipaparkan

penggabungan antara radial basis function dan algoritma genetika untuk model

peramalan. Dari hasil penelitian diperoleh hasil bahwa AG-RBF mempunyai tingkat

akurasi peramalan yang lebih tinggi dan kecepatan konvergensi yang lebih cepat dari

pada RBF biasa.

Sementara itu dari beberapa penelitian mengenai algoritma genetika,

muncul beberapa modifikasi untuk meningkatkan performa algoritma genetika. Salah

satu penelitian mengenai modifikasi algoritma adalah penelitian yang dilakukan oleh

Srinivas & Patnaik (1994). pada penelitian ini dipaparkan pendekatan baru untuk

penentuan probabilitas crossover dan probabilitas mutasi yang adaptif sesuai dengan

fungsi fitness. Pada penelitian ini dilakukan pengujian Adaptive Genetic Algorithm

(AGA) untuk penyelesaian TSP, optimasi jaringan syaraf tiruan dan kasus VLSI

sirkuit. Dari hasil percobaan dapat disimpulkan bahwa kemampuan AGA lebih baik

dari pada Algorima genetika standar.

Dari penjelasan di atas dapat diketahui bahwa model RBF lebih baik dari

pada MLP ditinjau dari tingkat akurasi maupun waktu pelatihan, sementara model

RBF yang sudah dimodifikasi juga didapatkan hasil jauh lebih baik. Salah satu

modifikasi model RBF adalah dikombinasi dengan algoritma genetika. Oleh karena

itu pada penelitian ini, peneliti akan melakukan penelitian mengenai Adaptive

Genetic Algorithm Radial Basis Function Neural Network (AGA RBF) Untuk

Klasifikasi.

Page 18: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

3

1.2 Rumusan Masalah

Berdasarkan latar belakang masalah tersebut, dapat dirumuskan

permasalahan yaitu bagaimana akurasi Adaptive Genetic Algorithm Radial Basis

Function Neural Network (AGA RBF) untuk melakukan klasifikasi tumbuhan iris.

1.3 Batasan Masalah

Batasan masalah pada penelitian ini adalah :

1. Penelitian ini hanya menganalisa mengenai Adaptive Genetic Algorithm Radial

Basis Function Neural Network (AGA RBF) untuk melakukan klasifikasi dengan

studi kasus klasifikasi tumbuhan iris dengan Radial Basis Function Neural

Network sebagai pembanding.

2. Jumlah node di hidden layer adalah dari 2 node sampai 10 node.

3. Nilai ΞΈ (threshold) adalah 0.5.

4. Nilai k1, k2, k3 dan k4 pada AGA berturut-turut adalah 1.0, 0.5, 1.0 dan 0.5.

5. Probabilitas elitism adalah 0.2.

6. Metode crossover pada AGA adalah crossover menengah dengan nilai alpha

dipilih secara random dengan interval [-d. 1+d] dengan d adalah 0.25.

7. Metode mutasi pada AGA adalah mutasi random.

1.4 Tujuan Penelitian

1. Mengetahui bagaimana akurasi Adaptive Genetic Algorithm Radial Basis

Function Neural Network (AGA RBF) untuk melakukan klasifikasi tumbuhan

iris.

2. Merekomendasikan algoritma yang tepat untuk melakukan klasifikasi tumbuhan

iris.

1.5 Manfaat Penelitian

Manfaat penelitian ini adalah mengetahui pengaruh Adaptive Genetic

Algorithm yang dikombinasikan dengan Radial Basis Function Neural Network

untuk melakukan klasifikasi tumbuhan iris, sehingga dapat direkomendasikan

algoritma yang tepat untuk melakukan klasifikasi tumbuhan iris.

Page 19: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

4

1.6 Sistematika Penulisan

Sistematika penulisan penelitian ini terdiri dari beberapa bab yaitu BAB I

PENDAHULUAN, berisi mengenai latar belakang masalah, rumusan masalah,

pembatasan masalah, tujuan, dan sistematika penulisan. BAB II TINJAUAN

PUSTAKA, berisi mengenai teori yang menjadi dasar dalam penelitian ini, yaitu

teori mengenai jaringan syaraf RBF, Algoritma genetika dan dasar teori lain yang

mendukung penelitian ini dan penelitian-penelitian terdahulu yang mendukung

penelitian yang dilakukan sekarang. BAB III METODE PENELITIAN, berisi

tentang metode atau langkah–langkah dalam pemecahan masalah, meliputi

penyusunan formula serta algoritma yang digunakan dalam penelitian. BAB IV

HASIL DAN PEMBAHASAN, Berisi tentang pelatihan dan pengujian algoritma

AGA RBF untuk klasifikasi yang diimplementasikan pada sampel data iris yang ada,

serta menghitung akurasi algoritma AGA RBF dan dibandingkan dengan algoritma

RBF biasa. BAB V PENUTUP, berisi tentang kesimpulan tugas akhir dan saran-

saran sebagai bahan pertimbangan untuk pengembangan penelitian selanjutnya.

Page 20: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

5

BAB II

TINJAUAN PUSTAKA

2.1 Landasan Teori

2.1.1 Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan (Artificial Neural Networks) atau disingkat JST

adalah sistem komputasi dimana arsitektur dan operasi diilhami dari

pengetahuan tentang sel syaraf biologi di dalam otak. JST dapat digambarkan

sebagai model matematis dan komputasi untuk fungsi aproksimasi nonlinear,

klasifikasi data, cluster dan regresi non parametric atau sebagai sebuah simulasi

dari koleksi model syaraf biologi. (Kristanto, 2004).

Model syaraf ditunjukkan dengan kemampuannya dalam emulasi, analisa,

prediksi, dan asosiasi. Berdasarkan kemampuan yang dimiliki, JST dapat

digunakan untuk belajar dan menghasilkan aturan atau operasi dari beberapa

contoh, untuk menghasilkan output yang sempurna dari contoh atau input yang

dimasukkan dan membuat prediksi tentang kemungkinan output yang akan

muncul atau menyimpan karakteristik dari input yang disimpan kepadanya.

a. Struktur Jaringan Syaraf Tiruan

Seperti halnya otak manusia, jaringan syaraf juga terdiri dari beberapa

neuron dan ada hubungan antara neuron-neuron tersebut. Beberapa neuron akan

mentransformasikan informasi yang diterimanya melalui sambungan keluaran

menuju neuron-neuron yang lain. Dengan kata lain, neuron / sel syaraf adalah

sebuah unit pemroses informasi yang merupakan dasar operasi jaringan syaraf

tiruan. Neuron ini dimodelkan dari penyederhanaan sel syaraf manusia yang

sebenarnya. Gambar 2.1 menunjukkan contoh suatu neuron.

Page 21: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

6

X1

X2

Xn

W1

W2

Wn

Fungsi

AktivasiY

Gambar 2.1 Struktur unit jaringan syaraf tiruan

Gambar 2.1 memperlihatkan struktur unit pengolah jaringan syaraf tiruan.

Pada sisi sebelah kiri terlihat beberapa masukan yang menuju ke unit pengolah

yang masing-masing datang dari unit yang berbeda x(n). Setiap sambungan

mempunyai kekuatan hubungan terkait (bobot) yang disimbolkan dengan w(n).

Unit pengolah akan membentuk penjumlahan berbobot dari tiap masukkannya

dan menggunakan fungsi ambang nonlinear (fungsi aktivasi) untuk menghitung

keluarannya. Hasil perhitungan akan dikirimkan melalui hubungan keluaran

seperti tampak pada gambar sisi sebelah kanan (Hermawan, 2006).

b. Fungsi Aktivasi

Operasi dasar dari jaringan syraf tiruan meliputi penjumlahan bobot sinyal

input dan menghasilkan suatu output atau fungsi aktivasi. Beberapa fungsi

aktivasi yang digunakan dalam jaringan syaraf tiruan adalah (Hermawan, 2006) :

1. Fungsi identitas

𝑓 π‘₯ = π‘₯ , untuk semua x (2.1)

2. Fungsi undak biner (dengan batas ambang)

𝑓 π‘₯ = 1 untuk x β‰₯ ΞΈ

0 untuk x < πœƒ (2.2)

3. Fungsi sigmoid

𝑓 π‘₯ =1

1 + exp βˆ’px (2.3)

𝑓 β€² π‘₯ = 𝑝 𝑓 π‘₯ 1 βˆ’ 𝑓 π‘₯ (2.4)

Page 22: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

7

4. Fungsi sigmoid bipolar

𝑔 π‘₯ = 2𝑓 π‘₯ βˆ’ 1 =2

1 + exp βˆ’π‘π‘₯ (2.5)

𝑔 π‘₯ =1 βˆ’ exp βˆ’π‘π‘₯

1 + exp βˆ’π‘π‘₯ (2.6)

𝑔′ π‘₯ =𝑐

2 1 + 𝑔 π‘₯ 1 βˆ’ 𝑔 π‘₯ (2.7)

2.1.2 Jaringan Radial Basis Function

Metode pelatihan jaringan syaraf tiruan terdiri dari 3 macam yaitu, metode

pelatihan terbimbing, metode pelatihan tidak terbimbing dan metode pelatihan

hibrida. (Hermawan, 2006). Algoritma pelatihan terbimbing memanfaatkan

informasi keanggotaan kelas dari setiap contoh pelatihan, dengan informasi ini

algoritma pelatihan terbimbing dapat mendeteksi kesalahan klasifikasi pola

sebagai umpan balik jaringan sementara algoritma pelatihan tak terbimbing

menggunakan contoh yang tidak diklasifikasikan jenisnya, sistem akan dengan

sendirinya (heuristacally) memprosesnya. Penggabungan metode pelatihan

terbimbing dengan metode pelatihan tak terbimbing disebut metode pelatihan

hibrida.

Jaringan Syaraf Tiruan Radial Basis Function merupakan salah satu contoh

jaringan syaraf tiruan dengan metode pelatihan hibrida yaitu menggabungkan

metode pelatihan terbimbing dan metode pelatihan tak terbimbing.

Seperti halnya jaringan saraf tiruan yang lain, Radial Basis Function

(RBF) juga memiliki topologi jaringan. Topologi milik RBF terdiri atas unit

lapisan masukan (input), unit lapisan tersembunyi (hidden), dan unit lapisan

keluaran (output) (Haryono, 2005). Topologi Jaringan RBF digambarkan

sebagai berikut

Page 23: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

8

Gambar 2.2 Topologi Jaringan Radial Basis Function

1. Struktur Jaringan Radial Basis Function

1. Input layer

Input layer adalah bagian dari rangkaian jaringan syaraf tiruan

radial basis function sebagai masukan untuk melakukan proses pertama.

Input layer ini membaca data dari faktor luar yaitu keluaran plant (unit

sensor) dan nilai yang kita kehendaki (referensi) (Kusaedi, 2004).

2. Hidden layer

Pada bagian ini terjadi aktifitas perumusan dalam pembentukan

sistem algoritma yang digunakan dalam jaringan RBF. Layer (lapisan)

kedua adalah lapisan tersembunyi dari dimensi yang lebih tinggi, yang

melayani suatu tujuan pada fungsi basis dan bobotnya dengan nilai yang

berbeda.

Algoritma LMS (Least Means Square) merupakan salah satu

algoritma yang digunakan untuk pembelajaran atau update bobot

jaringan. Algoritma ini banyak digunakan karena kesederhanaan

prosesnya dan kemudahan dalam komputasi. Algoritma LMS akan

meminimalkan fungsi rata – rata kuadrat error. Secara matematis

algoritma LMS dituliskan sebagai berikut (Kusaedi, 2004)

π‘€π‘˜+1 = π‘€π‘˜ + 𝛼 βˆ— π‘’π‘Ÿπ‘Ÿπ‘œπ‘Ÿ βˆ— 𝑣 (2.8)

Page 24: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

9

Pada hidden layer ini selain memuat bobot juga memuat fungsi

basis. Pada jaringan RBF fungsi basis ini identik dengan dengan Fungsi

gaussian yang diformulasikan sebagai berikut (Haryono, 2005) :

πœ‘( π‘‹π‘š βˆ’ 𝑑𝑗 ) = exp(βˆ’1

𝜎2 π‘‹π‘š βˆ’ 𝑑𝑗

2)

(2.9)

Dengan

𝜎 = π‘—π‘Žπ‘Ÿπ‘Žπ‘˜ π‘šπ‘Žπ‘˜π‘ π‘–π‘šπ‘’π‘š π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘Ž 2 π‘π‘’π‘ π‘Žπ‘‘

π‘π‘Žπ‘›π‘¦π‘Žπ‘˜ π‘π‘’π‘ π‘Žπ‘‘=

π‘‘π‘šπ‘Žπ‘₯

𝑛 (2.10)

3. Output layer

Hasil dari penjumlahan dari perkalian antara bobot dengan fungsi

basis akan menghasilkan keluaran yang disebut output layer. Output

layer merespon dari jaringan sesuai pola yang diterangkan pada input

layer. Transformasi dari ruang masukan ke ruang hidden unit adalah

non linier, sedang transformasi dari ruang hidden unit ke ruang keluaran

adalah linier (Kusaedi, 2004).

Menurut Haryono (2005), hal yang khusus pada RBF ialah

berikut ini

a. Pemrosesan sinyal dari input layer ke hidden layer, sifatnya

nonlinier, sedangkan dari hidden layer ke ouput layer

sifatnya linear.

b. Pada hidden layer digunakan sebuah fungsi aktivasi yang

berbasis radial, misalnya fungsi Gaussian.

c. Pada output unit, sinyal dijumlahkan seperti biasa

d. Sifat jaringannya ialah feed-forward.

2. Strategi Pembelajaran Jaringan Radial Basis Function

Berdasarkan rumus fungsi gaussian dan topologi jaringan dapat di

usulkan beberapa strategi pembelajaran pada jaringan RBF ini antara lain

(Kusaedi, 2004) :

1. Mengubah posisi center pada fungsi basis dengan lebar fungsi basis

dan bobot keluaran setiap fungsi basis diset tetap.

Page 25: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

10

2. Mengubah lebar dari fungsi basis dengan posisi center pada fungsi

basis dan bobot keluaran setiap fungsi basis diset tetap.

3. Mengubah bobot keluaran setiap fungsi basis dengan posisi center

pada fungsi basis dan lebar fungsi basis diset tetap.

3. Algoritma Pelatihan Jaringan Radial Basis Function

Jaringan Radial Basis Function memiliki algoritma pelatihan yang

agak unik karena terdiri atas cara terbimbing dan tak terbimbing

sekaligus. Pelatihan Jaringan Radial Basis Function terdiri atas dua

tahap (Haryono, 2005).

1. Tahap Clustering Data

Pada tahap pertama, data di-cluster atau dikelompokkan

berdasarkan kedekatan tertentu, misalnya: kedekatan warna antara 2

pixel, kedekatan jarak antar 2 titik, dan seterusnya. Penentuan

cluster dengan sendirinya akan menghasilkan center atau pusat dari

kelompok data. Jumlah cluster menentukan hidden unit yang dipakai.

Dalam menentukan center, ada dua cara yang bisa dipakai.

Cara yang mudah ialah menentukan center secara acak dari

kelompok data. Cara yang lebih sulit, tetapi lebih baik ialah dengan

menggunakan algoritma clustering. Algoritma yang paling mudah

ialah algoritma K-means. Dengan algoritma tersebut, jaringan saraf

tiruan mampu mencari sendiri center-center yang terbaik bagi data.

Dengan melihat tahap pertama dari pelatihan Jaringan Radial Basis

Function tersebut, dapat disimpulkan bahwa, pada tahap ini, pelatihan

bersifat unsupervised.

2. Tahap Pembaharuan Bobot

Jaringan saraf tiruan menyimpan pengetahuannya dalam bobot

neuron-neuronnya. Pelatihan tahap berikutnya berfungsi mendapatkan

nilai bobot neuron-neuronnya. Pada tahap ini, ada serangkaian

perhitungan yang diperlukan untuk memperbaharui bobot. Pada tahap

ini juga, dibutuhkan data training beserta targetnya. Jadi, dapat

disimpulkan bahwa tahap ini bersifat supervised.

Page 26: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

11

Algoritma Pelatihan Jaringan Radial Basis Function secara Iteratif

(Kusaedi, 2004)

Langkah 1 : Menentukan fungsi basis yang akan digunakan

Langkah 2 : Menentukan center tiap node pada hidden layer

Langkah 3 : Menyediakan bobot sebanyak node pada hidden layer

Langkah 4 : Inisialisasi bobot w = [0 0 0 . . . . . 0]

Set laju konvergensi ( 0 < Ξ± <1) , Menentukan maksimal epoch dan

MSE maksimal.

Langkah 5 : Untuk setiap sinyal latih, selama epoch <= maksimal

epoch dan atau MSE <= MSE maksimal, kerjakan langkah 6 – 11.

Langkah 6 : Hitung keluaran node pada hidden layer

Langkah 7 : Hitung keluaran jaringan RBF

Langkah 8 : Hitung kesalahan (error) antara sinyal terhadap (d)

dengan keluaran RBF y.

error = d – y

Langkah 9 : Update bobot-bobot tiap fungsi basis dan bobot basis

dengan metode LMS.

Langkah 10 : Hitung MSE = akar dari jumlahan kuadrat error

Langkah 11 : epoch = epoch + 1

2.1.3 Algoritma K-Means Clustering

Penghitungan center pada penelitian ini menggunakan K-Means

Clustering. Terdapat n data-data training yang memiliki ukuran dimensi d dalam

lingkungan Rd, yang terbagi dalam k bagian. Permasalahan dalam clustering

adalah cara untuk menentukan nilai k yang merupakan jumlah center yang

bertujuan untuk meminimumkan mean square distance dari masing-masing

data pada center - center yang terdekat. Penghitungan ini sering kali disebut

squared-error.

Misalkan n data-data vektor diasumsikan sebagai Xj = {x1, x2, x3, …, xN,

j=1,2, ..,N} yang akan di pisahkan berdasarkan kemiripannya menjadi k bagian

Clk, k= 1,2, .., K. Clustering akan memproses pengelompokan data-data vektor

Page 27: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

12

menjadi beberapa kelompok (subset) berdasarkan kemiripan data dimana antara

cluster satu dengan yang lain bersifat disjoint (tidak terdapat interseksi antara

cluster).

Algoritma k-means clustering sebagai berikut: (Ririd, 2008)

Menentukan K inisialisasi cluster centers, yaitu M1(1), M2(1), ... , MK(1).

Nilai K merupakan jumlah center dimulai dengan nilai terkecil. Nilai center

yang diinisialisasi dihitung dengan membagi data menjadi K bagian dan

mengambil nilai tengah dari masing-masing bagian.

1. Eucledian

𝑑 π‘₯,𝑦 = π‘₯ βˆ’ 𝑐 2 = (π‘₯𝑖 βˆ’ 𝑐𝑖)2

𝑛

𝑖=1

(2.11)

π‘₯𝑗 βˆ’π‘€π‘˜(π‘š) < π‘₯𝑗 βˆ’π‘€π‘–(π‘š) (2.12)

Penghitungan eucledian untuk mencari jarak terdekat masing-masing data

pembelajaran terhadap center, pemindahan pengelompokan jika jarak data

terhadap center k lebih kecil daripada jarak ke center i .

2. Penghitungan nilai center baru

π‘€π‘˜ π‘š + 1 = 1

π‘π‘˜ π‘₯𝑗

π‘₯π‘—βˆˆπΆπ‘™π‘˜(π‘š)

(2.13)

Penghitungan center yang baru setelah dikelompokkan dengan eucledian.

3. Penghitungan kesalahan dengan Je

𝐽𝑒 = π‘₯𝑗 βˆ’π‘€π‘˜

π‘₯βˆˆπ‘ƒπ‘˜

𝐾

π‘˜=1

(2.14)

Dapat dipisah menjadi 2 bagian yaitu :

π½π‘˜ = π‘₯𝑗 βˆ’π‘€π‘˜ 2

π‘₯βˆˆπ‘ƒπ‘˜

(2.15)

𝐽𝑒 = π½π‘˜

𝐾

π‘˜=1

(2.16)

Dengan langkah ini maka dapat dinilai penghitungan center telah konvergen

atau belum.

Page 28: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

13

4. Pembahasan iterasi

5. Pemeriksaan penghitungan sudah konvergen atau belum

Jika telah mendapatkan penghitungan yang konvergen maka dapat ditemukan

jumlah cluster yang tepat untuk penghitungan aktivasi.

Berikut adalah flowchart dari K-Means Clustering :

Data pelatihan berupa vector

Inisialisasi jumlah cluster = k

dan iterasi maksimum

Pemisahan data range yaitu dengan

mengelompokkan data dengan membagi

menjadi k bagian dan dan mengambil nilai

tengah dari masing-masing bagian

Jarak EUCLEDIAN

Hitung Je iterasi awal

Menghitung center baru

Iterasi = iterasi + 1

Hitung Je iterasi

Je(i+1) == Je

Iterasi = maxENDY

N

Gambar 2.3 Flowchart K-Means Clustering

2.1.4 Algoritma Genetika

Pengertian Algoritma Genetika menurut beberapa sumber :

1. Dalam bukunya, DE Golderg mendefinisikan Algoritma genetika sebagai

algoritma pencarian yang didasarkan pada mekanisme seleksi alamiah dan

genetika alamiah. (Suyanto, 2005) .

2. Menurut Kusumadewi (2003) , Algoritma genetika adalah algortima

pencarian heuristic yang didasarkan atas mekanisme evolusi biologis.

Page 29: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

14

3. Algoritma genetika adalah suatu algoritma pencarian yang berbasis pada

mekanisme seleksi alam dan genetika. Algoritma genetika merupakan salah

satu algoritma yang sangat tepat digunakan dalam menyelesaikan masalah

optimasi kompleks, yang sulit dilakukan oleh metode konvensional (Desiani

& Arhami, 2006).

Jadi dapat dikatakan bahwa Algoritma genetika adalah algoritma pencarian

yang mengadopsi mekanisme seleksi genetika alamiah. Algoritma genetika

pertama kali dikembangkan oleh John Holland dari Universitas Michigan pada

tahun 1975. John Holland menyatakan bahwa setiap masalah yang berbentuk

adaptasi (alami maupun buatan) dapat diformulasikan ke dalam terminologi

genetika. Algoritma genetika adalah simulasi dari proses evolusi Darwin dan

operasi genetika atas kromosom. (Kusumadewi, 2003).

Menurut Kusumadewi (2003), misalkan P(generasi) adalah populasi dari

suatu generasi, secara sederhana algoritma genetika terdiri dari langkah-langkah

sebagai berikut :

1. Generasi = 0 (generasi awal).

2. Inisialisasi populasi awal, P(generasi), secara acak.

3. Evaluasi nilai fitness pada setiap individu dalam P(generasi).

4. Kerjakan langkah-langkah berikut hingga generasi mencapai maksimum

generasi :

a. Generasi = generasi + 1 (tambah generasi).

b. Seleksi populasi tersebut untuk mendapatkan kandidat induk,

P’(generasi)

c. Lakukan crossover pada P’(generasi).

d. Lakukan mutasi pada P’(generasi).

e. Lakukan evaluasi fitness setiap individu pada P’(generasi).

f. Bentuk populasi baru : P(generasi) = {P(generasi-1) yang survive,

P’(generasi)}.

Page 30: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

15

Adapun algoritma genetika tersebut adalah sebagai berikut :

1. Generasi = 0 (generasi awal).

Generasi dapat dikatakan sebagai kumpulan solusi dari masalah yang akan

diselesaikan. Pada satu generasi berisi kumpulan solusi yang disebut populasi.

Untuk menyatakan solusi tersebut diperlukan pengkodean masalah. Pengkodean

adalah suatu teknik untuk menyatakan populasi awal sebagai calon solusi suatu

masalah ke dalam suatu kromosom sebagai suatu kunci pokok persoalan ketika

menggunakan algoritma genetika (Desiani & Arhami, 2006). Teknik

pengkodean ini meliputi pengkodean gen dan kromosom. Gen merupakan

bagian dari kromosom. Satu gen bisanya akan mewakili satu variabel.

Terdapat 3 skema yang paling umum digunakan dalam pengkodean

(Suyanto, 2005), yaitu :

a. Real number encoding. Pada skema ini, nilai gen berada dalam interval

[0,R], dimana R adalah bilangan real positif dan biasanya R = 1. Real

number encoding biasanya digunakan untuk permasalah pencarian rute

terpendek, perbaikan bobot JST dan lain sebagainya. Contoh real

number encoding adalah gen pada kromosom berisi 0.3 , 0.4 , 0.7 dan

seterusnya.

b. Discrete decimal encoding. Setiap gen bisa bernilai satu bilangan bulat

dalam interval [0,9].

c. Binary encoding. Setiap gen hanya bernilai 0 atau 1.

2. Inisialisasi populasi awal, P(generasi), secara acak.

Ukuran populasi tergantung pada masalah yang akan dipecahkan dan jenis

operator genetika yang akan diimplementasikan. Misalnya untuk penyelesaian

kasus TSP dengan jumlah lokasi yang sedikit maka ukuran populasinya juga

kecil karena solusi yang dimungkinkan juga sedikit, selain itu penentuan ukuran

populasi juga tergantung operator genetika yang diimplementasikan misalnya

untuk nilai probabilitas mutasi yang kecil maka ukuran populasi dapat diset

besar karena dengan ukuran yang besar kemungkinan terjadi mutasi masih ada

walaupun dengan probabilitas yang kecil. Setelah ukuran populasi ditentukan,

kemudian harus dilakukan inisialisasi terhadap kromosom yang terdapat pada

Page 31: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

16

populasi tersebut. Inisialisasi kromosom dilakukan secara acak, namun demikian

harus tetap memperhatikan domain solusi dan kendala permasalahan yang ada.

3. Evaluasi nilai fitness pada setiap individu dalam P(generasi).

Fungsi fitness merupakan ukuran kinerja suatu individu agar tetap bertahan

hidup (Desiani & Arhami, 2006). Pada masalah optimasi, jika solusi yang dicari

adalah memaksimalkan sebuah fungsi 𝑕 (dikenal sebagai masalah maksimasi),

maka nilai fitness yang digunakan adalah nilai fungsi 𝑕 tersbut, yakni 𝑓 = 𝑕

(dimana 𝑓 adalah nilai fitness). Tetapi jika masalahnya adalah meminimalkan

fungsi 𝑕 (masalah minimasi), maka fungsi 𝑕 tidak bisa digunakan secara

langsung. Hal ini disebabakan adanya aturan bahwa individu yang memiliki nilai

fitness tinggi lebih mampu bertahan hidup pada generasi berikutnya. Oleh karena

itu nilai fitness yang bisa digunakan adalah

𝑓 = 1𝑕 (2.17)

Yang artinya semakin kecil nilai 𝑕, semakin besar nilai 𝑓. Tetapi hal ini

menjadi masalah jika 𝑕 bisa bernilai 0, yang mengakibatkan 𝑓 bisa bernilai tak

hingga. Untuk mengatasinya, 𝑕 perlu ditambah sebuah bilangan yang dianggap

sangat kecil sehingga nilai fitnessnya menjadi :

𝑓 =1

𝑕 + π‘Ž (2.18)

Dimana π‘Ž adalah bilangan yang dianggap sangat kecil dan bervariasi

sesuai dengan masalah yang akan diselesaikan. (Suyanto, 2005). Misalnya untuk

kasus meminimalkan fungsi h dengan nilai fungsi h berkisar pada angka 0.01

maka nilai a dapat diset 1x10-6

, namun jika nilai fungsi h berkisar pada angka

yang besar misalnya 100 maka nilai dapat diset 1 dan seterusnya.

4. Kerjakan langkah-langkah berikut hingga generasi mencapai maksimum

generasi :

a. Generasi = generasi + 1 (tambah generasi).

b. Seleksi populasi tersebut untuk mendapatkan kandidat induk,

P’(generasi)

Seleksi akan menentukan individu-individu dari P’ (generasi ) yang

akan dipilih untuk dilakukan proses crossover dan mutasi. Salah satu jenis

Page 32: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

17

seleksi yang umum dipakai adalah Seleksi Roda Roulette (Roulette Wheel

Selection). Pada metode ini, individu-individu dipetakan dalam suatu

segmen garis secara berurutan sedemikian hingga tiap-tiap segmen individu

memiliki ukuran yang sama dengan ukuran fitnessnya. Kemudian sebuah

bilangan random dibangkitkan dan individu yang memiliki segmen dalam

kawasan bilangan random tersebut akan terseleksi. Proses ini akan diulang

hingga diperoleh sejumlah individu yang diharapkan.

Contoh metode Roulette Wheel Selection dapat dilihat pada Tabel 2.1.

Misalnya ada 11 individu dalam populasi. Individu pertama memiliki nilai

fitness terbesar yaitu 2.0, individu kedua memiliki nilai fitness 1.8 dan

seterusnya. Kemudian dihitung probablilitas seleksi dengan cara membagi

nilai fitness dengan jumlah total fitness. Misalnya untuk probabilitas seleksi

individu pertama, diperoleh dari perhitungan sebagai berikut :

Total fitness = 2.0 + 1.8 + 1.6 + 1.4 + 1.2 + 1.0 + 0.8 + 0.6 + 0.4 + 0.2 = 11

π‘ƒπ‘Ÿπ‘œπ‘π‘Žπ‘π‘–π‘™π‘–π‘‘π‘Žπ‘  𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑒 π‘π‘’π‘Ÿπ‘‘π‘Žπ‘šπ‘Ž = 2.011 = 0.18

Setelah semua probabilitas dihitung maka ditentukan kumulatif

probabilitasnya untuk mengetahui ukuran segmen individu tersebut.

Misalnya untuk individu kedua, segmen tersebut diperoleh dengan cara

sebagai berikut Segmen individu 2 = kumulatif sebelumnya + probabilitas

seleksi individu 2

Segmen individu 2 = 0.18 + 0.16 = 0.32

Pembagian segmen pada Roulette Wheel Selection dapat dilihat pada

Gambar 2.4. Setelah semua segmen dipetakan, kemudian dibangkitkan

bilangan random antara 0-1 sebanyak individu yang akan diseleksi,

misalnya akan menyeleksi 6 individu maka dibangkitkan 6 bilangan

random. Sebagai contoh dapat dilihat pada Gambar 2.4, misalnya bilangan

random pertama adalah 0.8 maka individu yang terpilih adalah individu ke-6

karena nilai 0.8 berada pada segmen individu ke-6.

Page 33: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

18

Tabel 2.1 Probabilitas seleksi dan nilai fitness

Individu

ke-

1 2 3 4 5 6 7 8 9 10 11

Nilai

fitness

2.0 1.8 1.6 1.4 1.2 1.0 0.8 0.6 0.4 0.2 0.0

Probabilitas

seleksi

0.18 0.16 0.15 0.13 0.11 0.09 0.07 0.06 0.03 0.02 0.0

Gambar 2.4 Seleksi roda roullet

Setelah dilakukan seleksi, maka individu-individu yang terpilih

adalah: 1, 2, 3, 5, 6, 9.

c. Lakukan crossover pada P’(generasi).

Crossover adalah memindah-silangkan dua buah kromosom untuk

mendapatkan kromosom baru. Crossover dilakukan dengan suatu

probabilitas tertentu pc. Porbabilitas crossover (pc) adalah persentase

banyaknya populasi yang mengalami crossover, semakin tinggi pc maka

semakin banyak individu yang mengalami crossover. Pada umumnya , pc

diset mendekati 1, misalnya 0.8. Probabilitas crossover merupakan Adapun

nilai pc ditetapkan di awal dan tidak mengalamai perubahan.

Salah satu jenis crossover adalah Crossover menengah. Crossover

menengah merupakan metode crossover yang hanya dapat digunakan untuk

variabel real. Nilai variabel anak dipilih di sekitar dan antara nilai-nilai

variabel induk. anak dihasilkan menurut aturan sebagai berikut:

Anak = induk 1 + alpha (induk 2 – induk 1)

Dengan alpha adalah faktor skala yang dipilih secara random pada

interval [-d,1+d], biasanya d = 0,25. tiap-tiap variabel pada anak merupakan

hasil crossover variabel-variabel menurut aturan di atas dengan nilai alpha

dipilih ulang untuk tiap variabel.

Page 34: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

19

Misalkan ada 2 individu dengan 3 variabel, yaitu:

Induk 1 : 12 25 5

Induk 2 ; 123 4 34

Misalkan nilai alpha yang terpilih adalah;

Sampel 1 : 0.5 1.1 -0,1

Sample 2 : 0.1 0.8 0.5

Kromosom baru yang terbentuk:

Anak 1 : 67.5 1.9 2.1

Anak 2 : 23.1 8.2 19.5

Crossover disebut juga perkawinan atau penyilangan dua individu

untuk menghasilkan anak. Dari aturan di atas dapat digambarkan misalnya

induk 1 adalah ayah dan induk 2 adalah ibu maka aturan tersebut

menggambarkan bahwa ayah memiliki pengaruh yang lebih besar dari pada

ibu. Pada kondisi lain sesuai dengan proses perkawinan pada manusia dapat

juga terjadi ibu lebih dominan, sehingga dari aturan di atas dapat berubah

menjadi sebagai berikut

Anak = induk 2 + alpha (induk 1 – induk 2)

Namun untuk aturan crossver menengah di sini digunakan aturan

pertama dengan ayah lebih dominan dari pada ibu.

d. Lakukan mutasi pada P’(generasi).

Mutasi berperan untuk menggantikan gen yang hilang dari populasi

akibat proses seleksi yang memungkinkan munculnya kembali gen yang

tidak muncul pada inisialisasi populasi. Proses mutasi ditentukan oleh

probabiltias mutasi (pm). Probabilitas mutasi (pm) didefinisikan sebagai

presentasi dari jumlah total gen pada populasi yang mengalami mutasi.

Adapun nilai pm ditetapkan di awal dan tidak mengalamai perubahan.

Salah satu contoh mutasi adalah dengan mengubah gen yang dimutasi

dengan bilangan random antara nilai tertinggi dan terendah gen dari

kromosom yang dimutasi. (F.Herrera, Lozano, & Vergeday, 1998). Contoh

mutasi adalah sebagai berikut :

Page 35: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

20

Induk = 23.1 8.2 19.5

Anak = 23.1 8.2 14.5

Dari contoh tersebut gen ke-3 dengan nilai 19.5 terkena mutasi. Nilai

mutasi diperoleh dengan membangkitkan bilangan random dari 8.2 (nilai

terendah kromosom) sampai 23.1 misalnya diperoleh 14.5, maka nilai 14.5

(nilai tertinggi kromosom) tersebut menggantikan gen yang termutasi

tersebut.

e. Lakukan evaluasi fitness setiap individu pada P’(generasi).

f. Bentuk populasi baru : P(generasi) = {P(generasi-1) yang survive,

P’(generasi)}.

P(generasi-1) yang survive diperoleh dengan proses elitism. Proses

elitism adalah proses penyalinan beberapa kromosom terbaik dari

P(Generasi - 1), kemudian dimasukkan pada P(Generasi) untuk

menggantikan kromosom pada P’(Generasi) yang buruk. Dimana

P’(Generasi) adalah populasi hasil proses crossover dan mutasi.

2.1.5 Adaptive Genetic Algorithm (AGA)

Adaptive Genetic Algorithm pada dasarnya sama dengan algoritma

genetika, perbedaannya adalah pada probabilitas crossover dan mutasi yang

adaptif sehingga diperlukan Update probabilitas crossover dan probailitas

mutasi setiap satu generasi sedangkan untuk proses yang lainnya sama dengan

algoritma genetika biasa. Secara sederhana algoritma genetika terdiri dari

langkah-langkah sebagai berikut :

1. Generasi = 0 (generasi awal).

2. Inisialisasi populasi awal, P(generasi), secara acak.

3. Evaluasi nilai fitness pada setiap individu dalam P(generasi).

4. Kerjakan langkah-langkah berikut hingga generasi mencapai maksimum

generasi :

a. Generasi = generasi + 1 (tambah generasi).

b. Seleksi populasi tersebut untuk mendapatkan kandidat induk,

P’(generasi)

Page 36: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

21

c. Lakukan crossover pada P’(generasi).

d. Lakukan mutasi pada P’(generasi).

e. Lakukan evaluasi fitness setiap individu pada P’(generasi).

f. Bentuk populasi baru : P(generasi) = {P(generasi-1) yang survive,

P’(generasi)}.

g. Update probabilitas crossover dan probailitas mutasi dengan rumus :

(Srinivas & Patnaik, 1994)

𝑝𝑐 = π‘˜1 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓′ π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜1 ≀ 1.0 (2.19)

π‘π‘š = π‘˜2 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜2 ≀ 1.0 (2.20)

Dengan batasan

𝑝𝑐 = π‘˜3 , 𝑓 β€² ≀ 𝑓 (2.21)

π‘π‘š = π‘˜4, 𝑓 ≀ 𝑓 (2.22)

Dengan k3, k4 ≀ 1.0

2.2 Penelitian Sebelumnya

Beberapa penelitian mengenai Radial Basis Function diantaranya adalah

penelitian yang dilakukana oleh Venkatesan & Anitha (2006). Pada penelitiannya

Venkatesan & Anitha (2006) memaparkan penggunaan model RBF (radial basis

function) untuk melakukan diagnosis penyakit diabetes mellitus. Arsitekur jaringan

yang dipakai menggunakan satu hidden layer dengan penentuan center menggunakan

metode clustering K-Means. Pada penelitian tersebut dilakukan perbandingan antara

metode RBF (radial basis function), logistic regression dan MLP (Multi Layer

Perceptron).

Venkatesan & Anitha (2006) menggunakan database test dan database

eksternal untuk pengujian. Pada database test perancangan model RBF yang

digunakan menggunakan center sebanyak 10 buah dan untuk MLP digunakan 4 node

di hidden layer. Adapun hasil akurasi ketiga model tersebut dengan data dari

database test adalah 73.7 % untuk model LOGISTIK, 91.3 % untuk model MLP dan

untuk model RBF mencapai 97.0 %.

Sedangkan untuk database external perancangan model model RBF yang

digunakan menggunakan center sebanyak 8 buah dan untuk MLP digunakan 3 node

Page 37: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

22

di hidden layer. Adapun hasil akurasi ketiga model tersebut dengan data dari

database external adalah 77.0 % untuk model LOGISTIK, 94.3 % untuk model MLP

dan untuk model RBF mencapai 98.0 %.

Dari hasil penelitian tersebut, Venkatesan & Anitha (2006) menyimpulkan

bahwa diagnosis menggunakan RBF (radial basis function) lebih baik dari pada

menggunakan logistic regression dan MLP (Multi Layer Perceptron) dengan tingkat

akurasi mencapai 98%. Selain itu waktu yang dibutuhkan untuk melakukan pelatihan

pada jaringan RBF lebih cepat dari pada MLP. Namun jika dibandingkan dengan

metode logistic, model RBF dan MLP membutuhkan waktu yang lebih lama untuk

melakukan training. (Venkatesan & Anitha, 2006).

Penelitian lainnya adalah penelitian yang dilakukan oleh Jayawardena &

Fernando (1998) yang memaparkan perbandingan antara penggunanan model RBF

dengan metode clustering data noniterative clustering, RBF dengan metode

clustering K-Means dan model MLP (Multi Layer Perceptron) dengan training

menggunakan backpropagation. Pada model RBF dengan metode clustering data

noniterative clustering mempunyai tingkat error terkecil dengan 6 node pada hidden

layer sedangkan RBF dengan metode clustering K-Means mempunyai tingkat error

terkecil dengan 11 node pada hidden layer. Jika dibandingkan dengan MLP, model

RBF memiliki tingkat akurasi yang lebih baik dan waktu yang lebih cepat dalam

trainingnya.

Sementara itu, penelitian yang dilakukan oleh Haryono (2005) memaparkan

penggunaan RBF untuk pengenalan huruf abjad dari A sampai Z. Arsitektur JST

RBF pada hidden layer digunakan menggunkan fungsi Gaussian sebagai berikut

πœƒ π‘Ÿ = 𝑒π‘₯𝑝 βˆ’π‘Ÿ2

2𝜎2 (2.23)

Dimana 𝜎 adalah nilai spread yang didefinisikan sebagai berikut :

𝜎 = π‘—π‘Žπ‘Ÿπ‘Žπ‘˜ π‘šπ‘Žπ‘˜π‘ π‘–π‘šπ‘’π‘š π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘Ž 2 π‘π‘’π‘ π‘Žπ‘‘

π‘π‘Žπ‘›π‘¦π‘Žπ‘˜ π‘π‘’π‘ π‘Žπ‘‘=

π‘‘π‘šπ‘Žπ‘₯

π‘šπ‘–

(2.24)

Sementara untuk menentukan bobot di hidden layer digunakan metode

pseudoinvers. Untuk metode clustering data yang digunakan adalah Randomize

Page 38: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

23

Cluster Decision. Dari hasil penelitian kekakuratan jaringan syaraf tiruan dalam

pengenalan huruf abjad mencapai 97 %. (Haryono, 2005)

Penelitian lain tentang penggunan JST RBF adalah penelitian yang

dilakukan oleh Kusaedi. Rancangan JST RBF yang digunakan oleh Kusaedi (2004)

dalam Perancangan Kendali Kecepatan Motor DC pada penelitian tersebut

menggunakan fungsi Gaussian sebagai berikut :

πœ‘π‘— = π‘’βˆ’ π‘βˆ’π‘₯𝑗

2

2𝜎2 (2.25)

Untuk update bobot basis digunakan algoritma LMS yang dirumuskan

sebagai berikut :

π‘€π‘˜+1 = π‘€π‘˜ + 𝛼 βˆ— π‘’π‘Ÿπ‘Ÿπ‘œπ‘Ÿ βˆ— 𝑣 (2.26)

Dari hasil penelitian dapat disimpulkan bahwa dengan menggunakan

pelatihan (penggunaan bobot) memberikan hasil yang lebih bagus, walaupun sering

terjadi overshoot terlebih dahulu. (Kusaedi, 2004)

Sementara itu Zhangang, Yanbo, & Cheng (2007) mengusulkan sebuah

metode pelatihan JST RBF yaitu dengan dikombinasikan dengan algoritma genetika.

Topologi JST RBF nya adalah sebagai berikut :

X1

X2

Xn

c1

c2

cn

W1,1

W1,m

W2,1

W2,m

Wq,m

W1,m,

Y2

Y1

Input Layer Hidden Layer Output Layer

Gambar 2.5 Topologi JST RBF

Pemetaan dari data input sampai ke layer output digunakan rumus sebagai

berikut :

Page 39: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

24

𝑦𝑖 = 𝑀𝑗 ,π‘–πœ‘ π‘₯ βˆ’ 𝑐𝑗

π‘ž

𝑗=1

(2.27)

Radial basis function didefinisikan sebagai fungsi Gaussian sebagai

berikut :

πœ‘ π‘Ÿ = 𝑒π‘₯𝑝 βˆ’π‘Ÿ2/2𝜎2 𝜎 > 0, π‘Ÿ β‰₯ 0 (2.28)

Kromosom dikodekan dalam bentuk string real. Adapun kromosomnya

adalah sebagai berikut :

The right to export unit The basic center position The variance of RBF

A chromosome string

Order by number of node

in hidden layer

Gambar 2.6 Kromosom GA-RBF

Dari Gambar 2.6 dapat diketahui bahwa kromosom merupakan representasi

dari export unit, posisi center dan variance RBF. Sementara fungsi fitness

didefiniskan sebagai 1

𝑀𝑆𝐸. Dari hasil penelitian diperoleh hasil bahwa AG-RBF

mempunyai tingkat akurasi peramalan yang lebih tinggi dan kecepatan konvergensi

yang lebih cepat dari pada RBF biasa. (Zhangang, Yanbo, & Cheng, 2007).

Senada dengan penelitian Zhangang, Yanbo, & Cheng (2007), Ahmed,

Nordin, Sulaiman, & Fatimah (2009) membahas mengenai pelatihan jaringan syaraf

tiruan MLP (Multi Layer Perceptron) dengan 1 hidden layer yang dioptimasi

menggunakan algoritma genetika. Model MLP yang digunakan adalah back-

propagation dengan algoritma training Lavenberg Marquant (LM). Adapun

flowchart ANN-GA adalah sebagai berikut :

Page 40: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

25

Translate parameter into NN

Evaluate NN performance

Input Layer

Hidden Layer

Output Layer

NN prediction part

Stop

Fitness evaluation

Selection

Extract the cromoshome

from the current population

Crossover

Select two chromosome

randomly from intermediate

population

ANN parameters design

No

Mutation

Perform mutation with

probability pm

Yes

New

Population

Initial

Population

Optimasi

Gambar 2.7 Flowchart ANN-AG

Mean Square Error (MSE), Root Mean Square Error (RMSE), dan

Determination Coefficients (RΒ²) digunakan untuk mengevaluasi performa ANN-GA.

Semakin kecil MSE dan RMSE serta nilai RΒ² mendekati 1 maka ANN-AG

menunjukan performa yang bagus dan ketepatan akurasi yang tinggi. Adapun rumus

untuk menghitung MSE, RMSE dan R2 adalah sebagai berikut :

𝑀𝑆𝐸 =1

𝑇 π‘Œπ‘˜ βˆ’ π‘‡π‘˜

𝑇

π‘˜=1

(2.29)

𝑅𝑀𝑆𝐸 = 1

𝑇 π‘Œπ‘˜ βˆ’ π‘‡π‘˜

𝑇

π‘˜=1

(2.30)

𝑅2 = 1 βˆ’ π‘Œπ‘˜ βˆ’ π‘‡π‘˜ π‘‡π‘˜=1

π‘Œπ‘˜ βˆ’ π‘Œ π‘˜ π‘‡π‘˜=1

(2.31)

Page 41: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

26

Dari hasil penelitian ditunjukkan bahwa model ANN-GA mempunyai nilai

MSE dan RMSE yang lebih sedikit serta nilai R2 yang lebih besar daripada model

ANN dengan trial-error procedure. (Ahmed, Nordin, Sulaiman, & Fatimah, 2009)

Penelitian lain yang menggabungkan JST dan algoritma genetika adalah

penelitian yang dilakukan oleh Yasin Fahmi. Pada penelitiannya Fahmi (2011)

memaparkan penggabungan antara jaringan syaraf tiruan backpropagation dengan

optimasi menggunakan algoritma genetika untuk peramalan harga saham. Adapun

arsitektur jaringan syaraf tiruannya adalah sebagai berikut :

X1

X2

X3

X4

Z2

Z3

Z4

Y1

Input 1

Input 4

Input 3

Z1

Output 1

X5Input 5

Input 2

Z5

Z6

Z7

Z8

Z9

Z10

Z11

Z12

Z13

Z14

Z15

Gambar 2.8 Model jaringan syaraf tiruan (neuromodel).

Page 42: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

27

Pada penelitiannya dipilih lima indeks saham perusahaan yang memiliki

index saham yang sehat yaitu :

a. Index saham individual Astra International.

b. Index saham individual Gudang Garam.

c. Index saham individual Indosat.

d. Index saham individual Telkom.

e. Index saham individual Unilever.

Kelima index tersebut menjadi input pada jaringan syaraf tiruan. Sedangkan

pada hidden layer terdapat 15 neuron. Fungsi aktivasi yang digunakan adalah

sigmoid biner dan metode normalisasi data yang digunakan adalah Min-max

normalization. Adapun rumus yang digunakan untuk penskalaan adalah sebagai

berikut :

π‘†π‘˜π‘Žπ‘™π‘Ž = π‘›π‘–π‘™π‘Žπ‘– π‘¦π‘Žπ‘›π‘” π‘‘π‘–π‘ π‘˜π‘Žπ‘™π‘Ž βˆ’ π‘›π‘–π‘™π‘Žπ‘– π‘šπ‘–π‘›π‘–π‘šπ‘’π‘› π‘‘π‘Žπ‘‘π‘Ž

π‘›π‘–π‘™π‘Žπ‘– π‘šπ‘Žπ‘₯π‘–π‘šπ‘’π‘› π‘‘π‘Žπ‘‘π‘Ž βˆ’ π‘›π‘–π‘™π‘Žπ‘– π‘šπ‘–π‘›π‘–π‘šπ‘’π‘› π‘‘π‘Žπ‘‘π‘Ž (2.32)

Pada proses optimasi dengan algoritma genetika, fungsi fitness didefinisikan

dengan rumus 1

𝑀𝑆𝐸 , dimana MSE merupakan Mean Square Error. Kromosom

direpresentasikan sebagai kumpulan 15 neuron di hidden layer, karena pada

penelitian ini hanya bobot output yang dioptimasi. Adapun representasi

kromosomnya adalah sebagai berikut :

Z1 Z2 ….. Z14 Z15

Z1, Z2, Z3, Z4, Z5, Z6, Z7, Z8 Z9, Z10, Z11, Z12, Z13, Z14, Z15.

Z = berisi locus yang merupakan nilai neuron 1 sampai 15, pada hidden layer.

Diagram alir penelitian tersebut adalah sebagai berikut :

Page 43: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

28

MULAI

Identifikasi dan

perumusan masalah

Pengumpulan data

Membangun arsitektur

jaringan

Pelatihan bobot dan

bias JST

MSE <= 0.1

Optimasi bobot dan

bias menggunakan AG

Pengujian Jaringan

Syaraf Tiruan

Peramalan menggunakan

Jaringan Syaraf Tiruan

Analisis

Kesimpulan dan saran

Selesai

Ya

Tidak

Gambar 2.9 Diagram alir penelitian

Dari hasil penelitian menunjukan bahwa pada saat inisialisasi bobot dan bias

jaringan syaraf tiruan, nilai MSE yang didapatkan adalah 0.0297. Setelah bobot dan

bias dioptimasi dengan menggunakan algoritma genetika dihasilkan nilai MSE

Page 44: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

29

sebesar 0,004490 dan nilai fitness sebesar 222.70. Nilai MSE sebelum dan setelah

optimasi bobot ini mengalami penurunan sebesar 567.455%. (Fahmi, 2011).

Di sisi lain, seiring perkembangan penelitian mengenai algoritma genetika,

muncul berbagai macam modifikasi algoritma genetika untuk meningkatkan kualitas

algoritma genetika, salah satunya adalah penelitian yang dilakukan oleh Srinivas &

Patnaik (1994). Pada penelitiannya Srinivas & Patnaik (1994) memaparkan sebuah

pendekatan baru pada algoritma genetika yaitu probabilitas crossover dan mutasi

yang adaptif. Selama ini pada Algoritma genetika standar nilai probabilitas crossover

dan mutasi selalu diset tetap untuk setiap iterasi pada proses optimasi dengan

algoritma genetika.

Srinivas & Patnaik (1994) mengusulkan nilai probabilitas crossover dan

mutasi tidak tetap namun berubah sesuai dengan nilai fitness. Adapun rumus

probabilitas crossover dan mutasi yang diusulkan adalah sebagai berikut :

𝑝𝑐 = π‘˜1 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓′ π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜1 ≀ 1.0 (2.33)

π‘π‘š = π‘˜2 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜2 ≀ 1.0 (2.34)

Dengan batasan

𝑝𝑐 = π‘˜3, 𝑓 β€² ≀ 𝑓 (2.35)

π‘π‘š = π‘˜3 , 𝑓 ≀ 𝑓 (2.36)

Dimana k3, k4 ≀ 1.0

π‘˜1,π‘˜2,π‘˜3 ,π‘˜4 ≀ 0

Agar rumus di atas dapat berjalan dengan optimal maka dasarankan untuk

nilai k1, k2, k3 dan k4 berturut-turut adalah 1.0, 0.5, 1.0 dan 0.5.

Srinivas & Patnaik (1994) melakukan pengujian Adaptive Genetic

Algorithm (AGA) untuk penyelesaian TSP, optimasi jaringan syaraf tiruan dan kasus

VLSI sirkuit. Dari hasil percobaan dapat disimpulkan bahwa kemampuan AGA lebih

baik dari pada Algorima genetika standar.

Dari hasil penelitian penentuan nilai pc dan pm yang adaptif sesuai dengan

nilai fitness sesuai dengan yang diusulkan tersebut, tidak hanya meningkatkan

konvergensi algoritma genetika tetapi juga mencegah terjadinya local optimum.

(Srinivas & Patnaik, 1994).

Page 45: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

30

Penelitian lain yang dirujuk dalam tugas akhir ini adalah penelitian

Rismawan & Kusumadewi (2008) yang memaparkan penggunaan metode clustering

K-Means Untuk Pengelompokkan Mahasiswa Berdasarkan Nilai Body Mass Index

(Bmi) & Ukuran Kerangka. Pada penelitian ini telah dibangun sistem yang dapat

digunakan untuk mengklasifikasi mahasiswa menurut BMI dan ukuran kerangkanya

berdasarkan data kondisi fisik dari mahasiswa yang bersangkutan yang telah diambil

terlebih dahulu. Data kondisi fisik yang digunakan adalah tinggi badan, berat badan

dan lingkar lengan bawah. Dari data tersebut dikelompokkan menjadi 3 dengan

menggunakan metode K-Means.

Dari hasil penelitian, dapat disimpulkan bahwa algoritma klasifikasi K-

Means dapat digunakan untuk mengelompokkan mahasiswa berdasarkan status gizi

dan ukuran kerangka. Dari data yang dilatih, diperoleh 3 kelompok berdasarkan BMI

dan ukuran kerangka, yaitu : (Rismawan & Kusumadewi, 2008)

1. BMI normal dan kerangka besar, dengan pusat cluster (19,53; 11,52).

2. BMI obesitas sedang dan kerangka sedang, dengan pusat custer (25,44;

10,22).

3. BMI obesitas berat dan kerangka kecil, dengan pusat cluster (43,25;

8,95).

2.3 Rencana penelitian

Dengan melihat tinjauan pustaka di atas, penelitian ini akan berkonsentrasi

pada penggabungan jaringan syaraf tiruan Radial Basis Function (RBF) dengan

algoritma genetika untuk klasifikasi. Algoritma genetika yang digunakan pada

penelitian ini adalah Adaptive Genetic Algortihm (AGA). Hasil penelitian ini adalah

untuk mengetahui bagaimana akurasi pelatihan RBF dengan AGA untuk klasifikasi.

Page 46: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

31

BAB III

METODE PENELITIAN

3.1 Studi Literatur

Studi literatur dilakukan untuk mendapatkan pengetahuan dari literatur-

literatur yang berkaitan dengan objek yang dikaji. Pengetahuan yang diperlukan

didapatkan dengan mempelajari Algoritma Genetika, Jaringan Syaraf Tiruan,

Adaptive Genetic Algorithm, Algoritma K-Means Clustering dan Jaringan Radial

Basis Function.

3.2 Perancangan

3.2.1 Data

Database iris diperoleh dari UCI Machine Learning Repository dengan

alamat di http://archive.ics.uci.edu/ml/. Total data sebanyak 150 data, 50 data

(33.3%) untuk masing masing class yaitu iris setosa, iris versicolour dan iris

virginica, dengan deskripsi atribut ditunjukkan pada tabel 3.1 :

Tabel 3.1 Deskripsi atribut data iris

No Atribut Domain

1 Panjang sepal Bilangan real dalam cm

2 Lebar sepal Bilangan real dalam cm

3 Panjang petal Bilangan real dalam cm

4 Lebar petal Bilangan real dalam cm

5 Class iris setosa, iris versicolour dan iris virginica

Sumber : (Blak, 1988)

3.2.2 Algoritma AGA RBF

Pada tugas akhir ini akan dibuat algoritma penggabungan jaringan radial

basis function dengan Adaptive genetic algorithm sebagai berikut :

Page 47: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

32

MULAI

Membangun arsitektur

jaringan RBF

Pelatihan RBF

MSE < 0.01 OR

Iterasi = max epoh

Ubah bobot dengan

AGA

SELESAI

Ya

Tidak

Hasil

Gambar 3.1 Algoritma AGA RBF

Algoritma AGA RBF tersebut adalah sebagai berikut :

1. Membangun arsitektur jaringan RBF (Radial Basis Function)

Tahapan dalam membangun jaringan radial basis function ditunjukkan

pada Gambar 3.2 :

Page 48: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

33

MULAI

Menentukan fungsi

basis

Menentukan

banyaknya center

Menyusun arsitektur

RBF

SELESAI

Menentukan center

dengan algoritma

K-Means

Gambar 3.2 Tahapan pembangunan jaringan radial basis function

a. Menentukan fungsi basis. Fungsi basis ini akan digunakan untuk aktivasi

fungsi di hidden layer. Fungsi yang digunakan adalah fungsi berbasis

radial yaitu fungsi Gaussian. Adapun fungsi Gaussian adalah sebagai

berikut :

πœƒ π‘Ÿ = 𝑒π‘₯𝑝 βˆ’π‘Ÿ2

2𝜎2 (3.1)

Dimana 𝜎 adalah nilai spread yang didefinisikan sebagai berikut :

𝜎 = π‘—π‘Žπ‘Ÿπ‘Žπ‘˜ π‘šπ‘Žπ‘˜π‘ π‘–π‘šπ‘’π‘š π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘Ž 2 π‘π‘’π‘ π‘Žπ‘‘

π‘π‘Žπ‘›π‘¦π‘Žπ‘˜ π‘π‘’π‘ π‘Žπ‘‘=

π‘‘π‘šπ‘Žπ‘₯

𝑛 (3.2)

Menetukan banyaknya center. Banyaknya center akan mempengaruhi

arsitektur jaringan radial basis function karena banyaknya center akan

menjadi neuron pada hidden layer jaringan radial basis function.

Page 49: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

34

Penentuan banyaknya center sama dengan menentukan jumlah cluster

yang akan dicari centernya menggunakan algoritma K-Means.

b. Menentukan center dengan algoritma K-Means. Adapun algoritma K-

Means ditunjukkan pada Gambar 3.3 :

Data berupa

vektor

MULAI

SELESAI

Inisialisasi jumlah

cluster = k dan iterasi

maksimum

Inisialisasi center

Hitung Je iterasi awal

Hitung eucledian

Hitung center baru

Iterasi = iterasi + 1

Hitung Je iterasi

Je(i+1) == Je

Iterasi = max

Ya

Tidak

Gambar 3.3 Algoritma K-Means

1) Load data

2) Inisialisasi jumlah cluster (k) dan iterasi maksimal

Page 50: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

35

3) Inisialisasi center dengan mengelompokkan data, dengan cara

membagi data menjadi k bagian dan untuk masing-masing bagian

diambil nilai tengahnya.

4) Hitung Je iterasi awal. Je adalah sum-of-square-error atau jumlahan

kuadrat error masing-masing data pada cluster terdekat. Adapun

rumus perhitungan Je adalah sebagai berikut :

π½π‘˜ = π‘₯𝑗 βˆ’π‘€ 2

π‘₯βˆˆπ‘ƒπ‘˜

(3.3)

𝐽𝑒 = π½π‘˜

𝐾

π‘˜=1

(3.4)

5) Selama Je(i+1) tidak sama dengan Je iterasi dan iterasi belum

mencapai maksimal lakukan :

a) Hitung eucledian dengan rumus

𝑑 π‘₯,𝑦 = π‘₯ βˆ’ 𝑐 2 = (π‘₯𝑖 βˆ’ 𝑐𝑖)2

𝑛

𝑖=1

(3.5)

π‘₯𝑗 βˆ’π‘€π‘˜(π‘š) < π‘₯𝑗 βˆ’π‘€π‘–(π‘š) (3.6)

Dimana

b) Hitung center baru dengan rumus

π‘€π‘˜ π‘š + 1 = 1

π‘π‘˜ π‘₯𝑗

π‘₯π‘—βˆˆπΆπ‘™π‘˜(π‘š)

(3.7)

c) Hitung Je iterasi

c. Menyusun arsitektur jaringan radial basis function.

Page 51: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

36

X1

X2

X3

X4

Ο†1

Ο†2

Ο†n

Y1

Y2

wij

x1

x2

x4

x3

b

y1

y2

Gambar 3.4 Arsitektur jaringan radial basis function

Pada penelitian ini input data untuk jaringan radial basis function

adalah 4 atribut data iris yaitu :

X1 panjang sepal dalam cm

X2 lebar sepal dalam cm

X3 panjang petal dalam cm

X4 panjang petal dalam cm

Pada hidden layer merupakan bias dan fungsi basis dengan jumlah

neuron sesuai dengan jumlah center yang didefiniskan yaitu Ο†1, Ο†2,… Ο†n.

Dengan n adalah jumlah center. Pada output layer terdapat 2 neuron dengan

fungsi aktivasi biner dengan treshold ΞΈ = 0. Adapun persamaan dari fungsi

biner dengan threshold adalah sebagai berikut :

𝑓 π‘₯ = 1 𝑖𝑓 π‘₯ β‰₯ πœƒ0 𝑖𝑓 π‘₯ < πœƒ

(3.8)

Output dari jaringan radial basis function adalah berupa bilangan biner

untuk Y1 dan Y2. Output akhir jaringan radial basis function untuk

klasifikasi tumbuhan iris adalah sebagai berikut :

Y1 = 0, Y2 = 0 adalah iris setosa

Y1 = 0, Y2 = 1 adalah iris versicolour

Y1 = 1, Y2 = 1 adalah iris virginica

Y1 = 1, Y2 = 0 tidak teridentifikasi

Page 52: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

37

2. Pelatihan jaringan radial basis function

Algoritma pelatihan jaringan radial basis function adalah sebagai berikut

Langkah 1 : Inisialisasi iterasi maksimal dan learning rate (Ξ±).

Langkah 2 : Inisialisasi bobot pada hidden layer (bobot basis).

Langkah 3 : Selama epoch <= maksimal epoch dan atau MSE <= 0.01, untuk

setiap sinyal latih kerjakan langkah 4 – 8

Langkah 4 : Hitung keluaran jaringan RBF dengan rumus : (Zhangang, Yanbo,

& Cheng, 2007)

𝑦𝑖 = 𝑀𝑗 ,π‘–πœ‘ π‘₯ βˆ’ 𝑐𝑗

π‘ž

𝑗=1

(3.9)

Dengan fungsi basis didefinisikan sebagai berikut :

πœ‘ π‘Ÿ = 𝑒π‘₯𝑝 βˆ’π‘Ÿ2/2𝜎2 𝜎 > 0, π‘Ÿ β‰₯ 0 (3.10)

Sebelum masuk fungsi aktivasi dengan threshold hasil

πœ‘ 𝑣 diaktivasi dengan fungsi sigmoid terlebih dahulu untuk membatasi nilai

agar tetap berada pada range 0 sampai 1. (Bors) Adapun fungsi sigmoid adalah

sebagai berikut :

𝑓 π‘₯ =1

1 + exp βˆ’π‘π‘₯ (3.11)

Dimana nilai Οƒ didefinisikan sebagai berikut : (Haryono, 2005)

𝜎 = π‘—π‘Žπ‘Ÿπ‘Žπ‘˜ π‘šπ‘Žπ‘˜π‘ π‘–π‘šπ‘’π‘š π‘Žπ‘›π‘‘π‘Žπ‘Ÿπ‘Ž 2 π‘π‘’π‘ π‘Žπ‘‘

π‘π‘Žπ‘›π‘¦π‘Žπ‘˜ π‘π‘’π‘ π‘Žπ‘‘=

π‘‘π‘šπ‘Žπ‘₯

𝑛 (3.12)

Dan fungsi aktivasi sebagai berikut :

𝑓 π‘₯ = 1 𝑖𝑓 π‘₯ β‰₯ πœƒ0 𝑖𝑓 π‘₯ < πœƒ

(3.13)

Langkah 5 : Hitung kesalahan (error) antara sinyal target sinyal latih (d) dengan

keluaran RBF y. error = d – y

Langkah 6 : Update bobot node hidden layer dan bias dengan metode LMS.

Langkah 7 : Hitung MSE = akar dari jumlahan kuadrat error

Langkah 8 : epoch = epoch + 1

Page 53: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

38

3. Ubah bobot dengan Adaptive Genetic Algorithm

Algoritma Adaptive Genetic Algorithm (AGA) pada dasarnya sama dengan

algoritma genetika biasa namun perbedaan mendasar pada AGA adalah

penentuan probabilitas crossover dan probabilitas mutasi yang adaptif sesuai

dengan nilai fitness. Adapun algoritma AGA RBF adalah sebagai berikut :

MULAI

Inisialisasi Populasi

Konfigurasi AGA

Evaluasi Fitness

Kriteria

Berhenti ?

Crossover

Mutasi

SELESAI

Seleksi

Update

probabilitas crossover &

probabilitas mutasi

Terjemahkan kromosom ke

bobot RBF

RBF

Evaluasi performa RBF

Ya

Tidak

Populasi baru

Hasil

Gambar 3.5 Algoritma AGA RBF

a. Konfigurasi AGA meliputi

1) Melakukan representasi solusi kedalam kromosom / individu. Pada

penelitian ini kromosom direpresentasikan dalam string bilangan real.

Setiap gen berisi nilai real yang mewakili bobot basis di hidden layer

pada jaringan radial basis function. Panjang kromosom sebanyak

jumlah bobot basis dan bias pada jaringan radial basis function.

Adapun repreentasi kromosom dapat digambarkan sebagai berikut :

Z1 Z2 Z3 ….. Zn Zn+1

Z1 sampai Zn berisi bobot basis, dengan n adalah banyaknya bobot

yang yaitu banyaknya neuron hidden layer dikali 2 (output layer).

Z1, Z2…Zn berturut-turut adalah

Page 54: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

39

Z1 = w11

Z2 = w12

Z3 = w21

Z4 = w22

……

Zn = w22

2) Penentuan jumlah kromosom dalam populasi.

3) Penentuan kriteria berhenti berupa fitness max dan maksimal generasi.

4) Inisialisasi probabilitas crossover (pc) dengan bilangan random antara

0 sampai 1.

5) Inisialisasi probabilitas mutasi (pm) dengan bilangan random antara 0

sampai 1.

6) Penentuan nilai k1, k2, k3 dan k4 sebagai variable untuk update pc dan

pm.

7) Penentuan eltisme.

b. Inisialisasi populasi yaitu dengan mengambil bobot sebanyak jumlah

kromosom pada epoch-epoch akhir pelatihan jaringan radial basis

function.

c. Selama kondisi berhenti belum terpenuhi kerjakan langkah 4 sampai

selesai.

d. Terjemahkan kromosom menjadi bobot dan bias untuk dievaluasi

performanya pada jaringan radial basis function.

e. Evaluasi fitness yaitu menghitung nilai fitness masing-masing kromosom

dengan rumus (Burdsall & Giraud-Carrier)

𝑓𝑖𝑑𝑛𝑒𝑠𝑠 =π‘π‘œπ‘Ÿπ‘Ÿπ‘’π‘π‘‘_π‘π‘™π‘Žπ‘ π‘ π‘–π‘“π‘–π‘π‘Žπ‘‘π‘–π‘œπ‘›

𝑠𝑖𝑧𝑒_π‘œπ‘“_π‘’π‘£π‘Žπ‘™π‘’π‘Žπ‘‘π‘–π‘œπ‘›_𝑠𝑒𝑑 (3.14)

f. Seleksi yaitu memilih individu yang paling fit untuk selanjutnya

dilakukan proses crossover dan mutasi. Metode seleksi yang dipakai

pada penilitian ini yaitu roulette wheel.

g. Crossover yaitu menyilangkan dua buah individu untuk mendapatkan

individu baru yang diharapkan lebih baik dari induknya. Metode

Page 55: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

40

crossover yang digunakan pada penelitian ini adalah rekombinasi

menengah.

h. Mutasi dilakukan pada bilangan real. Yaitu dengan mengubah gen yang

dimutasi dengan bilangan random antara nilai tertinggi dan terendah gen

dari kromosom yang dimutasi. (F.Herrera, Lozano, & Vergeday, 1998).

i. Dapatkan generasi baru dan update probabilitas crossover dan

probailitas mutasi dengan rumus : (Srinivas & Patnaik, 1994)

𝑝𝑐 = π‘˜1 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓′ π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜1 ≀ 1.0 (3.15)

π‘π‘š = π‘˜2 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 π‘“π‘šπ‘Žπ‘₯ βˆ’ 𝑓 , π‘˜2 ≀ 1.0 (3.16)

Dengan batasan

𝑝𝑐 = π‘˜3, 𝑓 β€² ≀ 𝑓 (3.17)

π‘π‘š = π‘˜4, 𝑓 ≀ 𝑓 (3.18)

Dengan k3, k4 ≀ 1.0

3.2.3 Implementasi

Implementasi dilakukan dengan mengaplikasikan model JST RBF dan JST

AGA RBF dengan berbagai variasi simulasi pada variabel RBF dan variasi simulasi

pada variabel AGA RBF. Variasi simulasi pada variabel RBF ditunjukkan pada

Tabel 3.2 dan variasi simulasi pada variabel AGA RBF ditunjukan pada Tabel 3.3.

Tabel 3.2 Variasi Simulasi Pada Variabel RBF

No Jenis Variasi Keterangan

1 Variasi learning rate 0.01

0.05

0.1

2 Variasi banyaknya epoch 50

100

150

200

Page 56: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

41

Tabel 3.3 Variasi Simulasi Pada Variabel AGA RBF

No Jenis Variasi Keterangan

1 Variasi populasi 10

20

30

2 Variasi generasi 20

40

60

Pada setiap satu simulasi, dilakukan dengan mengubah arsitektur JST dari

JST dengan 2 hidden layer sampai 10 hidden layer dengan setiap arsitektur

dilakukan 10 kali simulasi. Simulasi berhenti pada batas minimum error JST RBF

adalah 0.001 dan batas maksimal fitness AGA RBF adalah 1.

Skenario yang dijalankan adalah melakukan simulasi untuk mendapatkan

variabel RBF yang terbaik untuk masing-masing arsitektur, kemudian kombinasi

variabel terbaik dari variabel RBF dari masing-masing arsitektur dikombinasikan

dengan variabel AGA RBF untuk mendapatkan variabel AGA RBF yang terbaik

untuk masing-masing arsitektur. Kombinasi variabel dikatakan terbaik jika memiliki

hasil akurasi terbaik dari seluruh simulasi yang dilakukan.

Simulasi dilakukan dengan melakukan training data sebesar 70 % dari

keseluruhan data yang dibagi menjadi 70 % data dengan hasil klasifikasi iris setosa,

70 % data dengan hasil klasifikasi iris versicolour dan 70 % data dengan hasil

klasifikasi iris virginica. Pengujian dilakukan dengan menggunakan 30 % data yang

kemudian akan dibandingkan antara algoritma AGA RBF dengan algoritma RBF

standar sebagai pembanding.

Bobot hasil training JST RBF dan bobot hasil proses AGA RBF digunakan

untuk melakukan testing pada data testing untuk kasus data iris. Hasil klasifikasi dari

metode RBF dan AGA RBF kemudian dibandingkan untuk mengetahui pengaruh

AGA pada JST RBF.

Page 57: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

42

3.2.4 Analisa

Analisa dilakukan dengan menghitung performa hasil pelatihan algortima

RBF biasa dengan algoritma AGA RBF. Performa dievaluasi dengan menghitung

akurasi prediksi (Akurasiuracy of prediction). (Ali, 2008).

Untuk menghitung akurasi jaringan RBF digunakan rumus sebagai berikut :

𝐴𝑃 = π½π‘’π‘šπ‘™π‘Žπ‘• π‘π‘Ÿπ‘’π‘‘π‘–π‘˜π‘ π‘– π‘π‘’π‘›π‘Žπ‘Ÿ

π½π‘’π‘šπ‘™π‘Žπ‘• π‘π‘Ÿπ‘’π‘‘π‘–π‘˜π‘ π‘– π‘π‘’π‘›π‘Žπ‘Ÿ + π‘—π‘’π‘šπ‘™π‘Žπ‘• π‘π‘Ÿπ‘’π‘‘π‘–π‘˜π‘ π‘– π‘ π‘Žπ‘™π‘Žπ‘• (3.19)

Page 58: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

43

BAB IV

HASIL DAN PEMBAHASAN

Pada bab ini akan diuraikan mengenai implementasi program AGA RBF

yang sudah dibuat. Implementasi program dilakukan dengan berbagai variasi

simulasi baik dari variabel JST RBF maupun JST AGA RBF. Simulasi dengan

berbagai variasi percobaan dilakukan untuk mendapatkan variabel JST RBF dan

AGA RBF yang paling tepat. Variasi nilai variabel akan mempengaruhi hasil

klasifikasi JST RBF maupun JST AGA RBF. Variasi variabel ditunjukkan pada

Tabel 3.2 dan Tabel 3.3. Setiap kombinasi variasi dilakukan simulasi untuk masing-

masing arsitektur JST yaitu dengan jumlah hidden layer = 2 sampai jumlah hidden

layer = 10 sebanyak 10 kali pengulangan dan diambil rata-ratanya.

Data yang digunakan adalah database tumbuhan iris. Database tersebut

terdiri dari 4 variabel yaitu panjang sepal, lebar sepal, panjang petal dan lebar petal

dan terdiri dari 3 kelas yaitu iris setosa, iris versicolour dan iris virginica.

Pembagian data adalah 105 data untuk proses training dengan masing-masing kelas

terdiri dari 35 data dan 45 data untuk proses testing dengan masing-masing kelas

terdiri dari 15 data.

Skenario yang dijalankan adalah melakukan simulasi untuk mendapatkan

variabel RBF yang terbaik untuk masing-masing arsitektur, kemudian kombinasi

variabel terbaik dari variabel RBF dari masing-masing arsitektur dikombinasikan

dengan variabel AGA RBF untuk mendapatkan variabel AGA RBF yang terbaik

untuk masing-masing arsitektur. Kombinasi variabel dikatakan terbaik jika memiliki

hasil akurasi terbaik dari seluruh simulasi yang dilakukan.

Pada penelitian ini, JST RBF digunakan sebagai pembanding JST AGA

RBF untuk mengetahui apakah akurasi JST RBF bertambah atau justru berkurang

dengan adanya penambahan AGA. Analisa hasil simulasi dilakukan dengan

membandingkan seluruh hasil simulasi untuk mengetahui bagaimana pengaruh AGA

pada JST RBF untuk kasus klasifikasi data tumbuhan iris.

Page 59: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

44

4.1 Variasi Simulasi Pada Variabel RBF

Variasi simulasi pada variabel RBF terdiri dari kombinasi variasi learning

rate dan epoch untuk masing-masing arsitektur.

1. Simulasi RBF Dengan 2 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.1 Simulasi RBF Dengan 2 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 14.44

0.01 100 3.34

0.01 150 2.23

0.01 200 1.33

0.05 50 12.89

0.05 100 8.89

0.05 150 3.55

0.05 200 1.55

0.1 50 13.78

0.1 100 8.89

0.1 150 4.22

0.1 200 1.11

Gambar 4.1 Grafik Simulasi RBF 2 Hidden Layer

Pada simulasi RBF dengan 2 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.01 dan epoch = 50 dengan akurasi 14.44 %.

02468

10121416

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 60: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

45

2. Simulasi RBF Dengan 3 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.2 Simulasi RBF Dengan 3 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 25.11

0.01 100 32.89

0.01 150 44.00

0.01 200 48.44

0.05 50 43.95

0.05 100 54.00

0.05 150 53.11

0.05 200 51.55

0.1 50 48.45

0.1 100 57.11

0.1 150 55.56

0.1 200 51.56

Gambar 4.2 Grafik Simulasi RBF 3 Hidden Layer

Pada simulasi RBF dengan 3 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 100 dengan akurasi 57.11 %.

0

10

20

30

40

50

60

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 61: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

46

3. Simulasi RBF Dengan 4 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.3 Simulasi RBF Dengan 4 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 35.56

0.01 100 52.67

0.01 150 53.78

0.01 200 54.22

0.05 50 59.56

0.05 100 57.11

0.05 150 52.67

0.05 200 56.00

0.1 50 60.22

0.1 100 55.56

0.1 150 51.11

0.1 200 54.89

Gambar 4.3 Grafik Simulasi RBF 4 Hidden Layer

Pada simulasi RBF dengan 4 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 50 dengan akurasi 60.22 %.

0

10

20

30

40

50

60

70

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 62: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

47

4. Simulasi RBF Dengan 5 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.4 Simulasi RBF Dengan 5 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 18.00

0.01 100 12.89

0.01 150 14.22

0.01 200 15.78

0.05 50 16.22

0.05 100 18.67

0.05 150 17.78

0.05 200 17.78

0.1 50 15.53

0.1 100 19.98

0.1 150 17.78

0.1 200 17.78

Gambar 4.4 Grafik Simulasi RBF 5 Hidden Layer

Pada simulasi RBF dengan 5 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 100 dengan akurasi 19.98%.

0

5

10

15

20

25

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 63: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

48

5. Simulasi RBF Dengan 6 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.5 Simulasi RBF Dengan 6 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 86.48

0.01 100 89.33

0.01 150 93.33

0.01 200 93.33

0.05 50 95.34

0.05 100 95.34

0.05 150 95.55

0.05 200 95.55

0.1 50 95.55

0.1 100 95.34

0.1 150 95.55

0.1 200 95.55

Gambar 4.5 Grafik Simulasi RBF 6 Hidden Layer

Pada simulasi RBF dengan 6 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 50 dengan akurasi 95.55%.

80

85

90

95

100

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 64: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

49

6. Simulasi RBF Dengan 7 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.6 Simulasi RBF Dengan 7 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 88.25

0.01 100 93.33

0.01 150 93.33

0.01 200 94.22

0.05 50 96.00

0.05 100 95.78

0.05 150 96.67

0.05 200 96.22

0.1 50 95.56

0.1 100 97.56

0.1 150 97.56

0.1 200 97.78

Gambar 4.6 Grafik RBF Simulasi Dengan 7 Hidden Layer

Pada simulasi RBF dengan 7 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 200 dengan akurasi 97.78%.

80

85

90

95

100

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 65: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

50

7. Simulasi RBF Dengan 8 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.7 Simulasi RBF Dengan 8 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 90.46

0.01 100 93.55

0.01 150 95.33

0.01 200 95.33

0.05 50 97.76

0.05 100 97.76

0.05 150 97.78

0.05 200 97.78

0.1 50 95.56

0.1 100 97.76

0.1 150 97.78

0.1 200 97.78

Gambar 4.7 Grafik Simulasi RBF Dengan 8 Hidden Layer

Pada simulasi RBF dengan 8 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.05 dan epoch = 150 dengan akurasi 97.78%.

86

88

90

92

94

96

98

100

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 66: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

51

8. Simulasi RBF Dengan 9 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.8 Simulasi RBF Dengan 9 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 94.47

0.01 100 96.22

0.01 150 96.44

0.01 200 97.56

0.05 50 93.33

0.05 100 97.76

0.05 150 97.78

0.05 200 97.76

0.1 50 95.56

0.1 100 97.56

0.1 150 97.78

0.1 200 97.78

Gambar 4.8 Grafik Simulasi RBF 9 Hidden Layer

Pada simulasi RBF dengan 9 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.05 dan epoch = 150 dengan akurasi 97.78%.

919293949596979899

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 67: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

52

9. Simulasi RBF Dengan 10 Hidden Layer

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.9 Simulasi RBF Dengan 10 Hidden Layer

Learning Rate Epoch Akurasi RBF (%)

0.01 50 88.67

0.01 100 93.33

0.01 150 94.44

0.01 200 94.89

0.05 50 95.56

0.05 100 95.56

0.05 150 96.22

0.05 200 96.00

0.1 50 94.67

0.1 100 94.23

0.1 150 94.67

0.1 200 96.89

Gambar 4.9 Grafik Simulasi RBF Dengan 10 Hidden Layer

Pada simulasi RBF dengan 10 hidden layer, akurasi terbaik diperoleh saat

learning rate = 0.1 dan epoch = 200 dengan akurasi 96.89%.

Secara keseluruhan, simulasi RBF terbaik mencapai akurasi 97.78% yang

diperoleh pada arsitektur dengan 7 hidden layer yaitu dengan variabel learning rate

= 0.1 dan epoch = 200.

84

86

88

90

92

94

96

98

50 100 150 200

Aku

rasi

Epoch

0.01

0.05

0.1

LearningRate

Page 68: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

53

4.2 Variasi Simulasi Pada Variabel AGA RBF

Variasi simulasi pada variabel AGA terdiri dari kombinasi variasi populasi

dan generasi, sementara untuk elitism diset tetap yaitu 0.2. Nilai variabel learning

rate dan epoch simulasi AGA RBF diambil dari hasil terbaik dari simulasi RBF

untuk masing-masing arsitektur.

1. Simulasi AGA RBF Dengan 2 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 2 hidden layer adalah

learning rate = 0.01 dan epoch = 50.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.10 Simulasi AGA RBF Dengan 2 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 60.22

10 40 56.67

10 60 58.67

20 20 72.22

20 40 63.11

20 60 81.11

30 20 74.45

30 40 80.09

30 60 90.44

Gambar 4.10 Grafik Simulasi AGA RBF 2 Hidden Layer

Pada simulasi AGA RBF dengan 2 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 30 dan generasi = 60 dengan akurasi 90.44 %.

50

60

70

80

90

100

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 69: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

54

2. Simulasi AGA RBF Dengan 3 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 3 hidden layer adalah

learning rate = 0.1 dan epoch = 100.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.11 Simulasi AGA RBF Dengan 3 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 67.56

10 40 65.56

10 60 69.78

20 20 66.22

20 40 73.11

20 60 69.11

30 20 80.67

30 40 72.67

30 60 76.00

Gambar 4.11 Grafik Simulasi AGA RBF Dengan 3 Hidden Layer

Pada simulasi AGA RBF dengan 3 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 30 dan generasi = 20 dengan akurasi 80.67 %.

60

65

70

75

80

85

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 70: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

55

3. Simulasi AGA RBF Dengan 4 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 4 hidden layer adalah

learning rate = 0.1 dan epoch = 50.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.12 Simulasi AGA RBF Dengan 4 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 64.22

10 40 64.89

10 60 66.44

20 20 65.56

20 40 70.44

20 60 69.33

30 20 73.78

30 40 66.00

30 60 66.44

Gambar 4.12 Grafik Simulasi AGA RBF 4 Hidden Layer

Pada simulasi AGA RBF dengan 4 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 30 dan generasi = 20 dengan akurasi 73.78 %.

60

65

70

75

80

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 71: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

56

4. Simulasi AGA RBF Dengan 5 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 5 hidden layer adalah

learning rate = 0.1 dan epoch = 100.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.13 Simulasi AGA RBF Dengan 5 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 42.22

10 40 40.89

10 60 40.00

20 20 41.55

20 40 53.11

20 60 52.44

30 20 46.44

30 40 40.00

30 60 48.90

Gambar 4.13 Grafik Simulasi AGA RBF Dengan 5 Hidden Layer

Pada simulasi AGA RBF dengan 5 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 20 dan generasi = 40 dengan akurasi 53.11 %.

35

40

45

50

55

60

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 72: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

57

5. Simulasi AGA RBF Dengan 6 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 6 hidden layer adalah

learning rate = 0.1 dan epoch = 50.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.14 Simulasi AGA RBF Dengan 6 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 95.33

10 40 95.56

10 60 95.78

20 20 93.78

20 40 94.67

20 60 94.00

30 20 93.56

30 40 93.56

30 60 94.44

Gambar 4.14 Grafik Simulasi AGA RBF Dengan 6 Hidden Layer

Pada simulasi AGA RBF dengan 6 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 10 dan generasi = 60 dengan akurasi 95.78 %.

93

93.5

94

94.5

95

95.5

96

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 73: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

58

6. Simulasi AGA RBF Dengan 7 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 7 hidden layer adalah

learning rate = 0.1 dan epoch = 200.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.15 Simulasi AGA RBF Dengan 7 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 97.33

10 40 97.55

10 60 96.66

20 20 96.44

20 40 96.67

20 60 96.67

30 20 96.44

30 40 95.55

30 60 95.11

Gambar 4.15 Grafik Simulasi AGA RBF Dengan 7 Hidden Layer

Pada simulasi AGA RBF dengan 7 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 10 dan generasi = 40 dengan akurasi 97.55 %.

95

95.5

96

96.5

97

97.5

98

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 74: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

59

7. Simulasi AGA RBF Dengan 8 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 8 hidden layer adalah

learning rate = 0.05 dan epoch = 150.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.16 Simulasi AGA RBF Dengan 8 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 97.11

10 40 96.44

10 60 95.56

20 20 96.67

20 40 96.44

20 60 95.11

30 20 96.67

30 40 96.67

30 60 94.89

Gambar 4.16 Grafik Simulasi AGA RBF Dengan 8 Hidden Layer

Pada simulasi AGA RBF dengan 8 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 10 dan generasi = 20 dengan akurasi 97.11 %.

94

94.5

95

95.5

96

96.5

97

97.5

98

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 75: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

60

8. Simulasi AGA RBF Dengan 9 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 9 hidden layer adalah

learning rate = 0.05 dan epoch = 150.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.17 Simulasi AGA RBF Dengan 9 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 95.78

10 40 97.11

10 60 96.44

20 20 94.67

20 40 95.33

20 60 96.67

30 20 95.33

30 40 95.78

30 60 96.00

Gambar 4.17 Grafik Simulasi AGA RBF Dengan 9 Hidden Layer

Pada simulasi AGA RBF dengan 9 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 10 dan generasi = 40 dengan akurasi 97.11 %.

94

94.5

95

95.5

96

96.5

97

97.5

98

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 76: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

61

9. Simulasi AGA RBF Dengan 10 Hidden Layer

Variabel yang digunakan untuk simulasi dengan 10 hidden layer adalah

learning rate = 0.1 dan epoch = 200.

Dari hasil simulasi diperoleh hasil sebagai berikut :

Tabel 4.18 Simulasi AGA RBF Dengan 10 Hidden Layer

Populasi Generasi Akurasi AGA RBF (%)

10 20 95.78

10 40 95.11

10 60 95.33

20 20 95.55

20 40 95.55

20 60 95.55

30 20 95.78

30 40 95.55

30 60 95.33

Gambar 4.18 Grafik Simulasi AGA RBF Dengan 10 Hidden Layer

Pada simulasi AGA RBF dengan 10 hidden layer, akurasi terbaik diperoleh

pada saat populasi = 10 dan generasi = 20 dengan akurasi 95.78 %.

Secara keseluruhan simulasi AGA RBF terbaik diperoleh pada arsitektur

dengan 7 hidden layer dengan variabel learning rate = 0.1, epoch = 200, populasi =

10 dan generasi = 40 dengan akurasi 97.55%.

95

95.2

95.4

95.6

95.8

96

20 40 60

Aku

rasi

Generasi

10

20

30

Populasi

Page 77: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

62

4.3 Perbandingan JST RBF dan AGA RBF

Dari hasil simulasi pada variabel RBF dan AGA RBF untuk masing-masing

center, maka dapat disajikan data akurasi terbaik untuk masing-masing arsitektur

pada JST RBF dan AGA RBF pada Tabel 4.19.

Tabel 4.19 Perbandingan Akurasi RBF dan AGA RBF

Hidden

Layer Variabel RBF Variabel AGA RBF

Akurasi RBF

(%)

Akurasi AGA

RBF (%)

2

learning rate = 0.01

epoch = 50

learning rate = 0.01

epoch = 50

populasi = 30

generasi = 60

14.44 90.44

3

learning rate = 0.1

epoch = 100

learning rate = 0.1

epoch = 100

populasi = 30

generasi = 20

57.11 80.67

4

learning rate = 0.1

epoch = 50

learning rate = 0.1

epoch = 50

populasi = 30

generasi = 20

60.22 73.78

5

learning rate = 0.1

epoch = 100

learning rate = 0.1

epoch = 100

populasi = 20

generasi = 40

19.98 53.11

6

learning rate = 0.1

epoch = 200

learning rate = 0.1

epoch = 200

populasi = 10

generasi = 60

95.55 95.78

7

learning rate = 0.1

epoch = 200

learning rate = 0.1

epoch = 200

populasi = 10

generasi = 40

97.78 97.55

8

learning rate = 0.05

epoch = 200

learning rate = 0.05

epoch = 200

populasi = 10

generasi = 20

97.78 97.11

9

learning rate = 0.1

epoch = 200

learning rate = 0.1

epoch = 200

populasi = 10

generasi = 40

97.78 97.11

10

learning rate = 0.1

epoch = 200

learning rate = 0.1

epoch = 200

populasi = 10

generasi = 20

96.89 95.78

Page 78: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

63

Gambar 4.19 Grafik Perbandingan Simulasi RBF dan AGA RBF

Pada Tabel 4.19 dapat dilihat bahwa untuk masing-masing arsitektur

memiliki nilai variabel yang berbeda-beda, baik variabel RBF maupun variabel AGA

RBF untuk mencapai hasil terbaik dari simulasi yang dilakukan.

Pada Gambar 4.19 dapat dilihat bahwa pada arsitektur dengan hidden layer

= 5, algoritma RBF dan AGA RBF menghasilkan hasil terburuk, hal ini terjadi

karena arsitektur dengan 5 hidden layer adalah arsitektur yang tidak cocok untuk JST

dengan jumlah node pada input layer = 4 dan jumlah node pada output layer = 2

untuk kasus klasifikasi tumbuhan iris berdasarkan rumus empiris yang dijelaskan

oleh Wu dan Zhang dalam Fahmi (2011). Adapun rumus empiris penentuan jumlah

neuron pada hidden layer tersebut adalah sebagai berikut

Tabel 4.20 Rumus Empiris Penentuan Jumlah Neuron Hidden Layer

No Rumus Empiris Jumlah neuron hidden layer

1 2 βˆ— 𝑁𝑖 + 1 9

2 3 βˆ— 𝑁𝑖 12

3 2 + 𝑁𝑖 βˆ— π‘π‘œ + 0.5𝑁𝑖 βˆ— π‘π‘œ

2 + 𝑁𝑖 βˆ’ 3

𝑁𝑖 + π‘π‘œ 3

4 (2𝑁𝑖)/3 3

5 π‘π‘œ βˆ— 𝑁𝑖 3

6 2 βˆ— 𝑁𝑖 8

Ni = Jumlah input yaitu 4

No = Jumlah output yaitu 2

0

20

40

60

80

100

120

2 3 4 5 6 7 8 9 10

Aku

rasi

Hidden Layer

RBF

AGA-RBF

Page 79: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

64

Dari perhitungan penentuan hidden layer tersebut tidak diperoleh nilai 5

sehingga dapat dikatakan bahwa arsitektur dengan 5 hidden layer tidak tepat untuk

klasifikasi tumbuhan iris sehingga diperoleh hasil akurasi yang paling rendah.

Sementara untuk arsitektur dengan hidden layer = 3 maupun kelipatannya adalah

arsitektur yang cocok untuk klasifikasi tumbuhan iris sesuai dengan perhitungan

tersebut. Dari proses klasifikasi JST RBF maupun AGA RBF arsitektur dengan 3

hidden layer atau kelipatannya diperoleh hasil akurasi yang tinggi sehingga sesuai

antara rumus empiris dengan hasil klasifikasi.

Dari gambar 4.19 setelah akurasi mencapai puncak yaitu untuk RBF dengan

hidden layer = 7, 8 dan 9 serta AGA RBF dengan hidden layer = 7, grafik

menunjukkan bahwa semakin banyak hidden layer maka akurasi semakin turun, hal

ini disebabkan semakin banyak hidden layer maka perhitungan semakin kompleks

sehingga ketelitian numerik akan semakin berkurang sehingga mengakibatkan fungsi

aktivasi dengan threshold pada JST menjadi tidak tepat. Contohnya JST dengan

threshold 0.5, misalnya output JST yang dihasilkan adalah 0.501 maka diterjemahkan

menjadi 1, namun karena perhitungan yang terlalu kompleks, output JST menjadi

0.499 sehingga diterjemahkan menjadi 0 padahal jika dibulatkan menjadi 2 angka

dibelakang koma maka hasilnya sama yaitu 0.50. Hal ini berakibat fatal pada hasil

klasifikasi karena dengan output yang relative sama menghasilkan klasifikasi yang

berbeda.

Dari seluruh simulasi yang dilakukan dapat dilihat arsitektur JST RBF

terbaik untuk klasifikasi data tumbuhan iris ada beberapa arsitektur namun arsitektur

yang paling sederhana adalah JST RBF dengan 7 hidden layer, dengan learning rate

= 0.1 dan epoch = 200 dengan akurasi 97.78 %. Sementara arsitektur JST AGA RBF

terbaik untuk klasifikasi data tumbuhan iris adalah JST AGA RBF dengan 7 hidden

layer, dengan variabel learning rate = 0.1, epoch = 200, populasi = 10 dan generasi =

40 dengan akurasi 97.55%. Namun bila dilihat dari kompleksitas perhitungan dan

waktu yang digunakan untuk klasifikasi serta hasil klasfikiasi, maka arsitektur

terbaik yang disarankan untuk klasifikasi tumbuhan iris adalah JST RBF dengan 6

hidden layer dengan akurasi mencapai 95.55 %. Hal ini dikarenakan jika hasil

akurasi JST RBF dengan 6 hidden layer dibandingkan dengan akurasi terbaik yang

Page 80: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

65

diperoleh saat simulasi yaitu RBF dengan 7 hidden layer, maka kompleksitas

perhitungan dan waktu yang diperlukan untuk mencapai hasil terbaik pada RBF

dengan 7 hidden layer lebih kompleks dan lama dengan hanya memberikan

perbaikan akurasi sebesar 2.23 %, sehingga dapat dikatakan waktu tambahan yang

diperlukan untuk perbaikan akurasi dengan perbaikan akurasi yang diperoleh tidak

sebanding dan cenderung tidak bermanfaat.

Dari Gambar 4.19 dapat dikatakan bahwa hasil akurasi JST dengan jumlah

hidden layer 2, 3, 4 dan 5 sangat tergantung pada algoritmanya karena hasil akurasi

dari RBF dan AGA RBF relative berbeda dengan perbedaan yang cukup signifikan,

sementara untuk hasil akurasi JST dengan jumlah hidden layer 6, 7, 8, 9 dan 10

tidak terlalu tergantung pada algoritmanya namun lebih tergantung pada

arsitekturnya itu sendiri karena kedua algoritma menghasilkan akurasi yang relative

sama.

Pada Gambar 4.19 dapat dilihat bahwa AGA RBF dapat memperbaiki

akurasi RBF untuk arsitektur dengan jumlah hidden layer yaitu 2, 3, 4, 5 dan 6

sedangkan untuk arsitektur dengan jumlah hidden layer yaitu 7, 8, 9 dan 10 tidak

terjadi perbaikan namun relatif sama atau justru terjadi penurunan akurasi.

Adapun besarnya perbaikan akurasi disajikan pada Tabel 4.21, sementara

besarnya penurunan akurasi disajikan pada Tabel 4.22.

Tabel 4.21 Perbaikan Akurasi Untuk Hidden Layer 2, 3, 4, 5 dan 6

Hidden Layer Akurasi RBF (%) Akurasi AGA RBF (%) Perbaikan (%)

2 14.44 90.44 76.00

3 57.11 80.67 23.56

4 60.22 73.78 13.56

5 19.98 53.11 33.13

6 95.55 95.78 0.25

Tabel 4.22 Penurunan Akurasi Untuk Hidden Layer 7, 8, 9 dan 10

Hidden Layer Akurasi RBF (%) Akurasi AGA RBF (%) Penurunan (%)

7 97.78 97.55 0.23

8 97.78 97.11 0.67

9 97.78 97.11 0.67

10 96.89 95.78 1.11

Page 81: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

66

Pada Tabel 4.21 diketahui bahwa perbaikan yang diperoleh dari proses

AGA RBF pada arsitektur dengan jumlah hidden layer yaitu 2, 3, 4 dan 5 dapat

dikatakan cukup signifikan karena dapat memperbaiki akurasi lebih dari 10%. hal ini

dapat terjadi karena dengan arsitektur yang sederhana, RBF tidak dapat mencapai

akurasi yang baik dengan kombinasi learning rate dan epoch yang ditetapkan pada

simulasi, sehingga pengaruh AGA dalam memperbaiki sangat terlihat karena dengan

konsep crossover dan mutasi yang acak dimungkinkan didapatkan bobot yang baik.

Dari Tabel 4.21 dapat diketahui bahwa perbaikan terbesar adalah pada

arsitektur dengan center 2 dengan perbaikan sebesar 76.00% dengan akurasi AGA

RBF mencapai 90.44%.

Sementara untuk arsitektur dengan 6 hidden layer terjadi perbaikan 0.25%,

perbaikan dengan 6 hidden layer tidak terlalu signifikan dan cenderung tidak

bermanfaat, karena penambahan akurasi yang diberikan tidak sebanding dengan

waktu yang digunakan.

Sementara pada arsitektur dengan jumlah hidden layer 7, 8, 9 dan 10,

akurasi AGA RBF mengalami penurunan dibandingkan dengan RBF. Dapat dilihat

pada Tabel 4.22 bahwa akurasi RBF pada arsitektur ini sudah lebih dari 96 %, dan

setelah dilakukan simulasi dengan AGA RBF akurasi justru menurun. Sehingga

dapat disimpulkan bahwa AGA RBF tidak dapat memberikan perbaikan pada JST

dengan arsitektur dengan hasil akurasi yang sudah lebih dari 96 %,.

Page 82: digilib.uns.ac.id/Adaptive...digilib.uns.ac.id

perpustakaan.uns.ac.id digilib.uns.ac.id

commit to user

67

BAB V

KESIMPULAN DAN SARAN

5.1 Kesimpulan

Penelitian ini menunjukkan pengaruh AGA (Adaptive Genetic Algorithm)

pada JST RBF untuk klasifikasi dengan data tumbuhan iris. Evaluasi dari simulasi

menunjukkan bahwa JST AGA RBF (Adaptive Genetic Algorithm-Radial Basis

Function) dapat memperbaiki akurasi untuk arsitektur JST RBF yang sederhana yaitu

pada arsitektur dengan hidden layer 2, 3, 4 dan 5, sedangkan untuk arsitektur yang

lebih kompleks yaitu pada arsitektur dengan hidden layer 6, 7, 8, 9 dan 10, akurasi

AGA RBF relatif sama dengan akurasi RBF, namun cenderung menurun dengan

presentase penurunan akurasi yang relatif kecil. Dari seluruh simulasi yang

dilakukan dapat direkomendasikan bahwa algoritma yang paling tepat untuk

melakukan klasifikasi tumbuhan iris adalah algoritma RBF dengan arsitektur 6

hidden layer.

5.2 Saran

Saran yang dapat peneliti uraikan bagi pengembangan untuk penelitian

selanjutnya adalah

1. Melakukan simulasi dengan berbagai macam metode crossover misalnya

crossover garis atau crossover diskret.

2. Melakukan simulasi dengan berbagai macam metode mutasi misalnya non-

uniform mutation.

3. Melakukan simulasi dengan mengganti algoritma clustering, misalnya

dengan algoritma FCM.