jaringan syaraf tiruan
DESCRIPTION
Jaringan Syaraf Tiruan. X1. Y1. W1. X2. Y2. W2. Fungsi aktivasi. X3. Y3. W3. Masukkan. Keluaran. Model Neuron JST. Bobot. Y1 = X1.W1 + X2.W2 + X3.W3; dst…. Model Neuron. Pada JST, neuron-neuron akan dikumpulkan dalam lapisan lapisan yang disebut dengan layers - PowerPoint PPT PresentationTRANSCRIPT
![Page 1: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/1.jpg)
Jaringan Syaraf Tiruan
![Page 2: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/2.jpg)
Model Neuron JST
)(;1
zHyxwzn
iii
X1
X2
X3
Y1
Y2
Y3
W1
W2
W3
Fungsi aktivasi
Masukkan Keluaran
Bobot
Y1 = X1.W1 + X2.W2 + X3.W3; dst…
![Page 3: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/3.jpg)
Model Neuron Pada JST, neuron-neuron akan dikumpulkan
dalam lapisan lapisan yang disebut dengan layers
Neuron dalam satu lapisan akan dihubungkan dengan neuron pada lapisan lainnya
Kadang muncul juga layer tersembunyi (hidden layer) untuk menambah keakuratan pelatihan
Informasi tersebut bisa dirambatkan secara forward ataupun backward
![Page 4: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/4.jpg)
Istilah dalam JST Neuron: sel syaraf tiruan yang merupakan elemen pengolah
JST Jaringan: bentuk arsitektur JST, kumpulan neuron yang
saling berhubungan dan membentuk lapisan Input: sebuah nilai input yang akan diproses menjadi nilai
output Output: solusi dari nilai input Hidden layer: lapisan yang tidak terkoneksi secara langsung
dengan lapisan input atau output, memperluas kemampuan JST
Bobot: nilai matematis dari sebuah koneksi antar neuron Fungsi aktivasi: fungsi yang digunakan untuk mengupdate
nilai-nilai bobot per-iterasi dari semua nilai input. Fungsi aktivasi sederhana adalah mengakalikan input dengan
bobotnya dan kemudian menjumlahkannya (disebut penjumlahan sigma)
Berbentuk linier atau tidak linier, dan sigmoid Paradigma pembelajaran: bentuk pembelajaran, supervised
learning, atau unsupervised learning
![Page 5: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/5.jpg)
JST dengan 3 layer
![Page 6: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/6.jpg)
Arsitektur Jaringan Single Layer
Hanya memiliki satu lapisan dengan bobot-bobot terhubung.
Langsung menerima input dan mengolahnya menjadi output tanpa menggunakan hidden layer
Multi Layer Memiliki satu atau lebih lapisan input, satu atau lebih
lapisan output, dan lapisan tersembunyi Dapat menyelesaikan masalah yang lebih kompleks
karena lebih akurat Fungsi pembelajarannya lebih rumit
Kompetitive Model / Recurrent Model Hubungan antar neuron tidak diperlihatkan secara
langsung pada arsitektur Hubungan antar neuron dapat digambarkan sebagai
jaring yang rumit
![Page 7: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/7.jpg)
Model JST
Single Layer • Multi Layer
• Competitive Layer / Recurrent
![Page 8: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/8.jpg)
Pengelompokkan JST JST Feed Forward
Tidak mempunyai loop Contoh: single layer perceptron, mutilayer
perceptron, radial basis function JST Feed Backward (Recurrent)
Memiliki loop, lapisan output akan memberi input lagi bagi lapisan input
Contoh: competitive networks, kohonen, hopfield, ART
![Page 9: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/9.jpg)
Paradigma pembelajaran Supervised Learning
Kumpulan input berusaha membentuk target output yang sudah diketahui sebelumnya
Perbedaan antara output yang masih salah dengan output yang diharapkan harus sekecil mungkin
Biasanya lebih baik daripada unsupervised Kelemahan: pertumbuhan waktu komputasi eksponensial,
data bnyk berarti semakin lambat Unsupervised Learning
JST mengorganisasikan dirinya untuk membentuk vektor-vektor input yang serupa tanpa menggunakan data atau contoh-contoh pelatihan, biasanya ke dalam suatu kategori/kelompok2 tertentu
Hibrida Learning Gabungan antara unsupervised dan supervised
![Page 10: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/10.jpg)
Algoritma Pembelajaran Umum Dimasukkan n data pelatihan Inisialisasi bobot-bobot jaringan, set i = 1 Masukkan contoh ke-i ke dalam input Cari tingkat aktivasi unit output
menggunakan algoritma yang ditetapkan If memenuhi kriteria output then exit
else: Update bobot2 menggunakan fungsi galat
error, Bobot baru = bobot lama + delta If i=n then reset i=1, else i=i+1
![Page 11: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/11.jpg)
JST dan Aplikasi Klasifikasi: ADALINE, Backpropagation Pengenalan Pola: ART, Backpropagation Peramalan: ADALINE, MADALINE,
Backpropagation Optimasi: ADALINE, Hopfield, Boltzman,
Backpropagation
![Page 12: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/12.jpg)
Fungsi Aktivasi Fungsi undak biner (hard limit)
Fungsi undak biner (threshold)
![Page 13: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/13.jpg)
Fungsi Aktivasi Fungsi bipolar
Fungsi bipolar dengan threshold
![Page 14: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/14.jpg)
Fungsi Aktivasi Fungsi Linier (identitas)
Fungsi Sigmoid biner
![Page 15: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/15.jpg)
McCulloch Pitts Fungsi aktivasi biner Besar bobotnya sama Memiliki threshold yang sama
Contoh buat fungsi logika “and”, input X1 dan X2, dan Y =
1 jika dan hanya jika inputan 1
X1 X2 Y1 1 11 0 00 1 00 0 0
![Page 16: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/16.jpg)
JawabX1 X2 net Y, 1 jika net >=2, 0 jika
net < 2
1 1 1.1+1.1=211 0 1.1+0.1=100 1 0.1+1.1=100 0 0.1+0.1=00
Ternyata BERHASIL mengenali pola
X1
X2
Y
2
1
1
![Page 17: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/17.jpg)
Problem “OR”X1 X2 net Y, 1 jika net >=1, 0 jika
net < 1
1 1 1.1+1.1=211 0 1.1+0.1=110 1 0.1+1.1=110 0 0.1+0.1=00
Ternyata BERHASIL mengenali pola
X1
X2
Y
1
1
1
![Page 18: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/18.jpg)
Problem “X1 and not(X2)”X1 X2 net Y, 1 jika net >=2, 0 jika
net < 2
1 1 1.2+1.-1=1 01 0 1.2+0.-1=2 10 1 0.2+1.-1=-1 00 0 0.2+0.-1=0 0
Ternyata BERHASIL mengenali pola
X1
X2
Y
2
2
-1
![Page 19: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/19.jpg)
Problem “XOR”X1 X2 Y
1 1 01 0 10 1 10 0 0
GAGAL!
F(1,1) = 0
F(1,0) = 1F(0,0) = 0
F(0,1) = 1
![Page 20: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/20.jpg)
Solusi XOR = (x1 ^ ~x2) V (~x1 ^ x2) Ternyata dibutuhkan sebuah layer
tersembunyi
X1
X2
Z1
Z2
Y
2
2
-1
-1
1
1
2
2
1
![Page 21: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/21.jpg)
Tabel
![Page 22: Jaringan Syaraf Tiruan](https://reader035.vdocuments.pub/reader035/viewer/2022062422/56814020550346895dab7a09/html5/thumbnails/22.jpg)
Jaringan HEBB Menggunakan iterasi untuk menghitung bobot dan
bias Dalam setiap iterasi, bobot dan bias diubah
berdasarkan rumus tertentu W = bobot Wbaru = Wlama + X1Y1 Algoritma:
Init, semua bobot wi = 0 Untuk semua input:
Set fungsi aktivasi xi = si Set output y=t Perbaiki bobot: w(baru) = w(lama) + delta w, dengan delta w
= xi*y Perbaiki bias, b(baru) = b(lama) + y