A. Hebb Rule
Hebb rule adalah metode pembelajaran yang paling sederhana. Pada metode ini pembelajaran dilakukan
dengan cara memperbaiki nilai bobot sedemikian rupa sehingga jika ada 2 neuron yang terhubung, dan keduanya pada kondisi
‘hidup’ (on) pada saat yang sama, maka bobot antara keduanya dinaikkan. Apabila data direpresentasikan secara bipolar, maka perbaikan bobotnya adalah:
wi(baru)
= wi(lama) + xi*y
dengan:
wi : bobot data input ke-i; xi : input data ke-i.
y : output data.
Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih. Sedangkan vektor yang hendak digunakan untuk testing
adalah vektor x.
Algoritma
1.
Inisialisasi semua bobot:
wij = 0; dengan i=1,2,...,n; dan j=1,2,...,m.
2. Untuk setiap pasangan
input-output (s-t), lakukan langkah-langkah sebagai berikut:
a.
Set input dengan nilai sama dengan vektor input: xi = si; (i=1,2,...,n)
b.
Set output dengan nilai sama dengan vektor output:
yj = tj; (j=1,2,...,m)
c. Perbaiki bobot:
wij(baru) = wij(lama) + xi*yj; (i=1,2,...,n; dan j=1,2,...,m)
dengan catatan
bahwa nilai bias selalu 1.
Contoh 8.1:
Misalkan
kita ingin membuat jaringan syaraf untuk melakukan pembelajaran terhadap fungsi OR dengan input dan target
bipolar sebagai berikut:
Input Bias Target
-1
|
-1
|
1
|
-1
|
-1
|
1
|
1
|
1
|
1
|
-1
|
1
|
1
|
1
|
1
|
1
|
1
|
Bobot awal dan bobot bias kita set=0. Arsitektur
jaringan untuk contoh 8.1.
Kita bisa melakukan
pengetesan terhadap salah satu data yang ada, misal kita ambil x=[-1 –1].
Y = 2 + (-1*2) + (-1*2) = -2
B. Percepton
Perceptron juga termasuk salah satu bentuk jaringan syaraf yang sederhana. Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear. Pada dasarnya, perceptron pada jaringan syaraf dengan satu lapisan memiliki bobot yang bisa diatur dan suatu nilai ambang (threshold). Algoritma yang digunakan oleh aturan perceptron ini akan mengatur parameter-parameter bebasnya melalui proses pembelajaran. Nilai threshold (q) pada fungsi aktivasi adalan non negatif. Fungsi aktivasi ini dibuat sedemikian rupa sehingga terjadi pembatasan antara daerah positif dan daerah negatif (Gambar 8.17).
Garis pemisah antara daerah positif dan daerah nol memiliki pertidaksamaan:
w1x1 + w2x2 + b > q
Sedangkan garis pemisah antara daerah negatif dengan daerah nol memiliki pertidaksamaan:
w1x1 + w2x2 + b < -q
Misalkan kita gunakan pasangan vektor input s dan vektor output sebagai pasangan vektor yang akan dilatih.
C. Delta Rule
C. Delta Rule
Pada delta rule akan mengubah bobot yang menghubungkan antara jaringan input ke unit output (y_in) dengan nilai target (t). Hal ini dilakukan
untuk meminimalkan error selama pelatihan pola. Delta rule untuk memperbaiki bobot ke-i (untuk setiap
pola) adalah:
Dwi = a(t – y_in)*xi;
dengan:
x
|
=
|
vektor
input.
|
y_in
|
=
|
input jaringan ke unit output Y.
|
n
y _ in = åxi * wi i=1
t = target (output).
Nilai w baru diperoleh
dari nilai w lama ditambah
dengan Dw, wi = wi + Dwi
D. Backpropagation
Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron
dengan banyak lapisan untuk mengubah bobot-bobot yang terhubung
dengan neuron-neuran yang ada pada lapisan tersembunyinya. Algoritma backpropagation menggunakan error output untuk mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk mendapatkan error ini, tahap perambatan
maju (forward propagation) harus dikerjakan
terlebih dahulu. Pada saat perambatan
maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi
sigmoid, yaitu:
f(x) = 1 / 1 + e- x
Arsitektur jaringan backpropagation seperti terlihat pada Gambar 8.20.
D. Heteroassociative Memory
Jaringan syaraf associative memory adalah jaringan yang bobot-bobotnya ditentukan sedemikian
rupa sehingga jaringan tersebut dapat menyimpan kumpulan pengelompokan pola. Masing-masing kelompok merupakan pasangan vektor (s(p),t(p)) dengan p=1,2,...,P. Tiap-tiap vektor s(p) memiliki n komponen, dan tiap-tiap t(p) memiliki m komponen.
Bobot-bobot tersebut dapat ditentukan dengan menggunakan
Hebb rule atau delta rule. Jaringan ini nanti akhirnya akan mendapatkan vektor output yang sesuai dengan vektor inputnya
(x) yang merupakan salah satu vektor s(p) atau merupakan
vektor lain di luar s(p). Algoritma pembelajaran yang biasa digunakan oleh jaringan ini adalah Hebb rule dan delta rule.
E. Bidirectional Associative Memory (BAM)
Bidirectional Associative Memory (BAM) adalah model jaringan syaraf yang memiliki 2 lapisan dan terhubung penuh dari satu lapisan ke lapisan yang lainnya. Pada jaringan ini dimungkinkan adanya hubungan timbal balik antara lapisan input dan lapisan output. Namun
demikian, bobot yang menghubungkan
antara antara satu neuron (A) di satu lapisan
dengan neuron (B) di lapisan lainnya akan sama dengan bobot yang menghubungkan neuron (B) ke neuron (A). Bisa
dikatakan
bahwa, matriks bobot yang menghubungkan neuron-neuron pada lapisan output ke lapisan input sama dengan transpose matriks bobot neuron- neuron yang menghubungkan lapisan input ke lapisan output. Arsitektur jaringan untuk 3 neuron pada lapisan input dan 2 neuron pada lapisan output seperti terlihat pada Gambar 8.27.
0 Komentar untuk "Pembelajaran Terawasi (Supervised Learning)"