1. Standar Backpropagation [kembali]
Arsitektur jaringan :
Fungsi Aktivasi Biner :
Fungsi Aktivasi Bipolar :
Pelatihan standar :
- Fase I : Propagasi Maju
- Fase II : Propagasi Mundur
- Fase III : Perubahan Bobot
Algoritma Pelatihan:
Contoh :
Gunakan backpropagation dengan sebuah layer tersembunyi (dengan 3 unit) untuk mengenali fungsi logiko XOR dengan 2 masukan x1 dan x2. Buatlah iterassi untuk menghitung bobot jaringan untuk pola pertaa (x1 = 1, x2 = 1 dan t = 0). Gunakan laju pemahaman α= 0.2
- Hitung Keluaran Unit Tersembunyi
- Hitung Keluaran Unit yk
- Hitung faktor δ di Unit Keluaran yk
∆wkj = α δk zj = α δ zj ; j=0, 1,...,3
∆w10 = 0.2 (-0.11) (1) = -0.02
∆w11 = 0.2 (-0.11) (0.55) = -0.01
∆w12 = 0.2 (-0.11) (0.67) = -0.01
∆w13 = 0.2 (-0.11) (0.52) = -0.01
- Hitung Penjumlahan Kesalahan dari Unit Tersembunyi (=δ)
- Hitung Semua Perubahan Bobot
2. Optimalitas Arsitektur Backpropagation [kembali]
Pemilihan Bobot Bias
Misal :
n = jumlah unit masukan
p = jumlah unit tersembunyi
β = faktor skala = 0.7 n√p
Algoritma inisialisasi Nguyen Widrow adalah sebagai berikut :
a. Inisialisasi semua bobot (vji (lama)) dengan bilangan acak dalam interval [-0.5, 0.5]
b. Hitung ||vj|| = √(vj1^2 + vj2^2 + ... + vjn^2)
c. Bobot yang dipakai sebagai inisialisasi = vji = (β vji(lama)) / ||vj||
d. Bias yang dipakai sebagai inisialisasi = vj0 = bilangan acak antara - β dan β
Contoh 7.2 :
Buatlah bobot awal ke unit tersembunyi contoh 7.1 menggunakan modifikasi bobot Nguyen Widrow
Penyelesaian :
Jumlah Unit Tersembunyi
Penambahan jumlah layar tersembunyi kadangkala membuat pelatihan lebih mudah. Dalam propagasi maju, keluaran harus dihitung untuk tiap layar, dimulai dari layar tersembunyi paling bawah (terdekat dengan masukan). Sebaliknya, dalam propagasi mundur, faktor δ perlu dihitung untuk tiap layar tersembunyi, dimulai dari layar keluaran.
Jumlah Pola Pelatihan
Jumlah pola yang dibutuhkan dipengaruhi oleh banyaknya bobot dalam jaringan serta tingkat akurasi yang diharapkan. Aturan kasarnya dapat ditentukan berdasarkan rumusan :
Jumlah pola = Jumlah bobot / tingkat akurasi
Untuk jaringan dengan 80 bobot dan tingkat akurasi 0.1, maka 800 pola masukan diharapkan akan mampu mengenali dengan benar 90 % pola diantaranya.
Lama Iterasi
Jaringan dapat dilatih terus menerus hingga semua pola pelatihan dikenali dengan benar. Akan tetapi hal itu tidak menjamin jaringan akan mampu mengenali pola pengujian dengan tepat. Jadi tidaklah bermanfaat untuk meneruskan iterasi hingga semua kesalahan pola pelatihan = 0
Selama kesalahan ini menurun, pelatihan terus dijalankan. Akan tetapi jika kesalahannya sudah meningkat, pelatihan tidak ada gunanya untuk diteruskan lagi.
3. Variasi Backpropagation [kembali]
a. Momentum
Dengan penambahan momentum, bobot baru pada waktu ke (t+1) didasarkan atas bobot pada waktu t dan (t-1). Disini harus ditambahkan 2 variabel baru yang mencatat besarnya momentum untuk 2 iterasi terakhir. Jika μ adalah konstanta (0≤ μ ≤ 1) yang menyatakan parameter momentum maka bobot baru dihitung berdasarkan persamaan :
wkj(t+1) = wkj(t) + α δk zj + μ (wkj(t) - wkj(t-1))
dan,
vji(t+1) = vji(t) + α δj zi + μ (vji(t) - vji(t-1))
Contoh 7.3
Perhatikan kembali iterasi pola pertama fungsi logika XOR dengan Backpropagation pada contoh 7.1. Lakukan iterasi untuk pola kedua (x1 = 1, x2 = 0, dan t = 1) dengan menggunakan suku momentum (μ = 0.5)
Penyelesaian :
Hasil iterasi yang diperoleh dari pola pertama
- Hitung Keluaran Unit Tersembunyi (zj)
- Hitung Keluaran Unit yk
- Hitung faktor δ di Unit Keluaran yk
∆wkj = α δk zj = α δ zj ; j=0, 1,...,3
∆w10 = 0.2 (0.14) (1) = 0.03
∆w11 = 0.2 (0.14) (0.48) = 0.01
∆w12 = 0.2 (0.14) (0.65) = 0.02
∆w13 =0.2 (0.14) (0.55) = 0.02
- Hitung Penjumlahan Kesalahan dari Unit Tersembunyi (=δ)
b. Delta - Bar - Delta
Perubahan bobot dalam aturan delta – bar – delta adalah sebagai berikut :
wkj(t+1) = wkj(t) + αkj(t+1)δk zj
c. Perubahan Bobot Berkelompok
Untuk tiap pola yang dimasukkan, dilakukan langkah 4 – 7 standar Backpropagation. Nilai Δwkj dan Δvji untuk tiap pola dijumlahkan. Langkah 8 (perhitungan bobot baru) dilakukan berdasarkan hasil jumlahan Δwkj dan Δvji tersebut.
Prosedur ini memberikan efek yang lebih halus dalam perubahan bobot. Dalam beberapa kasus, variasi perubahan ini akan meningkatkan kemungkinan konvergensi ke titik minimum lokal.
4. Aplikasi Backpropagation Dalam Peramalan[kembali]
Contoh 7.4
Diketahui data bulanan penjualan suatu produk makanan kaleng selama 2 tahun terakhir seperti tampak pada tabel 7.10. Buatlah model backpropagation untuk memperkirakan jumlah produk yang terjual bulan depan.
Penyelesaian :
















Tidak ada komentar:
Posting Komentar