Calendars

BACKPROPAGATION NEURAL NETWORK (BPNN) DENGAN VARIASI JUMLAH HIDDEN LAYER

Description
Backpropagation neural network, seperti halnya dengan kebanyakan jaringan syaraf, tujuan dari Backpropagation adalah untuk melatih jaringan untuk mencapai keseimbangan antara kemampuan untuk merespon dengan benar pola input yang digunakan untuk
Categories
Published
of 21
0
Categories
Published
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
Share
Transcript
    BACKPROPAGATION NEURAL NETWORK   (BPNN) DENGAN VARIASI JUMLAH HIDDEN LAYER   Disusun Oleh Andi Falih 1406608561 Fakulas Teknik Universitas Indonesia Depok 2018  I.   Teori Backpropagation neural network, seperti halnya dengan kebanyakan jaringan syaraf, tujuan dari Backpropagation adalah untuk melatih jaringan untuk mencapai keseimbangan antara kemampuan untuk merespon dengan benar pola input yang digunakan untuk pelatihan (penghafalan) dan kemampuan untuk memberikan respon yang wajar (baik) untuk input yang serupa, tetapi tidak identik, yang digunakan dalam pelatihan (generalisasi). Setelah pelatihan, penerapan jaringan hanya melibatkan perhitungan fase feedforward. Bahkan  jika pelatihannya lambat, jaringan terlatih dapat menghasilkan outputnya dengan sangat cepat. Pelatihan jaringan dengan backpropagation melibatkan tiga tahap: Seperti halnya dengan kebanyakan jaringan syaraf, tujuan dari  Backpropagation  adalah untuk melatih jaringan untuk mencapai keseimbangan antara kemampuan untuk merespon dengan benar pola input yang digunakan untuk pelatihan (menghafal ) dan kemampuan untuk memberikan tanggapan yang masuk akal (baik) terhadap input yang serupa, tetapi tidak identik, dengan yang digunakan dalam  pelatihan (generalisasi). Setelah pelatihan, penerapan jaringan hanya melibatkan perhitungan fase feedforward. Bahkan  jika pelatihannya lambat, jaring terlatih dapat menghasilkan outputnya dengan sangat cepat. Pelatihan jaringan dengan backpropagation melibatkan tiga tahap: 1   feedforward dari pola pelatihan input. 2   Perhitungan dan backpropagation dari kesalahan terkait. 3   Penyesuaian bobot. 1.1 Arsitektur Jaringan syaraf multilayer dengan satu lapis unit tersembunyi / hidden layer   (unit Z) ditunjukkan  pada Gambar 1. Unit output (unit Y) dan unit tersembunyi juga mungkin memiliki bias (seperti yang ditunjukkan). Bias pada unit output khas Yk dilambangkan dengan w0k; bias pada unit tersembunyi khas Zj dilambangkan dengan v0j. Hanya arah arus informasi untuk fase operasi feedforward yang ditampilkan. Selama fase  pembelajaran backpropagation, sinyal dikirim ke arah sebaliknya.  Algoritma disajikan untuk satu lapisan tersembunyi, yang memadai untuk sejumlah besar aplikasi. 1.2 Algoritma Seperti disebutkan sebelumnya, melatih jaringan dengan backpropagation melibatkan tiga tahapan: umpan balik dari pola pelatihan input, backpropagation dari kesalahan terkait, dan  penyesuaian bobot. Gambar 1.1 Jaringan syaraf tiruan backpropagation dengan satu layer tersembunyi dengan X sebagai input, Z sebagai hidden layer, dan Y sebagai Output layer a. Selama feedforward: 1.   Setiap unit input (Xi) menerima sinyal input dan menyiarkan sinyal ini ke masing-masing unit tersembunyi Z1,. . . , Zp. 2.   Setiap unit tersembunyi kemudian menghitung aktivasi dan mengirimkan zj sinyal ke setiap unit output. 3.   Setiap unit output Yk menghitung aktivasi yk untuk membentuk respons net untuk pola input yang diberikan. b. Selama pelatihan: 1.   Setiap unit output membandingkan yk aktivasi yang dikomputasi dengan nilai target tk untuk menentukan kesalahan terkait untuk pola tersebut dengan unit itu.  2.   Berdasarkan kesalahan ini, faktor δk (k = 1, ..., m) dihitung.  3.   δk digunakan untuk mendistribusikan kesalahan pada unit output Yk kembali ke semua unit di lapisan sebelumnya (unit tersembunyi yang terhubung ke Yk). 4.   Ini juga digunakan (nanti) untuk memperbarui bobot antara output dan layer tersembunyi. 5.   Dengan cara yang sama, faktor δj (j = 1, ..., p) dihitung untuk setiap unit tersembunyi Zj.  6.   Tidak perlu untuk menyeba rkan kesalahan kembali ke lapisan input, tetapi δj digunakan untuk memperbarui bobot antara lapisan tersembunyi dan lapisan input. c. Penyesuaian bobot: 1.   Setelah semua faktor telah ditentukan, bobot untuk semua lapisan disesuaikan secara  bersamaan. 2.   Penyesuaian terhadap bobot wjk (dari unit tersembunyi Zj ke unit output Yk) didasarkan  pada faktor δk dan zj aktivasi dari unit tersembunyi Zj.  3.   Penyesuaian terhadap bobot vij (dari unit input Xi ke unit tersembunyi Zj) didasarkan  pada faktor δj dan aktivas i xi dari unit input. Istilah yang digunakan dalam algoritma pelatihan untuk jaringan backpropagation adalah sebagai  berikut:  No Symbol Arti 1 x Masukan vektor pelatihan: x = (x1, ..., xi, ..., xn). 2 t Output vektor target: t = (tl, ..., te, ..., tm). 3 δk   Bagian penyesuaian bobot koreksi kesalahan untuk wjk yang disebabkan oleh kesalahan pada unit output Yk; juga, informasi tentang kesalahan pada unit Yk yang diperbanyak kembali ke unit tersembunyi yang dimasukkan ke dalam unit Yk. 4 δj  Bagian penyesuaian bobot koreksi kesalahan untuk vij yang disebabkan oleh informasi kesalahan backpropagation dari lapisan output ke unit tersembunyi Zj 5 α  (alpha) Tingkat pembelajaran. 6 Xi Unit masukan ke-i: Untuk unit input, sinyal input dan sinyal output adalah sama, yaitu, xi.  7 v0j Bias pada unit tersembunyi Zj. 8 Zj Unit tersembunyi j: Input net ke Zj dilambangkan z_inj: z_inj = v0j + ∑xi  * vij Sinyal keluaran (aktivasi) Zj dilambangkan sebagai zj: zj = f (z_inj) 9 w0k Bias pada unit output k. Unit keluaran k: Masukan bersih untuk Yk dilambangkan dengan y_ink: y_ink = w0k + ∑zj wjk   Sinyal output (aktivasi) dari Yk dilambangkan yk: yk = f(y_ink) Tabel 1.1 Istilah pada BPNN 1.3 Fungsi aktivasi Fungsi aktivasi untuk jaring backpropagation harus memiliki beberapa karakteristik penting: Ini harus terus menerus, terdiferensiasi, dan tidak terjadi. Lebih jauh lagi, untuk efisiensi komputasi, diharapkan turunannya mudah dikomputasi. Salah satu fungsi aktivasi yang paling umum adalah fungsi  sigmoid biner  , yang memiliki rentang (0, 1) dan didefinisikan sebagai 1.4 Algoritma pelatihan Salah satu fungsi aktivasi yang didefinisikan di bagian sebelumnya dapat digunakan dalam algoritma backpropagation standar yang diberikan di sini. Bentuk data (terutama nilai target) merupakan faktor penting dalam memilih fungsi yang sesuai. Algoritemanya adalah sebagai berikut: Step 0 : Inisialisai Bobot
Search
Similar documents
View more...
Tags
Related Search
We Need Your Support
Thank you for visiting our website and your interest in our free products and services. We are nonprofit website to share and download documents. To the running of this website, we need your help to support us.

Thanks to everyone for your continued support.

No, Thanks
SAVE OUR EARTH

We need your sign to support Project to invent "SMART AND CONTROLLABLE REFLECTIVE BALLOONS" to cover the Sun and Save Our Earth.

More details...

Sign Now!

We are very appreciated for your Prompt Action!

x