Κατέβασμα παρουσίασης
Η παρουσίαση φορτώνεται. Παρακαλείστε να περιμένετε
Δημοσίευσε현정 엄 Τροποποιήθηκε πριν 6 χρόνια
1
Dirbtiniai neuroniniai tinklai (ir įvadas į klasifikavimą)
2
Pirminis apdorojimas Savybių išskyrimas Klasifikavimas Lašiša Jūros ešerys
3
Išskiriame požymį – žuvies ilgis
Lašiša Jūros ešerys Kiekis Ilgis Išskiriame požymį – žuvies ilgis
4
Išskiriame požymį – žuvies šviesumas
Kiekis Lašiša Jūros ešerys Šviesumas Išskiriame požymį – žuvies šviesumas
5
Ilgis Šviesumas
8
Žmogus ir neuronai Smegenys yra ypatingai sudėtingas, netiesiškas ir paralelinis kompiuteris Sudarytas iš atskirų elementų neuronų
9
Biologinis neuronas Piešinys iš elektronika.lt portalo
10
Apbrėžimas Dirbtinis neuroninis tinklas yra masyvus, paralelinis, paskirstytas procesorius sudarytas iš paprastų skaičiavimo elementų, kurie turi savybę saugoti informaciją ir padaryti ją prieinamą naudojimui. Jis panašus į smegenis dviem aspektais: 1. Žinios gaunamos iš aplinkos per mokymosi procesą 2. Žinioms išsaugoti naudojamos neurono reikšmės (kitaip sinapsių reikšmės)
11
Neurono modelis Piešinys iš Haykin “Neural Networks”
12
Esminiai DNT privalumai
Masyvus, paralelinis paskirstymas Apibendrinimas Savybė įgalinanti gauti pakankamai tikslias reikšmes, net su duomenimis, kurie buvo nematyti mokymosi metu
13
Panaudojimo naudingos savybės
Netiesiškumas Įvedimo-išvedimo atvaizdavimas Adaptyvumas Atsakymas su “pagrindimu” Atsparumas defektams
14
Panaudojimo naudingos savybės
Bendra analizė ir projektavimas Neuronas yra bendras visiems neuroniniams tinklams Galimybė dalintis mokymosi algoritmais per visus neuroninių tinklų tipus Moduliniai tinklai, gali būti sukonstruoti tiesiogiai integruojant atskirus modulius Neurobiologinė analogija
15
Neurono modelis Piešinys iš Haykin “Neural Networks”
16
Sinapsės ir jų svoriai wkj
Sumatorius Aktyvavimo funkcija Slenkstis
17
Aktyvavimo funkcijos Piešinys iš Haykin “Neural Networks”
18
Vienasluoksniai ir daugiasluoksniai
Piešinys iš Haykin “Neural Networks”
19
Rekurentiniai tinklai
Piešinys iš Haykin “Neural Networks”
20
Pirmasis neurono modelis
1943 Piešinys iš Haykin “Neural Networks”
21
Klaidas koreguojantis mokymas
22
Klaidų funkcijos TSSE (bendra kvadratinių klaidų suma)
23
Klaidos paviršiai Piešinys iš Duda “Pattern Recognition”
24
Piešinys iš Duda “Pattern Recognition”
25
Kaip paskaičiuti sekantį žingsnį ?
Skaičiuojame išvestinę ir leidžiamės žemyn w(n+1) = w(n) + hg(n) hg(n) yra grandiento vektorius taške w(n)
26
Mokymosi procesas Testavimas Mokymas
27
Lokalūs minimumai
28
Svorių w inicijavimas
29
Daugiasluoksnis tinklas
30
Sklaidos atgal pseudo-algoritmas
Inicijuoti svorius Kol klaida yra per didelė: “paduoti” skaičius į įvedimus skaičiuoti kiekvieno neurono atsakymus nuo įvedimo sluoksnio, per paslėptus sluoksnius iki išvedimo sluoksnio panaudoti išvedimo klaidą, kad paskaičiuoti klaidos signalus išvedimo lygiui paskaičiuoti pagal klaidos signalus naujus svorius pakeisti svorius Pastoviai tikrinti tinklo klaidą
31
Kodėl tokia formulė ? Klaidos funkcija
32
Skaičiuojame reikšmes
Neurono atsakymas ir
33
Skaičiuojame klaidos parametrą
dpj=(Tpj-Opj) Opj (1-Opj) Tpj – yra tikslo reikšmės neuronui j duomenims p Opj – yra gauta neurono reikšmė
34
Skaičiuojame klaidą kiekvienam neuronui
Paslėpto sluoksnio neurono klaida yra klaida iš ankstesnio neurono
35
Paskaičiuojame svorių pokytį
DWji(t)= η dpj Opi Wji(t+1) = Wji(t) + DWji(t) Galimas mokymasis su papildomu parametru: a*Wji(t-1)
36
Elementariai
Παρόμοιες παρουσιάσεις
© 2024 SlidePlayer.gr Inc.
All rights reserved.