ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παραδείγματα BP.

Slides:



Advertisements
Παρόμοιες παρουσιάσεις
Μεταπτυχιακή Διατριβή
Advertisements

Διανομή έκτασης με ευθεία διερχόμενη από σταθερό σημείο
Απαντήσεις Προόδου I. Θέμα 1ο •Έστω Α = { , b}. Κατασκευάστε τα παρακάτω σύνολα: •(α) Α -  •(β) {  } – Α •(γ) Α  P(A) •(δ) Α  P(A)
Robustness in Geometric Computations Christoph M. Hoffmann.
ΕΙΣΑΓΩΓΗ ΣΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ
Αριθμητική Ανάλυση - Μεταπτυχιακού Ακαδημαϊκού Έτους Τετάρτη, 29 Οκτωβρίου η Εβδομάδα ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΑΘΗΜΑΤΙΚΩΝ ΤΟΜΕΑΣ ΥΠΟΛΟΓΙΣΤΙΚΩΝ.
ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ
Περιβάλλον Προσομοίωσης & Τεχνικές Σχεδίασης
Νευρωνικά Δίκτυα Εργαστήριο Εικόνας, Βίντεο και Πολυμέσων
ΕΘΝΙΚΟ ΚΑΙ ΚΑΠΟΔΙΣΤΡΙΑΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ Πρόγραμμα μεταπτυχιακών σπουδών Προσαρμοστικό σχήμα συμπίεσης δεδομένων.
Κεφάλαιο 2ο Πεπερασμένα αυτόματα.
Γραφήματα & Επίπεδα Γραφήματα
Προσεγγιστικοί Αλγόριθμοι
Εξόρυξη Δεδομένων και Τεχνητά Νευρωνικά Δίκτυα
Αριθμητικές Μέθοδοι Βελτιστοποίησης Θεωρία & Λογισμικό Τμήμα Πληροφορικής - Πανεπιστήμιο Ιωαννίνων Ι. Η. Λαγαρής.
Γιάννης Σταματίου Ακολουθίες και Σειρές
Εργαστήριο Δασικής Διαχειριστικής & Τηλεπισκόπησης ΠΑΡΟΥΣΙΑΣΗ ΔΥΝΑΜΙΚΟΥ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΥ Διδάσκων Δημήτριος Καραμανώλης, Επίκουρος Καθηγητής ΔΥΝΑΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ.
Αριθμητική Ανάλυση Μεταπτυχιακού 6η Ε Β Δ Ο Μ Α Δ Α Ακαδημαϊκό Έτος Τετάρτη 26, Νοεμβρίου 2008 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΑΘΗΜΑΤΙΚΩΝ ΤΟΜΕΑΣ ΥΠΟΛΟΓΙΣΤΙΚΩΝ.
Ευστάθεια Συστημάτων Αυτομάτου Ελέγχου:
Ενεργή επιλογή αλγορίθμου, Active Algorithm Selection, Feilong Chen and Rong Jin Εύα Σιταρίδη.
Πρόβλεψη εύρους σφάλματος μοντέλου T.E.C. με τη βοήθεια των δεικτών Aa, AE με την Μέθοδο Νευρωνικών Δικτύων Αξενόπουλος Απόστολος & Δάνης Πέτρος Θεσσαλονίκη.
ΒΕΣ 06: Προσαρμοστικά Συστήματα στις Τηλεπικοινωνίες © 2007 Nicolas Tsapatsoulis Προσαρμοστικοί Αλγόριθμοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδρομικός.
Κ. Μόδη: Γεωστατιστική και Εφαρμογές της (Κεφάλαιο 4) 1 Από κοινού κατανομή πολλών ΤΜ Ορίζεται ως από κοινού συνάρτηση κατανομής F(x 1, …, x n ) n τυχαίων.
1 Βέλτιστη δρομολόγηση (optimal routing) Αντιμετώπιση της δρομολόγησης σαν «συνολικό» πρόβλημα βελτιστoποίησης. Γιατί: Η αλλαγή της δρομολόγησης μιας συνόδου.
CHORD A Scalable Peer-to-peer Lookup Service for Internet Applications Μαρίνα Δρόσου Νικόλαος Μπουντουρόπουλος Οδυσσέας Πετρόχειλος Παναγιώτης Δομουχτσίδης.
ΒΕΣ 06: Προσαρμοστικά Συστήματα στις Τηλεπικοινωνίες © 2007 Nicolas Tsapatsoulis Προσαρμοστικοί Αλγόριθμοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αλγόριθμος.
Ερωτήσεις & Φύλλο εργασίας
Πως μπορεί κανείς να λύσει προβλήματα με τη βοήθεια της Mathematica Πρόβλημα 10 α : Κλίση καμπύλης Πρόβλημα 10 β : Εμβαδόν καμπύλης Ομάδα Δ. Λύνοντας Προβλήματα.
ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ
Επίλυση Διακριτών Γραμμικών Συστημάτων Νικόλαος Καραμπετάκης Επίκουρος Καθηγητής Τμήμα Μαθηματικών, Α.Π.Θ.
Ένα δείγμα προβλημάτων στα Αριθμητικά του Διόφαντου
Τμήμα Μηχανικών Πληροφορικής
Παρεμβολή συνάρτησης μιας μεταβλητής με την βοήθεια νευρωνικών δικτύων
Διάλεξη 14: Εισαγωγή στη ροή ρευστών
Μετασχηματισμός Fourier
Π ΑΝΕΠΙΣΤΗΜΙΟ Δ ΥΤΙΚΗΣ Μ ΑΚΕΔΟΝΙΑΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ Θεωρία Σημάτων και Συστημάτων 2013 Μάθημα 3 ο Δ. Γ. Τσαλικάκης.
Θεωρία της Πληροφορίας (Θ) Ενότητα 2: Δίαυλος Πληροφορίας
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παράδειγμα εφαρμογής του αλγορίθμου BP σε δίκτυο
Β' ΛΥΚΕΙΟΥ ΤΕΧΝΟΛΟΓΙΚΗ ΕΞΙΣΩΣΗ ΕΥΘΕΙΑΣ ΣΤΟ ΕΠΙΠΕΔΟ Mπανανής Νικόλαος Στρούβαλη Παρασκευή.
ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ Ι (Τεχνητά Νευρωνικά Δίκτυα) ΣΠΥΡΟΣ ΛΥΚΟΘΑΝΑΣΗΣ, ΚΑΘΗΓΗΤΗΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ & ΠΛΗΡΟΦΟΡΙΚΗΣ ΕΡΓΑΣΤΗΡΙΟ ΑΝΑΓΝΩΡΙΣΗΣ.
{ Ψηφιακή Σχεδίαση εργαστήριο Γιάννης Νικολουδάκης.
Για μτ από ατ μέχρι ττ [με_βήμα β] εντολές Τέλος_επανάληψης : περιοχή εντολών μτ : η μεταβλητή της οποίας η τιμή θα περάσει από την αρχική.
Μεταβατική απόκριση ενός συστήματος δεύτερης τάξης Σχήμα 5.7 σελίδα 370.
Μετρήσεις-Αβεβαιότητα-Σφάλματα. Η μέτρηση ενός μεγέθους στο εργαστήριο μπορεί να είναι: ΑΜΕΣΗ ή ΕΜΜΕΣΗ Στην άμεση μέτρηση το μέγεθος μετράται με κάποιο.
Ψηφιακή Σχεδίαση Τ.Ε.Ι. Κρήτης Σχολή Τεχνολογικών Εφαρμογών Τμ. Μηχανικών Πληροφορικής.
ΥΝ Ι: ΑΝΑΠΑΡΑΣΤΑΣΗ ΓΝΩΣΗΣ 1 ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ (Τεχνητά Νευρωνικά Δίκτυα και Γενετικοί Αλγόριθμοι) ΣΠΥΡΟΣ ΛΥΚΟΘΑΝΑΣΗΣ, ΚΑΘΗΓΗΤΗΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ.
ΤΕΧΝΟΛΟΓΙΑ ΠΡΟΗΓΜΕΝΩΝ ΨΗΦΙΑΚΩΝ ΚΥΚΛΩΜΑΤΩΝ ΚΑΙ ΣΥΣΤΗΜΑΤΩΝ (Rabaey et al Example 5-16) Γιώργος Σαρρής6631 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΗΛΕΚΤΡΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ.
ΣΥΣΤΗΜΑΤΑ ΑΥΤΟΜΑΤΟΥ ΕΛΕΓΧΟΥ Ι 8 η Διάλεξη ΣΥΣΤΗΜΑΤΑ ΑΥΤΟΜΑΤΟΥ ΕΛΕΓΧΟΥ Ι ΠΑΡΑΔΕΙΓΜΑΤΑ ΣΧΕΔΙΑΣΜΟΥ ΚΑΙ ΧΡΗΣΗΣ ΤΟΥ ΓΕΩΜΕΤΡΙΚΟΥ ΤΟΠΟΥ ΤΩΝ ΡΙΖΩΝ Το σύστημα ελέγχου.
Ακαδημαϊκό Έτος  Ο σκοπός της οπτικής αναγνώρισης χαρακτήρων είναι να μετατρέψει σαρωμένες εικόνες γραπτού κειμένου σε κείμενο ASCII που είναι.
Τι είναι «διάστημα» (1). Διαστήματα Εμπιστοσύνης α) για τη μέση τιμή (ποσοτικά) β) για ένα ποσοστό (ποιοτικά)
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ
ΑΛΓΟΡΙΘΜΟΣ ΠΡΟΒΛΗΜΑ ΑΛΓΟΡΙΘΜΟΣ ΛΥΣΗ
Ασκήσεις WEKA Νευρωνικά δίκτυα.
Τίτλος Πτυχιακής Εργασίας :
Μέθοδος ελαχίστων τετραγώνων – Μεθοδολογία παλινδρόμησης
ΤΑΞΙΝΟΜΗΣΗ ΠΡΟΤΥΠΩΝ ΜΕ ΣΥΝΑΡΤΗΣΕΙΣ ΑΠΟΦΑΣΗΣ Απλές Γραμμικές Συναρτήσεις Απόφασης Κύρια λειτουργία ενός συστήματος αναγνώρισης προτύπων είναι η ταξινόμηση.
Βέλτιστη δρομολόγηση (optimal routing)
Διαχείριση Τεχνικών Έργων
ΠΑΡΑΔΕΙΓΜΑΤΑ ΔΙΑΓΡΑΜΜΑΤΩΝ BODE ΜΕΤΡΟΥ ΚΑΙ ΦΑΣΗΣ
Ταξινόμηση Πολυφασματικών Εικόνων
Ψηφιακός Έλεγχος διάλεξη Παρατηρητές Ψηφιακός Έλεγχος.
Εργασία στο μάθημα των Μαθηματικών (Kεφάλαιο 3ο)
Κεφάλαιο 7: Διαδικτύωση-Internet Μάθημα 7.9: Δρομολόγηση
Προσδιορισμός σημείου
ΤΕΙ Ηρακλείου Τμήμα Εφαρμοσμένης Πληροφορικής και Πολυμέσων
ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β΄ ΛΥΚΕΙΟΥ
Χειμερινό εξάμηνο 2017 Πέμπτη διάλεξη
Αναλυτικό Πρόγραμμα Σπουδών
Η ΠΡΑΚΤΙΚΗ ΑΣΚΗΣΗ ΤΩΝ ΦΟΙΤΗΤΩΝ ΤΟΥ ΜΑΘΗΜΑΤΙΚΟΥ ΣΤΑ ΣΧΟΛΕΙΑ: ΜΙΑ ΠΙΛΟΤΙΚΗ ΕΦΑΡΜΟΓΗ Εαρινό εξάμηνο
Τι είναι «διάστημα» (1). Διαστήματα Εμπιστοσύνης α) για τη μέση τιμή (ποσοτικά) β) για ένα ποσοστό (ποιοτικά)
Μεταγράφημα παρουσίασης:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παραδείγματα BP

Θέμα 1: Πολύ-επίπεδα Perceptrons Συνάρτηση ενεργοποίησης Όπου:

Θέμα 1: Πολύ-επίπεδα Perceptrons x1x1 x2x2 y1y1 y2y2 y3y Θέμα 1α. Συμπλήρωση Πίνακα Δείξτε ότι το παραπάνω δίκτυο επιλύει το πρόβλημα XOR συμπληρώνοντας τον παρακάτω πίνακα, όπου x1 και x2 είναι οι είσοδοι του δικτύου Θέμα 1.β Περιοχές Απόφασης Δείξτε ότι το παραπάνω δίκτυο επιλύει το πρόβλημα XOR κατασκευάζοντας τις περιοχές απόφασης κάθε νευρώνα του δικτύου.

Συμπλήρωση Πίνακα -1α Νευρώνας 3: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 0): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α Νευρώνας 4: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 0): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α Νευρώνας 5: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α x1x1 x2x2 y3y3 y4y4 y5y

Περιοχές Απόφασης -1β Όπως ξέρουμε κάθε νευρώνας του παραπάνω δικτύου κάνει γραμμικό διαχωρισμό των δειγμάτων στην είσοδο του σε δύο κατηγορίες. Η εξίσωση της γραμμής που διαχωρίζει το χώρο που σχηματίζουν οι είσοδοί του δίνεται από την εξίσωση: Για το νευρώνα 3: Για το νευρώνα 4: Ο νευρώνας 5 κάνει γραμμικό συνδυασμό των περιοχών απόφασης των νευρώνων 3 και 4.

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 3

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 4

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 5

Θέμα 2: Ο Αλγόριθμος Πίσω Διάδοσης του Λάθους για MLP Συνάρτηση ενεργοποίησης

Θέμα 2: Ο Αλγόριθμος Πίσω Διάδοσης του Λάθους για MLP Σε κάποια στιγμή εκπαίδευσής του τα βάρη των συνδέσεων μεταξύ των κόμβων έχουν πάρει τις παρακάτω τιμές: w 13 =0.1, w 14 =0.2, w 23 =0.2, w 24 =0.1, w 35 =-0.1 και w 45 = Να υπολογιστεί η έξοδος του ΤΝΔ για το πρότυπο [0.0,1.0]. 2.Να βρεθούν οι νέες τιμές των βαρών w για το αμέσως επόμενο κύκλο εκπαίδευσης βάσει της μεθόδου οπισθοδιάδοσης του λάθους. 3.Με τις νέες τιμές των βαρών να υπολογίσετε εκ νέου την έξοδο του ΤΝΔ για το πρότυπο [0.0,1.0]. Τι παρατηρείτε; Ακρίβεια: 3 δεκαδικά ψηφία.

Υπολογισμός εξόδου δικτύου – 2α Άθροισμα στο κόμβο 3: (w 13 *0.0)+ (w 23 *1.0)=0.1* *1.0=0.2 Ενεργοποίηση στον κόμβο 3: Άθροισμα στο κόμβο 4: (w 14 *0.0)+ (w 24 *1.0)=0.2* *1.0=0.1 Ενεργοποίηση στον κόμβο 4: S(0.1)=0.525 Άθροισμα στο κόμβο 5: (w 35 *0.550)+ (w 45 *0.525)=-0.1* *0.525= Ενεργοποίηση στον κόμβο 5: S(-0.108)=0.473 Άρα η έξοδος του ΤΝΔ με τα δοθέντα βάρη είναι 0.473

Υπολογισμός βαρών – 2β Ανανέωση των συνδέσεων w 45 και w 35 Η έξοδος του ΤΝΔ έπρεπε να ήταν 1.0 για το πρότυπο εισόδου [0.0,1.0]. Άρα το σφάλμα στην έξοδο είναι ( )=0.527 Υπολογισμός βαρών: Για το νευρώνα στο επίπεδο εξόδου ισχύει: Για το πρόβλημά μας όπου έχουμε ένα μόνο πρότυπο έχουμε: όπου t = target =1.0 και o=output= Συνεπώς δ o =0.131

Υπολογισμός βαρών – 2β Υπολογισμός νέων τιμών w 45 και w 35 Όπου: n=1.0 είναι ο ρυθμός εκμάθησης ο 3 είναι η ενεργοποίηση της S στον κόμβο 3 και ο 4 είναι η ενεργοποίηση της S στον κόμβο 4. Άρα: w 35_new = – w 45_new = – 0.031

Υπολογισμός βαρών – 2β Ανανέωση συνδέσεων w 13, w 14, w 23 και w 24 Για τους νευρώνες στο κρυφό επίπεδο ισχύει: Επειδή εδώ έχουμε ένα κόμβο εξόδου, σε κάθε νευρώνα του κρυφού επιπέδου έχουμε μόνο μια σύνδεση με την έξοδο. Άρα η παραπάνω σχέση απλοποιείται (δεν έχουμε το άθροισμα) και γίνεται: Οπότε: δ 3 =ο 3 *(1-ο 3 )*(δ ο )*w 35 =0.550*( )* *(-0. 1) = – και δ 4 =ο 4 *(1-ο 4 )*(δ ο )*w 45 =0.525*( )* *(-0. 1)= –

Υπολογισμός βαρών – 2β Υπολογισμός νέων τιμών w 13, w 14, w 23 και w 24 Όπου: n =1.0 είναι ο ρυθμός εκμάθησης, i 1 =0.0 και i 2 =1.0 είναι οι είσοδοι του ΤΝΔ. Άρα: w 13_new =0.1 w 14_new =0.2 w 23_new =0.197 w 24_new =0.097

Υπολογισμός νέας εξόδου δικτύου – 2γ Άθροισμα στο κόμβο 3: (w 13_new *0.0)+ (w 23_new *1.0)=0.1* *1.0=0.197 Ενεργοποίηση στον κόμβο 3: Άθροισμα στο κόμβο 4: (w 14_new *0.0)+ (w 24_new *1.0)=0.2* *1.0=0.097 Ενεργοποίηση στον κόμβο 4: S(0.097)=0.524

Υπολογισμός νέας εξόδου δικτύου – 2γ Άθροισμα στο κόμβο 5: (w 35_new *0.549)+ (w 45_new *0.525)=-0.028* *0.524 = – Ενεργοποίηση στον κόμβο 5: S(-0.031)=0.492 Άρα η έξοδος του ΤΝΔ με τα νέα βάρη είναι Παρατηρούμε ότι με τον ένα κύκλο εκπαίδευσης που υπολογίσαμε το ΤΝΔ αρχίζει να μαθαίνει το πρόβλημα XOR για το πρότυπο [0.0,0.1] αφού η έξοδός του «πλησιάζει» την επιθυμητή τιμή που είναι το 1.0. Πράγματι το νέο σφάλμα είναι ( ) που είναι μικρότερο από το σφάλμα ( ) που προέκυψε πριν από το κύκλο εκπαίδευσης του νευρωνικού μας δικτύου.