ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ

Slides:



Advertisements
Παρόμοιες παρουσιάσεις
Μεταπτυχιακή Διατριβή
Advertisements

Διανομή έκτασης με ευθεία διερχόμενη από σταθερό σημείο
Απαντήσεις Προόδου I. Θέμα 1ο •Έστω Α = { , b}. Κατασκευάστε τα παρακάτω σύνολα: •(α) Α -  •(β) {  } – Α •(γ) Α  P(A) •(δ) Α  P(A)
Συνδιαστικά Λογικά Κυκλώματα
Robustness in Geometric Computations Christoph M. Hoffmann.
ΕΙΣΑΓΩΓΗ ΣΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ
Αριθμητική Ανάλυση - Μεταπτυχιακού Ακαδημαϊκού Έτους Τετάρτη, 29 Οκτωβρίου η Εβδομάδα ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΑΘΗΜΑΤΙΚΩΝ ΤΟΜΕΑΣ ΥΠΟΛΟΓΙΣΤΙΚΩΝ.
ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ
Περιβάλλον Προσομοίωσης & Τεχνικές Σχεδίασης
Νευρωνικά Δίκτυα Εργαστήριο Εικόνας, Βίντεο και Πολυμέσων
ΕΘΝΙΚΟ ΚΑΙ ΚΑΠΟΔΙΣΤΡΙΑΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ Πρόγραμμα μεταπτυχιακών σπουδών Προσαρμοστικό σχήμα συμπίεσης δεδομένων.
Κεφάλαιο 2ο Πεπερασμένα αυτόματα.
Γραφήματα & Επίπεδα Γραφήματα
Προσεγγιστικοί Αλγόριθμοι
Εξόρυξη Δεδομένων και Τεχνητά Νευρωνικά Δίκτυα
Αριθμητικές Μέθοδοι Βελτιστοποίησης Θεωρία & Λογισμικό Τμήμα Πληροφορικής - Πανεπιστήμιο Ιωαννίνων Ι. Η. Λαγαρής.
Γιάννης Σταματίου Ακολουθίες και Σειρές
Εργαστήριο Δασικής Διαχειριστικής & Τηλεπισκόπησης ΠΑΡΟΥΣΙΑΣΗ ΔΥΝΑΜΙΚΟΥ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΥ Διδάσκων Δημήτριος Καραμανώλης, Επίκουρος Καθηγητής ΔΥΝΑΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ.
Αριθμητική Ανάλυση Μεταπτυχιακού 6η Ε Β Δ Ο Μ Α Δ Α Ακαδημαϊκό Έτος Τετάρτη 26, Νοεμβρίου 2008 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΑΘΗΜΑΤΙΚΩΝ ΤΟΜΕΑΣ ΥΠΟΛΟΓΙΣΤΙΚΩΝ.
Ευστάθεια Συστημάτων Αυτομάτου Ελέγχου:
ΒΕΣ 06: Προσαρμοστικά Συστήματα στις Τηλεπικοινωνίες © 2007 Nicolas Tsapatsoulis Θεωρία Στοχαστικών Σημάτων: Εκτίμηση φάσματος, Παραμετρικά μοντέλα ΒΕΣ.
Ενεργή επιλογή αλγορίθμου, Active Algorithm Selection, Feilong Chen and Rong Jin Εύα Σιταρίδη.
Πρόβλεψη εύρους σφάλματος μοντέλου T.E.C. με τη βοήθεια των δεικτών Aa, AE με την Μέθοδο Νευρωνικών Δικτύων Αξενόπουλος Απόστολος & Δάνης Πέτρος Θεσσαλονίκη.
ΚΕΦΑΛΑΙΟ 16 ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ
ΒΕΣ 06: Προσαρμοστικά Συστήματα στις Τηλεπικοινωνίες © 2007 Nicolas Tsapatsoulis Προσαρμοστικοί Αλγόριθμοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδρομικός.
Κ. Μόδη: Γεωστατιστική και Εφαρμογές της (Κεφάλαιο 4) 1 Από κοινού κατανομή πολλών ΤΜ Ορίζεται ως από κοινού συνάρτηση κατανομής F(x 1, …, x n ) n τυχαίων.
1 Βέλτιστη δρομολόγηση (optimal routing) Αντιμετώπιση της δρομολόγησης σαν «συνολικό» πρόβλημα βελτιστoποίησης. Γιατί: Η αλλαγή της δρομολόγησης μιας συνόδου.
ΜΕΤΑΤΟΠΙΣΗ ΣΥΝΑΡΤΗΣΗΣ
CHORD A Scalable Peer-to-peer Lookup Service for Internet Applications Μαρίνα Δρόσου Νικόλαος Μπουντουρόπουλος Οδυσσέας Πετρόχειλος Παναγιώτης Δομουχτσίδης.
ΒΕΣ 06: Προσαρμοστικά Συστήματα στις Τηλεπικοινωνίες © 2007 Nicolas Tsapatsoulis Προσαρμοστικοί Αλγόριθμοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αλγόριθμος.
Ερωτήσεις & Φύλλο εργασίας
Πως μπορεί κανείς να λύσει προβλήματα με τη βοήθεια της Mathematica Πρόβλημα 10 α : Κλίση καμπύλης Πρόβλημα 10 β : Εμβαδόν καμπύλης Ομάδα Δ. Λύνοντας Προβλήματα.
ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ
Επίλυση Διακριτών Γραμμικών Συστημάτων Νικόλαος Καραμπετάκης Επίκουρος Καθηγητής Τμήμα Μαθηματικών, Α.Π.Θ.
Τμήμα Μηχανικών Πληροφορικής
Μηχανική Μάθηση σε Συστήματα Πολλαπλών Πρακτόρων Παπαλιάς Κωνσταντίνος Τμήμα Πληροφορικής.
Παρεμβολή συνάρτησης μιας μεταβλητής με την βοήθεια νευρωνικών δικτύων
Διάλεξη 14: Εισαγωγή στη ροή ρευστών
Μετασχηματισμός Fourier
Π ΑΝΕΠΙΣΤΗΜΙΟ Δ ΥΤΙΚΗΣ Μ ΑΚΕΔΟΝΙΑΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ Θεωρία Σημάτων και Συστημάτων 2013 Μάθημα 3 ο Δ. Γ. Τσαλικάκης.
Θεωρία της Πληροφορίας (Θ) Ενότητα 2: Δίαυλος Πληροφορίας
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παράδειγμα εφαρμογής του αλγορίθμου BP σε δίκτυο
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παραδείγματα BP.
ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ Ι (Τεχνητά Νευρωνικά Δίκτυα) ΣΠΥΡΟΣ ΛΥΚΟΘΑΝΑΣΗΣ, ΚΑΘΗΓΗΤΗΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ & ΠΛΗΡΟΦΟΡΙΚΗΣ ΕΡΓΑΣΤΗΡΙΟ ΑΝΑΓΝΩΡΙΣΗΣ.
Μεταβατική απόκριση ενός συστήματος δεύτερης τάξης Σχήμα 5.7 σελίδα 370.
Εισαγωγή στους Η/Υ Ενότητα 2: Αναδρομή στην ιστορία της τεχνολογίας Ιωάννης Σταματίου Οργάνωση και Διοίκηση Επιχειρήσεων.
Μετρήσεις-Αβεβαιότητα-Σφάλματα. Η μέτρηση ενός μεγέθους στο εργαστήριο μπορεί να είναι: ΑΜΕΣΗ ή ΕΜΜΕΣΗ Στην άμεση μέτρηση το μέγεθος μετράται με κάποιο.
Ψηφιακή Σχεδίαση Τ.Ε.Ι. Κρήτης Σχολή Τεχνολογικών Εφαρμογών Τμ. Μηχανικών Πληροφορικής.
ΥΝ Ι: ΑΝΑΠΑΡΑΣΤΑΣΗ ΓΝΩΣΗΣ 1 ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ (Τεχνητά Νευρωνικά Δίκτυα και Γενετικοί Αλγόριθμοι) ΣΠΥΡΟΣ ΛΥΚΟΘΑΝΑΣΗΣ, ΚΑΘΗΓΗΤΗΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ.
ΤΕΧΝΟΛΟΓΙΑ ΠΡΟΗΓΜΕΝΩΝ ΨΗΦΙΑΚΩΝ ΚΥΚΛΩΜΑΤΩΝ ΚΑΙ ΣΥΣΤΗΜΑΤΩΝ (Rabaey et al Example 5-16) Γιώργος Σαρρής6631 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΗΛΕΚΤΡΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ.
ΣΥΣΤΗΜΑΤΑ ΑΥΤΟΜΑΤΟΥ ΕΛΕΓΧΟΥ Ι 8 η Διάλεξη ΣΥΣΤΗΜΑΤΑ ΑΥΤΟΜΑΤΟΥ ΕΛΕΓΧΟΥ Ι ΠΑΡΑΔΕΙΓΜΑΤΑ ΣΧΕΔΙΑΣΜΟΥ ΚΑΙ ΧΡΗΣΗΣ ΤΟΥ ΓΕΩΜΕΤΡΙΚΟΥ ΤΟΠΟΥ ΤΩΝ ΡΙΖΩΝ Το σύστημα ελέγχου.
Ακαδημαϊκό Έτος  Ο σκοπός της οπτικής αναγνώρισης χαρακτήρων είναι να μετατρέψει σαρωμένες εικόνες γραπτού κειμένου σε κείμενο ASCII που είναι.
Τι είναι «διάστημα» (1). Διαστήματα Εμπιστοσύνης α) για τη μέση τιμή (ποσοτικά) β) για ένα ποσοστό (ποιοτικά)
ΑΛΓΟΡΙΘΜΟΣ ΠΡΟΒΛΗΜΑ ΑΛΓΟΡΙΘΜΟΣ ΛΥΣΗ
Ασκήσεις WEKA Νευρωνικά δίκτυα.
Τίτλος Πτυχιακής Εργασίας :
Μέθοδος ελαχίστων τετραγώνων – Μεθοδολογία παλινδρόμησης
Ενισχυτική διδασκαλία
ΤΑΞΙΝΟΜΗΣΗ ΠΡΟΤΥΠΩΝ ΜΕ ΣΥΝΑΡΤΗΣΕΙΣ ΑΠΟΦΑΣΗΣ Απλές Γραμμικές Συναρτήσεις Απόφασης Κύρια λειτουργία ενός συστήματος αναγνώρισης προτύπων είναι η ταξινόμηση.
Βέλτιστη δρομολόγηση (optimal routing)
Διαχείριση Τεχνικών Έργων
ΠΑΡΑΔΕΙΓΜΑΤΑ ΔΙΑΓΡΑΜΜΑΤΩΝ BODE ΜΕΤΡΟΥ ΚΑΙ ΦΑΣΗΣ
Ταξινόμηση Πολυφασματικών Εικόνων
Η ΕΝΝΟΙΑ ΤΟΥ ΠΡΟΒΛΗΜΑΤΟΣ
Ψηφιακός Έλεγχος διάλεξη Παρατηρητές Ψηφιακός Έλεγχος.
Κεφάλαιο 7: Διαδικτύωση-Internet Μάθημα 7.9: Δρομολόγηση
ΤΕΙ Ηρακλείου Τμήμα Εφαρμοσμένης Πληροφορικής και Πολυμέσων
Χειμερινό εξάμηνο 2017 Πέμπτη διάλεξη
Το υλικό του Υπολογιστή
Τι είναι «διάστημα» (1). Διαστήματα Εμπιστοσύνης α) για τη μέση τιμή (ποσοτικά) β) για ένα ποσοστό (ποιοτικά)
Μεταγράφημα παρουσίασης:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ Παραδείγματα BP

Θέμα 1: Πολύ-επίπεδα Perceptrons Συνάρτηση ενεργοποίησης Όπου:

Θέμα 1: Πολύ-επίπεδα Perceptrons Θέμα 1α. Συμπλήρωση Πίνακα Δείξτε ότι το παραπάνω δίκτυο επιλύει το πρόβλημα XOR συμπληρώνοντας τον παρακάτω πίνακα, όπου x1 και x2 είναι οι είσοδοι του δικτύου x1 x2 y1 y2 y3 1 Θέμα 1.β Περιοχές Απόφασης Δείξτε ότι το παραπάνω δίκτυο επιλύει το πρόβλημα XOR κατασκευάζοντας τις περιοχές απόφασης κάθε νευρώνα του δικτύου.

Συμπλήρωση Πίνακα -1α Νευρώνας 3: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 0): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α Νευρώνας 4: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 0): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α Νευρώνας 5: Είσοδος (0, 0): Είσοδος (0, 1): Είσοδος (1, 1):

Συμπλήρωση Πίνακα -1α x1 x2 y3 y4 y5 1

Περιοχές Απόφασης -1β Όπως ξέρουμε κάθε νευρώνας του παραπάνω δικτύου κάνει γραμμικό διαχωρισμό των δειγμάτων στην είσοδο του σε δύο κατηγορίες. Η εξίσωση της γραμμής που διαχωρίζει το χώρο που σχηματίζουν οι είσοδοί του δίνεται από την εξίσωση: Για το νευρώνα 3: Για το νευρώνα 4: Ο νευρώνας 5 κάνει γραμμικό συνδυασμό των περιοχών απόφασης των νευρώνων 3 και 4.

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 3

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 4

Περιοχές Απόφασης -1β Περιοχή απόφασης που δημιουργεί ο νευρώνας 5

Θέμα 2: Ο Αλγόριθμος Πίσω Διάδοσης του Λάθους για MLP Συνάρτηση ενεργοποίησης

Θέμα 2: Ο Αλγόριθμος Πίσω Διάδοσης του Λάθους για MLP Σε κάποια στιγμή εκπαίδευσής του τα βάρη των συνδέσεων μεταξύ των κόμβων έχουν πάρει τις παρακάτω τιμές: w13=0.1, w14=0.2, w23=0.2, w24=0.1, w35=-0.1 και w45= -0.1. Να υπολογιστεί η έξοδος του ΤΝΔ για το πρότυπο [0.0,1.0]. Να βρεθούν οι νέες τιμές των βαρών w για το αμέσως επόμενο κύκλο εκπαίδευσης βάσει της μεθόδου οπισθοδιάδοσης του λάθους. Με τις νέες τιμές των βαρών να υπολογίσετε εκ νέου την έξοδο του ΤΝΔ για το πρότυπο [0.0,1.0]. Τι παρατηρείτε; Ακρίβεια: 3 δεκαδικά ψηφία.

Υπολογισμός εξόδου δικτύου – 2α Άθροισμα στο κόμβο 3: (w13*0.0)+ (w23*1.0)=0.1*0.0+0.2*1.0=0.2 Ενεργοποίηση στον κόμβο 3: Άθροισμα στο κόμβο 4: (w14*0.0)+ (w24*1.0)=0.2*0.0+0.1*1.0=0.1 Ενεργοποίηση στον κόμβο 4: S(0.1)=0.525 Άθροισμα στο κόμβο 5: (w35*0.550)+ (w45*0.525)=-0.1*0.550-0.1*0.525= -0.108 Ενεργοποίηση στον κόμβο 5: S(-0.108)=0.473 Άρα η έξοδος του ΤΝΔ με τα δοθέντα βάρη είναι 0.473

Υπολογισμός βαρών – 2β Ανανέωση των συνδέσεων w45 και w35 Η έξοδος του ΤΝΔ έπρεπε να ήταν 1.0 για το πρότυπο εισόδου [0.0,1.0]. Άρα το σφάλμα στην έξοδο είναι (1.0-0.473)=0.527 Υπολογισμός βαρών: Για το νευρώνα στο επίπεδο εξόδου ισχύει: Για το πρόβλημά μας όπου έχουμε ένα μόνο πρότυπο έχουμε: όπου t = target =1.0 και o=output=0.473. Συνεπώς δo=0.131

Υπολογισμός βαρών – 2β Υπολογισμός νέων τιμών w45 και w35 Όπου: n=1.0 είναι ο ρυθμός εκμάθησης ο3 είναι η ενεργοποίηση της S στον κόμβο 3 και ο4 είναι η ενεργοποίηση της S στον κόμβο 4. Άρα: w35_new= – 0.028 w45_new= – 0.031

Υπολογισμός βαρών – 2β Ανανέωση συνδέσεων w13, w14, w23 και w24 Για τους νευρώνες στο κρυφό επίπεδο ισχύει: Επειδή εδώ έχουμε ένα κόμβο εξόδου, σε κάθε νευρώνα του κρυφού επιπέδου έχουμε μόνο μια σύνδεση με την έξοδο. Άρα η παραπάνω σχέση απλοποιείται (δεν έχουμε το άθροισμα) και γίνεται: Οπότε: δ3=ο3*(1-ο3)*(δο)*w35=0.550*(1-0.550)* 0.131 *(-0. 1) = – 0.003 και δ4=ο4*(1-ο4)*(δο)*w45=0.525*(1-0.525)* 0.131 *(-0. 1)= – 0.003.

Υπολογισμός βαρών – 2β w14_new=0.2 w23_new=0.197 w24_new=0.097 Υπολογισμός νέων τιμών w13, w14, w23 και w24 Όπου: n=1.0 είναι ο ρυθμός εκμάθησης, i1=0.0 και i2=1.0 είναι οι είσοδοι του ΤΝΔ. Άρα: w13_new=0.1 w14_new=0.2 w23_new=0.197 w24_new=0.097

Υπολογισμός νέας εξόδου δικτύου – 2γ Άθροισμα στο κόμβο 3: (w13_new*0.0)+ (w23_new*1.0)=0.1*0.0+0.197*1.0=0.197 Ενεργοποίηση στον κόμβο 3: Άθροισμα στο κόμβο 4: (w14_new*0.0)+ (w24_new*1.0)=0.2*0.0+0.097*1.0=0.097 Ενεργοποίηση στον κόμβο 4: S(0.097)=0.524

Υπολογισμός νέας εξόδου δικτύου – 2γ Άθροισμα στο κόμβο 5: (w35_new*0.549)+ (w45_new*0.525)=-0.028*0.549-0.031*0.524 = – 0.031 Ενεργοποίηση στον κόμβο 5: S(-0.031)=0.492 Άρα η έξοδος του ΤΝΔ με τα νέα βάρη είναι 0.492 Παρατηρούμε ότι με τον ένα κύκλο εκπαίδευσης που υπολογίσαμε το ΤΝΔ αρχίζει να μαθαίνει το πρόβλημα XOR για το πρότυπο [0.0,0.1] αφού η έξοδός του «πλησιάζει» την επιθυμητή τιμή που είναι το 1.0. Πράγματι το νέο σφάλμα είναι (1-0.492) που είναι μικρότερο από το σφάλμα (1-0.473) που προέκυψε πριν από το κύκλο εκπαίδευσης του νευρωνικού μας δικτύου.