Η παρουσίαση φορτώνεται. Παρακαλείστε να περιμένετε

Η παρουσίαση φορτώνεται. Παρακαλείστε να περιμένετε

ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ Δ.Π.Μ.Σ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία Data Mining Μουτσανά Βασιλική.

Παρόμοιες παρουσιάσεις


Παρουσίαση με θέμα: "ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ Δ.Π.Μ.Σ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία Data Mining Μουτσανά Βασιλική."— Μεταγράφημα παρουσίασης:

1 ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ Δ.Π.Μ.Σ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία Data Mining Μουτσανά Βασιλική

2 Προεπεξεργασία δεδομένων Το πρώτο στάδιο για την ανάλυση και επεξεργασία των δεδομένων μας είναι η αναζήτηση του «οικονομικότερου» υποσυνόλου χαρακτηριστικών που θα μας δώσει αξιόπιστα αποτελέσματα Δοκιμάζουμε διαφορετικές μεθόδους αποτίμησης και αναζήτησης χαρακτηριστικών ή υποσυνόλου χαρακτηριστικών CfsSubsetEval – BestFirst CfsSubsetEval – ScatterSearch CfsSubsetEval – GeneticSearch CfsSubsetEval – GreedyStepwise Attribute Evaluator Search Method 6 7 12 13 23 24 27 28 32 35 36 6 7 12 19 23 24 27 28 32 7 12 13 23 24 27 28 32 35 36 6 7 12 13 23 24 27 28 32 35 Σύνολο Attribute για κάθε μία από τις προηγούμενες περιπτώσεις Για παράδειγμα:

3 Εφαρμογή αλγορίθμων εκμάθησης Correlation coefficient0.90180.90580.9068 Mean absolute error0.07780.06510.0908 Root mean squared error0.18430.18020.1824 Relative absolute error21.5171 %17.9993 %25.1119 % Root relative squared error43.3226 %42.3605 %42.8678 % Total Number of Instances2528 Bagging Random Subspace Μ5 Rules Κάνοντας δοκιμές με τα προηγούμενα σύνολα attribute δεν καταλήγουμε σε ικανοποιητικά αποτελέσματα Έτσι συνεχίζουμε την επεξεργασία εισάγοντας στους αλγορίθμους εκμάθησης το αρχικό σύνολο των attribute Παρατηρούμε ότι δεν μπορούμε να χρησιμοποιήσουμε όλους τους αλγορίθμους εξαιτίας του γεγονότος ότι το target attribute είναι numeric Έτσι απαιτείται η μετατροπή του output από numeric σε nominal Παρακάτω φαίνονται τα αποτελέσματα για κάποιους αλγορίθμους έχοντας χρησιμοποιήσει numeric output Σχόλιο: 0.9423 Παρατηρούμε ότι οι συγκεκριμένοι αλγόριθμοι εμφανίζουν κάποιες μικρές διαφορές στα εξαγόμενα, ωστόσο το success rate και για τους τρεις είναι το ίδιο: 0.9423

4 Αποτελέσματα αλγορίθμων μετά από εφαρμογή τους σε nominal output Correctly Classified Instances 241495.4905 % 243695.4509 % 244896.8354 %245597.1123 % Incorrectly Classified Instances 1144.5095 % 924.5491 % 803.1646 %732.8877 % Kappa statistic 0.875 0.8989 0.91170.9194 Mean absolute error 0.0526 0.0623 0.06330.0394 Root mean squared error 0.2072 0.17 0.16130.1534 Relative absolute error 14.5387 % 17.2347 % 17.4872 %10.9051 % Root relative squared error 48.7387 % 39.9848 % 37.933 %36.0725 % Total Number of Instances 2528 J48graftLadTree Bagging – Adaboost – Ladtree Bagging – Ladtree Success rate0.94620.95010.95490.9581 Κάποια από τα αποτελέσματα που προέκυψαν μετά από διάφορες δοκιμές έχοντας μετατρέψει το output σε nominal φαίνονται στον παρακάτω πίνακα Γενικά οι περισσότερες δοκιμές έγιναν περιλαμβάνοντας όλα τα attribute καθώς αφαιρώντας κάποια από αυτά μειώνονταν τα ποσοστά των επιτυχημένων προβλέψεων Ο αλγόριθμος Lad tree όταν χρησιμοποιείται με μετα – αλγορίθμους δίνει πραγματικά πολύ καλά αποτελέσματα Αξίζει να σημειώσουμε ότι:


Κατέβασμα ppt "ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ Δ.Π.Μ.Σ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία Data Mining Μουτσανά Βασιλική."

Παρόμοιες παρουσιάσεις


Διαφημίσεις Google