Η παρουσίαση φορτώνεται. Παρακαλείστε να περιμένετε

Η παρουσίαση φορτώνεται. Παρακαλείστε να περιμένετε

ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Παρόμοιες παρουσιάσεις


Παρουσίαση με θέμα: "ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ"— Μεταγράφημα παρουσίασης:

1 ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ
Δ.Π.Μ.Σ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία Data Mining Μουτσανά Βασιλική

2 Προεπεξεργασία δεδομένων
Το πρώτο στάδιο για την ανάλυση και επεξεργασία των δεδομένων μας είναι η αναζήτηση του «οικονομικότερου» υποσυνόλου χαρακτηριστικών που θα μας δώσει αξιόπιστα αποτελέσματα Δοκιμάζουμε διαφορετικές μεθόδους αποτίμησης και αναζήτησης χαρακτηριστικών ή υποσυνόλου χαρακτηριστικών Για παράδειγμα: CfsSubsetEval – BestFirst CfsSubsetEval – ScatterSearch CfsSubsetEval – GeneticSearch CfsSubsetEval – GreedyStepwise Attribute Evaluator Search Method 6 7 12 13 23 24 27 28 32 35 36 19 Σύνολο Attribute για κάθε μία από τις προηγούμενες περιπτώσεις

3 Εφαρμογή αλγορίθμων εκμάθησης
Κάνοντας δοκιμές με τα προηγούμενα σύνολα attribute δεν καταλήγουμε σε ικανοποιητικά αποτελέσματα Έτσι συνεχίζουμε την επεξεργασία εισάγοντας στους αλγορίθμους εκμάθησης το αρχικό σύνολο των attribute Παρατηρούμε ότι δεν μπορούμε να χρησιμοποιήσουμε όλους τους αλγορίθμους εξαιτίας του γεγονότος ότι το target attribute είναι numeric Έτσι απαιτείται η μετατροπή του output από numeric σε nominal Παρακάτω φαίνονται τα αποτελέσματα για κάποιους αλγορίθμους έχοντας χρησιμοποιήσει numeric output Bagging Μ5 Rules Random Subspace Correlation coefficient 0.9018 0.9058 0.9068 Mean absolute error 0.0778 0.0651 0.0908 Root mean squared error 0.1843 0.1802 0.1824 Relative absolute error % % % Root relative squared error % % % Total Number of Instances 2528 Σχόλιο: Παρατηρούμε ότι οι συγκεκριμένοι αλγόριθμοι εμφανίζουν κάποιες μικρές διαφορές στα εξαγόμενα, ωστόσο το success rate και για τους τρεις είναι το ίδιο:

4 Αξίζει να σημειώσουμε ότι:
Αποτελέσματα αλγορίθμων μετά από εφαρμογή τους σε nominal output Κάποια από τα αποτελέσματα που προέκυψαν μετά από διάφορες δοκιμές έχοντας μετατρέψει το output σε nominal φαίνονται στον παρακάτω πίνακα Bagging – Adaboost – Ladtree Bagging – Ladtree J48graft LadTree Correctly Classified Instances 2414 % 2436 % 2448 % 2455 % Incorrectly Classified Instances 114 % 92 % 80 % 73 % Kappa statistic 0.875 0.8989 0.9117 0.9194 Mean absolute error 0.0526 0.0623 0.0633 0.0394 Root mean squared error 0.2072 0.17 0.1613 0.1534 Relative absolute error % % % % Root relative squared error % % % % Total Number of Instances 2528 Success rate 0.9462 0.9501 0.9549 0.9581 Αξίζει να σημειώσουμε ότι: Γενικά οι περισσότερες δοκιμές έγιναν περιλαμβάνοντας όλα τα attribute καθώς αφαιρώντας κάποια από αυτά μειώνονταν τα ποσοστά των επιτυχημένων προβλέψεων Ο αλγόριθμος Lad tree όταν χρησιμοποιείται με μετα – αλγορίθμους δίνει πραγματικά πολύ καλά αποτελέσματα


Κατέβασμα ppt "ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ"

Παρόμοιες παρουσιάσεις


Διαφημίσεις Google