Spelling suggestions: "subject:"αυτός"" "subject:"αυτόν""
11 |
Αυτόματη παραγωγή ασκήσεων για διδασκαλία της λογικής ως γλώσσας αναπαράστασης γνώσηςΠολιτοπούλου, Βασιλική 12 January 2009 (has links)
Τα τελευταία χρόνια αυξάνεται η χρήση των ηλεκτρονικών συστημάτων μάθησης. Ωστόσο φαίνεται ότι τα συστήματα αυτά δεν έχουν ακόμη αποκτήσει τη θέση που οραματίστηκαν οι δημιουργοί τους στο χώρο της μάθησης. Αυτό οφείλεται σε διάφορες αδυναμίες που έχουν ακόμη. Κάποιες από αυτές σχετίζονται με την παραγωγή και διαχείριση των ασκήσεων. Όσον αφορά στην πλευρά των μαθητών, τα συστήματα αυτά δεν προσφέρουν ποικιλία ασκήσεων αφού στις περισσότερες περιπτώσεις οι ασκήσεις είναι συγκεκριμένες και στατικές. Επιπλέον, οι μαθητές θέλουν οι ασκήσεις που τους δίνονται από το σύστημα να ικανοποιούν τις προσωπικές τους ανάγκες και προτιμήσεις. Από την πλευρά των καθηγητών, τα συστήματα αυτά δεν προσφέρουν έναν εύκολο τρόπο για να προετοιμάσουν το μάθημά τους, μέρος του οποίου είναι και η δημιουργία ασκήσεων αφού στα περισσότερα συστήματα γίνεται χειρωνακτικά. Στο Τμήμα Μηχ/κών Η/Υ & Πληροφορικής του Πανεπιστημίου Πατρών έχει αναπτυχθεί από την Ομάδα Τεχνητής Νοημοσύνης (ΤΝ) ένα ευφυές σύστημα διδασκαλίας θεμάτων ΤΝ. Το σύστημα αυτό σκοπό έχει την βοήθεια των φοιτητών σε θέματα του μαθήματος ΤΝ και ιδιαίτερα στην αναπαράσταση γνώσης. Ένα από τα θέματα αυτά είναι η κατηγορηματική λογική (ΚΛ) πρώτης τάξεως σαν γλώσσα αναπαράστασης γνώσης. Μια κατηγορία ασκήσεων που συνδέεται με το θέμα αυτό είναι η μετατροπή μιας πρότασης ΚΛ σε προτασιακή μορφή, που είναι μια μορφή κατάλληλη για αυτόματο συλλογισμό. Ένα μειονέκτημα του συστήματος είναι ότι διαθέτει ένα σύνολο ασκήσεων που δύσκολα ανανεώνεται. Στα πλαίσια αυτής της διπλωματικής εργασίας προτείνουμε και υλοποιούμε μια μέθοδο για αυτόματη παραγωγή προτάσεων ΚΛ για χρήση ως ασκήσεων για το παραπάνω θέμα. Οι παραγόμενες προτάσεις-ασκήσεις είναι διαφόρων επιπέδων δυσκολίας. Το σύστημα εκτός της παραγωγής σημασιολογικά σωστών προτάσεων εκτιμά αυτόματα και το επίπεδο δυσκολίας των προτάσεων-ασκήσεων. / In the recent years, the use of e-learning systems is steadily increasing. However, such systems do not seem to completely fulfill the vision of their creators. This is due to the fact that they still have a number of deficiencies. Some of them are related to the generation and management of exercises. From the student’s point of view, most of those systems do not offer a variety of exercises, because in most cases the exercises are pre-specified and static. Additionally, students require exercises, which match their needs and preferences. From the teacher’s point of view, the main drawback of current systems is that they still tend to require much effort in preparing their lesson and especially in creating exercises, because in most cases it is done manually. At the Department of Computer Engineering & Informatics of the University of Patras, an intelligent tutoring system for teaching artificial intelligence (AI) aspects has been created by the AI Group. The system aims at helping students with aspects of the AI course, especially of knowledge representation. One of those aspects is exercising in first-order predicate logic as a knowledge representation language. A type of exercises related to it concerns the conversion of a logical formula into clausal form, a form suitable for automated reasoning. A deficiency of that system is however that it offers a predefined set of such exercises, which are difficult to update. In this master thesis, we propose and implement an approach for automatic generation of logical formulas to use for exercising in converting a logical formula into clausal form. The produced formulas-exercises are of various difficulty levels. The system apart from producing meaningful formulas also automatically estimates their difficulty levels.
|
12 |
Σχεδίαση και υλοποίηση εργαλείου ανίχνευσης ρυθμών και κυμάτων σε ηλεκτροεγκεφαλογράφημα / Design and develop an EEG rythm and wave detection toolΑλεξόπουλος, Άγγελος 10 August 2011 (has links)
Ο ύπνος αποτελεί ένα από τα πιο μυστήρια φαινόμενα της ανθρώπινης ζωής. Η επεξεργασία και ανάλυση του εγκεφαλογραφήματος με τη χρήση υπολογιστικών μεθόδων και αλγορίθμων μπορεί να δώσει μεγάλη ώθηση στην διερεύνηση της εγκεφαλικής δραστηριότητας. Στην παρούσα εργασία υλοποιήθηκε ένα γραφικό εργαλείο για την ανίχνευση ρυθμών και κυμάτων που εμφανίζονται στο εγκεφαλογράφημα ύπνου. Το εργαλείο συνδέεται με το πρόγραμμα καταγραφής Neuroscan του εργαστηρίου Νευροφυσιολογίας της Ιατρικής Σχολής του Πανεπιστημίου Πατρών. Το περιβάλλον περιλαμβάνει αλγορίθμους για την αυτόματη ανάλυση του σήματος και την ανίχνευση επιλεγμένων κυμάτων και ρυθμών. Σκοπός του εργαλείου είναι η αποστολή ακουστικού ερεθισμού στην περίπτωση ανίχνευσης του επιλεγμένου κύματος ή ρυθμού. Το εργαλείο περιλαμβάνει γραφικό περιβάλλον για την εύκολη χρήση και παραμετροποίηση των διαθέσιμων επιλογών. Το πρόγραμμα αναπτύχθηκε εξ ολοκλήρου πρωτότυπα με γνώμονα την ταχύτητα ανίχνευσης και επεξεργασίας του ΗΕΓ. Τελικός στόχος του προγράμματος είναι η χρήση του σε πειράματα διερεύνησης της απαντητικότητας του εγκεφάλου σε ερεθισμούς που συμβαίνουν σε συγκεκριμένες χρονικές στιγμές μετά από την στιγμή ανίχνευσης επιλεγμένου κύματος ή ρυθμού. Με αυτό τον τρόπο μπορεί να εξερευνηθεί ο ρόλος διαφόρων καταστάσεων του εγκεφάλου (π.χ. αφυπνιστικός ή υπναγωγικός κατά τον ύπνο) χαρακτηριζόμενων από τα επιλεγόμενα ΗΕΓ κύματα και ρυθμούς. / One of the greatest human mysteries is the phenomenon of sleep. The use of computing methods and algorithms in the analysis and processing of electroencephalogram can boost the research of brain activity. The present work presents the graphical program that was developed and used at the Neurophysiology Unit of the University of Patras’ Medical School for the support of EEG studies. The program detects specific rythms and waves during the sleep EEG (online). The tool connects with the Neuroscan Systems that the lab uses for the sleep experiments. The program supports several algorithms for the automatic signal analysis and the specific rythms’ and waves’ detection. The target of the tool is to send sound stimulus in the case of rhythm or wave detection. The user-friendly graphical interface of the tool includes all the parameters for the experiments. The program was developed originally from scratch, aiming to make signal processing as fast as possible. The final goal of the program is to explore the nature of specific brain states i.e. in sleep, by probing brain reactivity at precise times after EEG signs characterizing this brain state.
|
13 |
Σύνθεση περιλήψεων από σχόλια χρηστών για προϊόντα και υπηρεσίες ηλεκτρονικού εμπορίου / Extractive summarization of user opinions for online products and servicesBesharat, Jeries F. 14 February 2012 (has links)
Ο στόχος της διπλωματικής εργασίας είναι διττός: 1.Εξαγωγή απόψεων που αφορούν τα προϊόντα 2.Περίληψη των απόψεων Η εξαγωγή απόψεων αναφέρεται σε μια ευρεία περιοχή επεξεργασίας της φυσικής γλώσσας, υπολογιστικής γλωσσολογίας και εξόρυξης κειμένου. Σε γενικές γραμμές, έχει ως στόχο να εντοπίσει τη στάση του ομιλητή ή συγγραφέα σε σχέση με κάποιο θέμα. Οι απόψεις του μπορούν να εκφράζουν κρίση ή αξιολόγηση, τη συναισθηματική του κατάσταση ή την προβλεπόμενη συναισθηματική επικοινωνία. H αυτόματη εξαγωγή περίληψης είναι η δημιουργία μιας συντομευμένης εκδοχής του αρχικού κειμένου. Η συνεισφορά της συγκεκριμένης διπλωματικής εργασίας εντοπίζεται στα ακόλουθα σημεία. Αρχικά βοηθά τον ενδιαφερόμενο αγοραστή κάποιου προϊόντος να σχηματίσει μια γενική εικόνα για το προϊόν. Επίσης, δίνει την δυνατότητα στον κατασκευαστή να δει τις εντυπώσεις των χρηστών για το συγκεκριμένο προϊόν και αναλόγως να προχωρήσει σε βελτιώσεις του ή να επιλύσει διάφορα προβλήματα που μπορεί να παρουσιάζει. / In recent years the nancial transactions via the web increase. This leads the Internet
to become an important mean of nancial transactions. Transactions on the
Internet di er from traditional in many ways including: communication, market
segmentation, distribution costs and price. An expression of such transactions is
electronic commerce (e-commerce). E-commerce refers in buying and selling products
or services through electronic systems. A large percentage of electronic commerce
conducted entirely electronically for virtual items such as access to content on
a site, but the bulk of e-commerce business involves the transportation of tangible
assets such as products.
The recent increase is the content generated by users (User Generated Content),
dramatically reshaping the marketing. Internet users today can cite comments and
views on various issues. Part of such views out and e-commerce. Each user buys
a product, can write his opinion on this and thus carry information to other users
who might be interested.
The objective of this thesis is twofold:
• Export of major coreference chains of the comments related to products
• Text summary based on the sentences from the candidate set of chains
The chains export refers to a wide range of natural language processing, computational
linguistics and text mining. In general, aims to identify the main subject
of the comment by using the references, also where the writer is referred in each
sentence (a general view of the product or for a speci c element) and calculating
the coherence of the summary (text coherence).
H automatic synthesis of the abstract is to create an abridged version of the original
text from one software. The product of this process still contains the most important
points of the original text. The phenomenon of information overload means that
access to consistent and well-developed summaries are vital. As the access to data
increases, so does the interest in automatic summarization.
In the proposed research there should be studied and solved speci c challenges in
this scope. An example might be the fact that the data are dynamic and change over
time. Also, users can update their reviews for the same product or even replace them
entirely with a new perspective. Another challenge is the fact that the products are
upgraded over time and hence the views that evaluate or criticize respectively.
The contribution of this thesis lies in the following points. Originally helps the
potential buyer of a product to get a general picture of the product without having
to read all the comments made. It also enables the manufacturer to see the user
experience on the product and accordingly proceed to improvements or to resolve
various problems that may be.
|
14 |
Κατασκευή συσκευής αυτόματης ανίχνευσης βήχα με μικροελεγκτή τεχνολογίας 32 bitΤσουραπούλη, Γραμματούλα 07 June 2013 (has links)
Ο βήχας είναι ένα κοινό σύμπτωμα σε πολλές ασθένειες του αναπνευστικού συστήματος. Αν και λειτουργεί ως προστατευτικός μηχανισμός απομάκρυνσης εκκρίσεων από την αναπνευστική οδό, η αυξημένη συχνότητα και έντασή του μπορεί να έχουν επίδραση στην ποιότητα ζωής του ασθενούς. Είναι το βασικότερο σύμπτωμα για το οποίο κάποιος επισκέπτεται τον γιατρό. Η σωστή εκτίμησή του είναι απαραίτητη τόσο για τον προσδιορισμό της αποτελεσματικότητας της θεραπείας αλλά και για την δοκιμή νέων θεραπειών και τη μελέτη των μηχανισμών του.
Μέχρι στιγμής η διάγνωσή του βασίζεται σε υποκειμενικές καταγραφές, απλώς ζητώντας από τον ασθενή την εκτίμησή του για την ένταση, τη διάρκεια και τη συχνότητά του. Ένα σύστημα αυτόματης ανίχνευσης του σήματος του βήχα θα επέτρεπε την επικύρωση της παρουσίας και της συχνότητας του βήχα καθώς και την αποτελεσματικότητα της αγωγής.
Τα συστήματα καταγραφής του βήχα δεν είναι καινούρια διαδικασία. Η πρώτη καταγραφή έγινε τη δεκαετία του '60 σε νοσηλευόμενους ασθενείς με τη χρήση μαγνητοφώνων και με χειροκίνητη καταγραφή των γεγονότων του βήχα. Στη συνέχεια με την εξέλιξη της τεχνολογίας κατασκευάστηκαν φορητές συσκευές που βασίστηκαν στην ταυτόχρονη καταγραφή ήχου και ηλεκτρομυογραφήματος (EMG σήματα, ανίχνευση κίνησης του θώρακα) για να ανιχνευθούν τα γεγονότα του βήχα όπου ακόμα τα σήματα έπρεπε να καταγραφούν και να μετρηθούν χειροκίνητα. Με τις παραπέρα ανακαλύψεις στις τεχνικές ψηφιακής καταγραφής, συμπίεσης και αποθήκευσης η διαδικασία αναγνώρισης και καταγραφής του βήχα μπορεί να αυτοματοποιηθεί με τη χρήση κατάλληλων αλγορίθμων.
Στην εργασία αυτή κατασκευάζεται ένα ενσωματωμένο σύστημα καταγραφής, αποθήκευσης και επεξεργασίας του σήματος του βήχα. Για την επεξεργασία του αναπτύσσεται μια βασική μέθοδος βασισμένη την ενέργειά του.
Στο πρώτο κεφάλαιο, γίνεται αναφορά στα χαρακτηριστικά του ηχητικού σήματος και παρατίθενται τα βασικά στάδια της ανάλυσής του.
Στο δεύτερο, δίνεται ο ορισμός του βήχα, οι αιτίες που τον προκαλούν και η φυσιολογία του. Στη συνέχεια, παρουσιάζονται μέθοδοι για την ανίχνευσή του.
Στο τρίτο κεφάλαιο, αναφέρονται οι βασικές έννοιες των μικροελεγκτών και παρατίθενται τα βασικά χαρακτηριστικά του μικροεπεξεργαστή ARM7TDMI, του μικροελεγκτή ADuC 7026 και της αναπτυξιακής πλατφόρμας μVision της Keil που χρησιμοποιήσαμε για την ανάπτυξη της εφαρμογής μας. Στο τελευταίο κεφάλαιο, παρουσιάζονται κάποιες λειτουργίες προγραμματισμού και δυνατότητες του μικροελεγκτή που χρησιμοποιούνται στην παρούσα εργασία. Στη συνέχεια αναπτύσσεται η εφαρμογή για την ανίχνευση του σήματος του βήχα.
Στα παραρτήματα, παρατίθενται παραδείγματα για τον βασικό προγραμματισμό του ADuC 7026 και των περιφερειακών του. / Cough is a common symptom in many diseases of the respiratory system. Although cough protects humans by removing secretions through respiratory track, its increased frequency and intensity may impact on patient’s quality of life. Besides, cough is the main symptom that makes people to visit doctor. Doctor’s accurate assessment is necessary for determining treatment according to each patient as well as the testing of new treatments and the comprehensive study of cough.
So far, the diagnosis of cough is based on subjective factors such as patient’s assessment of its intensity, duration and frequency. An automatic detection system of the cough signal would allow to determine about the presence and frequency of cough and an effective treatment.
The attempt to record cough is not a new process. The first recording to patients was made in 60’s by the use of tape recorders and by manually recording the symptoms of cough. As technology has evolved, portable device was created that was based on simultaneous recording of sound and electromyography (EMG signals, detection of the movement of chest) in order to detect the symptoms of cough. In that case, the recording was also made manually. With the evolution of digital recording, compression and storage, the recognition and recording of cough can be automated by using the appropriate algorithms.
In that study, an embedded system is made in order to record, store and process the signal of cough. A basic method based on energy is developed for the process.
In the fisrt chapter, the characteristics of sound signal and the key stages of the analysis are presented.
In the second chapter, cough is defined, its causes and the clinical symptoms of cough are analyzed. Then, methods for its detection are specified.
In the third chapter, the basic concepts of microcontrollers are given as well as the main characteristics of microprocessor ARM7TDMI and of microcontroller ADuC 7026 are presented and the platform μVision of Keil that we used for the development of the application is analyzed.
In the final chapter, some programming functions and properties of microcontroller are presented and are used for the current study. Then, the application of detection of cough signal is developed.
In annex, examples for the basic programming of ADuC 7026 and its peripherals are given.
|
15 |
Τεχνικές επεξεργασίας ψηφιακού σεισμικού σήματος για χρήση στην τομογραφία υψηλής ανάλυσηςΛόης, Αθανάσιος 16 May 2014 (has links)
Αντικείμενο της παρούσας διδακτορικής διατριβής αποτελεί η μελέτη και ανάπτυξη νέων μεθοδολογιών αυτόματης επεξεργασίας σεισμολογικών δεδομένων, µε σκοπό την επίλυση σημαντικών προβλημάτων που συναντώνται στα πεδία των επιστημών της σεισμολογίας και της γεωφυσικής όπως: 1) η ανίχνευση μικροσεισμικών γεγονότων από µία καταγραφή, µε άλλα λόγια ο διαχωρισμός της καταγραφής σε τμήματα που αποτελούνται από εδαφικό θόρυβο και σε τμήματα που περιέχουν την χρήσιμη πληροφορία (σεισμικά γεγονότα) για τους γεωεπιστήμονες και 2) η εκτίμηση των χρόνων άφιξης των διαμήκων (P-) καθώς και των εγκαρσίων (S-) σεισμικών φάσεων.
Πιο αναλυτικά, η διατριβή είναι δομημένη ως εξής:
Το πρώτο κεφάλαιο αποτελεί την εισαγωγή της διατριβής.
Στο δεύτερο κεφάλαιο συγκεντρώνονται και κατηγοριοποιούνται όλες οι υπάρχουσες τεχνικές που έχουν αναπτυχθεί για την επίλυση του προβλήματος της αυτόματης ανίχνευσης σεισμικών γεγονότων καθώς και τον αυτόματο προσδιορισμό του χρόνου άφιξης των P και S σεισμικών φάσεων. Συγκεκριμένα γίνεται κατηγοριοποίηση αυτών σε τεχνικές που στηρίζονται στην ανάλυση και επεξεργασία των σεισμικών καταγραφών στα πεδία του χρόνου και της συχνότητας, στη χρήση νευρωνικών δικτύων, στην ανάλυση χρονικών σειρών και αυτοπαλινδρόμησης, στην ανάλυση της πόλωσης των κυμάτων, στις στατιστικές υψηλότερης τάξης, μεθόδους ασαφούς λογικής, κυματιδιακές μεθόδους κτλ.
Στο τρίτο κεφάλαιο, αναπτύσσεται νέα τεχνική για την επίλυση του προβλήματος της αυτόματης ανίχνευσης σεισμικών γεγονότων από μία καταγραφή, η οποία βασίζεται σε μία μη αυστηρή διαδικασία ελέγχου υποθέσεων. Η προτεινόμενη τεχνική πραγματοποιείται σε δύο στάδια. Κατά το πρώτο στάδιο εκτιμώνται οι εμπειρικές συναρτήσεις πυκνότητας πιθανότητας που προκύπτουν τόσο από τον εδαφικό θόρυβο όσο και από τα υπόλοιπα που προέκυψαν από την λεύκανση αυτού. Κατά το δεύτερο στάδιο προτείνεται στατιστικό τεστ τύπου κατωφλίωσης για την αυτόματη ανίχνευση μικροσεισμικών γεγονότων. Η προτεινόμενη τεχνική εφαρμόζεται σε συνθετικά και πραγματικά δεδομένα και συγκρίνεται με τον γνωστό αλγόριθμο του λόγου βραχυπρόθεσμου προς μακροπρόθεσμο μέσο (STA/LTA).
Στο τέταρτο κεφάλαιο παρουσιάζεται μέθοδος για την επίλυση του προβλήματος του αυτόματου προσδιορισμό του χρόνου άφιξης της P φάσης κάνοντας χρήση στατιστικών ανώτερης τάξης. Συγκεκριμένα, γίνεται χρήση των ποσοτήτων της λοξότητας, της κύρτωσης και μίας εκτίμησης της αντιεντροπίας ως γραμμικός συνδυασμός των παραπάνω. Επιπλέον παρουσιάζονται τα αποτελέσματα από την εφαρμογή της συγκεκριμένης τεχνικής σε συνθετικά αλλά και πραγματικά δεδομένα μικροσεισμικού δικτύου, κατάλληλα για χρήση στην παθητική σεισμική τομογραφία υψηλής ευκρίνειας. Τα αποτελέσματα αυτά συγκρίνονται με γνωστές ενεργειακές μεθόδους.
Στο πέμπτο κεφάλαιο, αναπτύσσεται νέα τεχνική για την επίλυση του προβλήματος της αυτόματης εκτίμησης του χρόνου άφιξης της S φάσης. Η προτεινόμενη τεχνική βασίζεται στην στατιστική επεξεργασία συγκεκριμένης χαρακτηριστικής συνάρτησης, η οποία προκύπτει από τις ιδιότητες πόλωσης των σεισμικών κυμάτων που έχουν καταγραφεί. Επιπλέον, για να ελαττωθεί η εξάρτηση του προτεινόμενου αλγορίθμου από το χρησιμοποιούμενο παράθυρο, ακολουθείται μια πολυ-παραθυρική προσέγγιση του προβλήματος σε συνδυασμό με χρήση συναρτήσεων βαρών οι οποίες εκτιμώνται αυτόματα και βασίζονται στις μεταβολές της ενέργειας του σήματος κατά τη S άφιξη. Τέλος, παρουσιάζονται τα αποτελέσματα της εφαρμογής της μεθόδου σε πραγματικά δεδομένα καθώς και η αξιολόγησή τους σε περιβάλλον θορύβου.
Στο έκτο κεφάλαιο, παρουσιάζονται τα αποτελέσματα της εφαρμογής των προτεινόμενων τεχνικών σε δεδομένα μικροσεισμικού δικτύου και συγκεκριμένα σε δεδομένα που προέκυψαν από πειράματα παθητικής σεισμικής τομογραφίας και τεχνητής υδραυλικής διάρρηξης που έλαβαν χώρα στην περιοχή Δέλβινο της ΝΔ Αλβανίας. Επιπλέον, γίνεται ανάλυση των αποτελεσμάτων βάσεις των δεικτών αβεβαιότητας που επέλεξαν οι αναλυτές στις εκτιμήσεις τους, καθώς και βάσει των λόγων σήματος θορύβου των καταγραφών.
Στο έβδομο κεφάλαιο παρατίθενται τα συμπεράσματα της παρούσας διδακτορικής διατριβής, καθώς και πιθανές μελλοντικές προεκτάσεις. / The problems of seismic event detection and P- and S-phase arrival time estimation constitute important and vital tasks for the geoscientists. The solution of the aforementioned problems provides with important geophysical and seismological information, that can be used in a number of problems such as the structure of the earth’s interior, geotectonic settings, hypocentric and epicentric coordinates of an earthquake, the seismicity of an area and seismic hazard assessment. Traditionally, human experts have carried out this task. Nevertheless, during the last three decades due to the progress in computer technology, several methods have been developed for the automatic seismic event detection and P- and S- phase identification.
After the introduction of the first chapter, in the second chapter the majority of the existing methods that have been developed and applied up to now, are gathered and categorized. These methods involve energy criteria, the seismic wave polarity assumption, artificial neural networks, higher order statistics, maximum likelihood methods, fuzzy logic methods etc.
In the third chapter, a new thresholding type technique is proposed, tailored to fit real world situations where our knowledge on the statistical characteristics of the background noise process are unknown and a strict hypothesis testing framework can not be followed. In such cases the replacement of the unknown probability density function under the null hypothesis by its empirical counterpart, constitutes a possibility. In this work, a two stage procedure is proposed. The first one concerns the estimation of the empirical functions of the noise process itself as well as its whitened counterpart. In the second stage, using the above empirical functions, a thresholding scheme is proposed in order to solve the problem of the detection of seismic events in a non strict hypothesis testing framework. The performance of the proposed technique is confirmed by its application in a series of experiments both in synthetic and real seismic datasets.
In the fourth chapter, the problem of automatic P-phase identification is solved using higher order statistics. The first- and second-order statistics (such as mean value, variance, autocorrelation, and power spectrum) are extensively used in signal processing to describe linear and Gaussian processes. In practice, many processes deviate from linearity and Gaussianity. Higher order statistics can be used for the study of such processes. The P-phase arrival time is estimated using these HOS parameters and additionally, an estimation of the negentropy defined as a linear combination of skewness and kurtosis. According to the implemented algorithm a moving window “slides” on the recorded signal, estimating skewness, kurtosis, and negentropy. Skewness can be considered as a measure of symmetry of the distribution, while kurtosis is a measure of heaviness of the tails, so they are suitable for detecting parts of the signal that do not follow the amplitude distribution of ambient noise. Seismic events have higher amplitudes in comparison to the seismic noise, and these higher values occupy the tails of the distribution (high degree of asymmetry of distribution). In the case of seismic events, skewness and kurtosis obtain high values, presenting maxima in the transition from ambient noise to the seismic events (P-arrival). The proposed algorithms are applied on synthetic as well as real seismic data and compared to well known energy based methods.
Algorithms that deal with the automatic S-onset time identification problem, is a topic of ongoing research. Modern dense seismic networks used for earthquake location, seismic tomography investigations, source studies, early warning etc., demand accurate automatic S-wave picking. Most of the techniques that have been proposed up to now are mainly based on the polarization features of the seismic waves. In the fifth chapter, a new time domain method for the automatic determination of the S-phase arrival onsets is proposed and its implementation on local earthquake data is presented. Eigevalue analysis is taking place over small time intervals, and the maximum eigenvalue which is obtained on each step is retained for further processing. In this way a time series of maximum eigenvalues is formed, which serves as a characteristic function. A first S-phase arrival time estimation is obtained by applying the kurtosis criterion on the derived characteristic function. Furthermore, a multi-window approach combined with an energy-based weighting scheme is also applied, in order to reduce the algorithm’s dependence on the moving window’s length and provide a weighted S phase onset. Automatic picks are compared against manual reference picks and moreover the proposed technique is subjected to a noise robustness test.
In the sixth chapter, the results of the implementation of the proposed techniques on microseismic data are presented. Specifically, the proposed methods are applied on two real sets of data. One dataset was been recorded during a Passive Seismic Tomography (PST) experiment, while the second one during the seismic monitoring of fracking operations. Both experiments took place in a hydrocarbon field in Delvina, SW Albania. These results are also analyzed, based on the arrival times and their uncertainty as they were evaluated by human analysts as well as the corresponding signal to noise ratio of the seismic records.
Finally, the seventh chapter concludes this work and possible future extensions are discussed.
|
16 |
Μέθοδοι υπολογιστικής νοημοσύνης για αυτοματοποιημένη μουσική ανάλυση και σύνθεσηΚαλιακάτσος-Παπακώστας, Μάξιμος 10 June 2014 (has links)
Η παρούσα διδακτορική διατριβή ασχολείται με την εφαρμογή της υπολογιστικής νοημοσύνης στη μουσική, επιχειρώντας ταπεινά να συνεισφέρει, έστω και κατ' ελάχιστο, στην μακραίωνη πορεία της σύζευξης των μουσικών εννοιών με τα μαθηματικά. Οι τρεις πυλώνες πάνω στους οποίους στηρίζεται αυτή η διατριβή αφορούν τη χρήση μεθόδων υπολογιστικής νοημοσύνης για α) την εξέταση των μαθηματικών μουσικών χαρακτηριστικών με στόχο την επιτυχή κατηγοριοποίηση, αναγνώριση και χαρακτηρισμό περιεχομένου σε μουσικά κομμάτια, β) την ευφυή αυτόματη σύνθεση μουσικής βάσει μαθηματικών μουσικών χαρακτηριστικών και γ) τη διαδραστική ευφυή σύνθεση μουσικής και τις επεκτάσεις της. Ενώ οι τρεις αυτοί πυλώνες φαίνονται επιφανειακά ασύνδετοι, το κοινό τους θεμέλιο είναι τα μαθηματικά μουσικά χαρακτηριστικά και ο ρόλος που αυτά διαδραματίζουν έτσι ώστε να αναπτυχθούν μοντέλα υπολογιστικής νοημοσύνης που τελικά προσομοιάζουν τον τρόπο που οι άνθρωποι ``αντιλαμβάνονται'' τη μουσική. Το γεγονός ότι όλοι οι δίαυλοι έρευνας που παρουσιάζονται σε αυτή τη διατριβή διοχετεύονται στο ίδιο κανάλι, γίνεται φανερό στο τελευταίο κεφάλαιο (Κεφάλαιο 9) όπου τα μαθηματικά μουσικά χαρακτηριστικά, η ευφυής σύνθεση μουσικής και η διαδραστική ευφυής σύνθεση μουσικής, ενσωματώνονται σε ένα καινοτόμο σύστημα που περιγράφεται λεπτομερώς στο εν λόγω κεφάλαιο. Επίσης, βασική μέριμνα των μελετών που παρουσιάζονται στης έρευνες που αποτελούν την παρούσα διατριβή ήταν η απόδοση αντικειμενικών, λεπτομερών και αμερόληπτων αποτελεσμάτων, μέσα από εξαντλητικές πειραματικές διαδικασίες, πολλές από τις οποίες περιείχαν και καθεαυτές νεοτερισμούς. Η επισήμανση της παραπάνω πρότασης θέλει να καταδείξει τη διαφοροποίηση της παρούσας διατριβής από την εν πολλοίς καθεστηκυία αντίληψη για τον τρόπο παρουσίασης των αποτελεσμάτων για τις μεθόδους αυτόματης σύνθεσης μουσικής, μέσα από την εμφάνιση τμημάτων από συνθέσεις (σε μορφή παρτιτούρας ή ήχου).
Το πρώτο μέρος της διατριβής περιλαμβάνει τα Κεφάλαια 2 και 3, όπου μελετάται η κατηγοριοποίηση μουσικών κομματιών σε συμβολική μορφή, καθώς και η αναγνώριση και ο χαρακτηρισμός περιεχομένου από ηχογραφήσεις. Στόχος του μέρους αυτού είναι η παρουσίαση της καθοριστικότητας αφενός του χώρου του προφίλ τονικής τάξης για την ανάπτυξη μαθηματικών μουσικών χαρακτηριστικών που ενσωματώνουν την ανθρώπινη μουσική αντίληψη μέχρι ενός βαθμού, και αφετέρου η ανάδειξη της αποτελεσματικότητας των μεθόδων υπολογιστικής νοημοσύνης ως εργαλεία αποτελεσματικού εντοπισμού αυτής της ιδιότητας των προαναφερθέντων χαρακτηριστικών. Η συνεισφορά του πρώτου μέρους αφορά κυρίως την πρόταση νέων μεθοδολογιών που επιτελούν αποτελεσματικά προσομοιώσεις κατηγοριοποίησης κομματιών ανά συνθέτη ή είδος, αναγνώρισης περιεχομένου ηχογράφησης τυμπάνων και χαρακτηρισμού μουσικού ηχητικού υλικού με τμηματοποίηση σε περιοχές με διαφορετικό κλειδί σύνθεσης. Επίσης, στη συνεισφορά του μέρους αυτού μπορεί να ενταχθεί και η εισαγωγή και ανάλυση του πρωτεύοντος χρωματικού ιδιοχώρου.
Το δεύτερο μέρος περιλαμβάνει τα Κεφάλαια 4, 5, 6 και 7, στα οποία αναλύεται η συνεισφορά της διατριβής στον τομέα της ευφυούς αυτόματης σύνθεσης μουσικής. Συγκεκριμένα, η συνεισφορά του Κεφαλαίου 4 είναι η πρόταση μιας κατηγοριοποίησης των ευφυών μεθόδων σύνθεσης σύμφωνα με το αποτέλεσμα που επιδιώκουν, προτείνοντας δηλαδή τις κατηγορίες των μη επιβλεπόμενων, των επιβλεπόμενων και των διαδραστικών συστημάτων ευφυούς σύνθεσης. Με αυτή την κατηγοριοποίηση ο αναγνώστης εισάγεται στα επόμενα κεφάλαια όπου περιγράφονται τα καινοτόμα συστήματα που προτάθηκαν, κυρίως για επιβλεπόμενη σύνθεση βάσει χαρακτηριστικών, για την ευφυή παραγωγή ρυθμών (Κεφάλαιο 5), τόνων (Κεφάλαιο 6), καθώς και για την ολοκλήρωση των συνθέσεων μέσω της έννοιας της οριζόντιας αντιγραφής ενορχήστρωσης και την ευφυή συνοδεία αυτοσχεδιαστή (Κεφάλαιο 7). Τα αποτελέσματα που παρέχονται για όλα τα συστήματα αυτού του μέρους εξετάζουν ενδελεχώς πολλές πτυχές των συνθετικών τους ιδιοτήτων, αποκαλύπτοντας τα σημεία υπεροχής τους αλλά και τις αδυναμίες τους.
Στο τρίτο μέρος γίνεται η περιγραφή των διαδραστικών συστημάτων που μελετήθηκαν στη διατριβή, αναλύοντας όχι μόνο την ανάπτυξη των αλγόριθμων πίσω από τα συστήματα αυτά, αλλά εστιάζοντας κυρίως στα ουσιώδη ζητήματα που άπτονται της αντίληψης της ανθρώπινης μουσικής και της σύνδεσής της με την ευφυή-αυτόματη σύνθεση. Συγκεκριμένα, στο Κεφάλαιο 8 γίνεται αρχικά η παρουσίαση ενός καινοτόμου υπολογιστικού συστήματος που εξελίσσει διαδραστικά (με βαθμολογίες παρεχόμενες από τον χρήστη) συναρτήσεις με τη μέθοδο του γενετικού προγραμματισμού. Σκοπός του συστήματος αυτού είναι η παραγωγή κυματομορφών που ακούγονται γενιά με τη γενιά όλο και πιο ευχάριστες για την προσωπική του αισθητική του χρήστη. Μέσω αυτού του συστήματος προτάθηκε το ενδεχόμενο της άντλησης πληροφοριών για τα ηχητικά χαρακτηριστικά των μελωδιών σε διαφορετικά εξελικτικά στάδια - από τις μη εξελιγμένες και χαμηλά βαθμολογημένες στις εξελιγμένες και υψηλά βαθμολογημένες μελωδίες - έτσι ώστε να μελετηθεί το κατά πόσο τα ηχητικά χαρακτηριστικά αυτά μπορεί να παρέχουν ενδείξεις για την αισθητική αρτιότητα μιας μελωδίας. Αυτό το σύστημα επίσης αξιοποιήθηκε για την ανάπτυξη των γενετικών τελεστών προσαρμοσμένου βάθους, οι οποίοι, συνδυαζόμενοι με την παράμετρο ``παράγοντα ρίσκου'', δίνουν στον χρήστη έναν επιπλέον έλεγχο στην εξελικτική διαδικασία, απαλλάσσοντάς τον από ένα μέρος του φαινομένου της κόπωσης του χρήστη.
Το τρίτο μέρος, και η ερευνητική διαδρομή αυτής της διατριβής, κλείνει με το Κεφάλαιο 9, όπου παρουσιάζεται ένα διαδραστικό σύστημα εξελικτικής σύνθεσης μουσικής σε δύο επίπεδα, το οποίο πέρα από το ότι συνδυάζει την έρευνα που έγινε σχεδόν σε ολόκληρη τη διατριβή, περιέχει επίσης νεοτερισμούς σε πολλά επίπεδα: από την κεντρική σύλληψη, την υλοποίηση, ως και τη διαδικασία εξαγωγής αποτελεσμάτων. Η κεντρική σύλληψη αφορά την εξέλιξη των μαθηματικών μουσικών χαρακτηριστικών που περιγράφουν μια μελωδία αντί για τη μελωδία καθεαυτή (ή το μοντέλο που την παράγει). Η υλοποίηση έγινε σε δύο επίπεδα, τον πάνω επίπεδο εξέλιξης χαρακτηριστικών και το κάτω επίπεδο ευφυούς επιβλεπόμενης σύνθεσης μουσικής με καινοτόμους αλγόριθμους και στα δύο επίπεδα. Τέλος, η πειραματική διαδικασία που ακολουθήθηκε, στην οποία προτάθηκε και υλοποιήθηκε η χρήση αυτόματων βαθμολογητών που προσομοιάζουν τη βαθμολογική συμπεριφορά των ανθρώπων, επέτρεψε την πλήρως αντικειμενική εξέταση των δυνατοτήτων του συστήματος να συγκλίνει στις βέλτιστες μελωδίες του χρήστη. / The PhD thesis at hand discusses the employment of computational intelligence in music, attempting to humbly commit a minimal contribution to the deep history of studies that relate music to mathematics. The three cornerstones upon which the thesis at hand is founded, discuss the employment of computational intelligence methods for a) the examination of musical-mathematical features towards classifying, identifying and characterising music content, b) intelligent music composition based on musical-mathematical features and c) interactive intelligent music composition and further developments. While at a first glance these three parts seem unrelated, their common keystone is the music-mathematical features and the role that these features play towards developing computational intelligence models which at some extent simulate the human ``perception’’ of music. The fact that all the research channels that are presented in this thesis, are finally led to a single stream, becomes evident in the final chapter of the thesis (Chapter 9) where the music-mathematical features, the intelligent music composition and the interactive music composition are embodied in an innovative system that is thoroughly described. Additionally, a main concern of the studies that comprise this thesis was the presentation of objective, detailed and unbiased results, achieved through exhaustive experimental processes, many of which were by themselves innovative. The latter comment intents to highlight the different approach that the research in this thesis follows, in comparison to the most common approaches concerning the presentation of experimental results for automatic music composition methods - which simply include small score or audio parts of automatically composed music.
The first part of the thesis includes the Chapters 2 and 3, where the categorisation of music pieces in symbolic form is examined, as well as the identification and characterisation of music recordings. Aim of this part is on the hand to present the rich quality of information that can be extracted by several pitch class space-related features regarding human perception of music, while on the other hand to pinpoint the effectiveness of computational intelligence methods as tools to extract the aforementioned rich information. The first part’s contribution is primarily the presentation of novel methodologies that achieve effective categorisation of music pieces per composer or style, identify the content of drums recordings and characterise the content of recorded pieces by recognising locations of composition key changes. An additionally contribution of this part is the presentation and study of the principal chroma eigenspace.
The second part encompasses Chapters 4, 5, 6 and 7, which discuss the contribution of this thesis in intelligent music composition. Specifically, the contribution of Chapter 4 includes a proposed categorisation of intelligent music composition methods based on their intended result, proposing their segregation to unsupervised, supervised and interactive intelligent music composition methodologies. Through this categorisation, an introduction to the subsequent chapters is achieved, which mainly discuss supervised intelligent music composition based on music-mathematical features for the generation of rhythmic sequences (Chapter 5), tonal sequences (Chapter 6), as well as integrated synthesis through the concept of horizontal orchestration replication and intelligent improviser accompaniment (Chapter 7). The results of the presented studies in this part constitute of exhausted research processes that examine different compositional aspects of the proposed methodologies, revealing their strengths and weaknesses over other methodologies presented in the literature.
In the third part the interactive systems that were studied in the thesis are presented, not only by analysing the algorithmic development of the underlying methodologies, but mostly focussing on matters that pertain to the human perception and intelligent music composition. Specifically, in the beginning of Chapter 8 an innovative system is presented that evolves mathematical functions interactively (through user ratings), through genetic programming. Aim of this system is the generation and evolution of waveforms that sound more pleasant to the user, according to hers/his subjective criteria. This system allowed the proposition to obtain information about several audio features of the melodies in different evolutionary stages - from non evolved and low rated melodies to evolved and highly rated ones - in order to study whether these features incorporate indications about the aesthetic integrity of a melody. This system was also utilised towards the development of fitness-adaptive genetic operators, which, combined with the ``risk factor’’ parameter, gave the user additional control over the evolutionary process, alleviating user fatigue at a considerable extent.
The third part, along with the research conducted in the context of this thesis, concludes with Chapter 9, where an interactive evolutionary intelligent music composition system is presented, that combines almost all research presented in the thesis up to that point. This chapter includes also several innovative research propositions in many levels: the core concept, the implementation and the experimental process. The core concept discusses the evolution of music-mathematical features that describe a melody, rather than evolving the melody per se (or the model that generates it). The implementation incorporated two levels of serial evolution: the upper level of feature evolution and the lower level of supervised intelligent music composition, with novel algorithms in both levels. Finally, the experimental process that was developed - in the context of which the utilisation of automatic raters that simulate human behaviour was proposed - allowed a completely subjective evaluation of the systems capabilities, regarding its convergence to the optimal melodies of the user’s subjective preference.
|
17 |
Signal processing methods for enhancing speech and music signals in reverberant environments / Μέθοδοι ανάλυσης και ψηφιακής επεξεργασίας για την βελτίωση σημάτων ομιλίας και μουσικής σε χώρους με αντήχησηΤσιλφίδης, Αλέξανδρος 06 October 2011 (has links)
This thesis presents novel signal processing algorithms for speech and music dereverberation. The proposed algorithms focus on blind single-channel suppression of late reverberation; however binaural and semi-blind methods have also been introduced. Late reverberation is a particularly harmful distortion, since it significantly decreases the perceived quality of the reverberant signals but also degrades the performance of Automatic Speech Recognition (ASR) systems and other speech and music processing algorithms. Hence, the proposed deverberation methods can be either used as standalone enhancing techniques or implemented as preprocessing schemes prior to ASR or other applied systems.
The main dereverberation method proposed here is a blind dereverberation technique based on perceptual reverberation modeling has been developed. This technique employs a computational auditory masking model and locates the signal regions where late reverberation is audible, i.e. where it is unmasked from the clean signal components. Following a selective signal processing approach, only such signal regions are further processed through sub-band gain filtering. The above technique has been evaluated for both speech and music signals and for a wide range of reverberation conditions. In all cases it was found to minimize the processing artifacts and to produce perceptually superior clean signal estimations than any other tested technique. Moreover, extensive ASR tests have shown that it significantly improves the recognition performance, especially in highly reverberant environments. / Η διατριβή αποτελείται από εννιά κεφάλαια, δύο παραρτήματα καθώς και την σχετική βιβλιογραφία. Είναι γραμμένη στα αγγλικά ενώ περιλαμβάνει και ελληνική περίληψη. Στην παρούσα διατριβή, αναπτύσσονται μεθόδοι ψηφιακής επεξεργασίας σήματος για την αφαίρεση αντήχησης από σήματα ομιλίας και μουσικής. Οι προτεινόμενοι αλγόριθμοι καλύπτουν ένα μεγάλο εύρος εφαρμογών αρχικά εστιάζοντας στην τυφλή (“blind”) αφαίρεση για μονοκαναλικά σήματα. Στοχεύοντας σε πιο ειδικά σενάρια χρήσης προτείνονται επίσης αμφιωτικοί αλγόριθμοι αλλά και τεχνικές που προϋποθέτουν την πραγματοποίηση κάποιας ακουστικής μέτρησης. Οι αλγόριθμοι επικεντρώνουν στην αφαίρεση της καθυστερημένης αντήχησης που είναι ιδιαίτερα επιβλαβής για την ποιότητα σημάτων ομιλίας και μουσικής και μειώνει την καταληπτότητα της ομιλίας. Επίσης, επειδή αλλοιώνει σημαντικά τα στατιστικά των σημάτων, μειώνει σημαντικά την απόδοση συστημάτων αυτόματης αναγνώρισης ομιλίας καθώς και άλλων αλγορίθμων ψηφιακής επεξεργασίας ομιλίας και μουσικής. Έτσι οι προτεινόμενοι αλγόριθμοι μπορούν είτε να χρησιμοποιηθούν σαν αυτόνομες τεχνικές βελτίωσης της ποιότητας των ακουστικών σημάτων είτε να ενσωματωθούν σαν στάδια προ-επεξεργασίας σε άλλες εφαρμογές.
Η κύρια μέθοδος αφαίρεσης αντήχησης που προτείνεται στην διατριβή, είναι βασισμένη στην αντιληπτική μοντελοποίηση και χρησιμοποιεί ένα σύγχρονο ψυχοακουστικό μοντέλο. Με βάση αυτό το μοντέλο γίνεται μία εκτίμηση των σημείων του σήματος που η αντήχηση είναι ακουστή δηλαδή που δεν επικαλύπτεται από το ισχυρότερο σε ένταση καθαρό από αντήχηση σήμα. Η συγκεκριμένη εκτίμηση οδηγεί σε μία επιλεκτική επεξεργασία σήματος όπου η αφαίρεση πραγματοποιείται σε αυτά και μόνο τα σημεία, μέσω πρωτότυπων υβριδικών συναρτήσεων κέρδους που βασίζονται σε δείκτες αντικειμενικής και υποκειμενικής αλλοίωσης. Εκτεταμένα αντικειμενικά και υποκειμενικά πειράματα δείχνουν ότι η προτεινόμενη τεχνική δίνει βέλτιστες ποιοτικά ανηχωικές εκτιμήσεις ανεξάρτητα από το μέγεθος του χώρου.
|
18 |
Σύγκριση μεθόδων δημιουργίας έμπειρων συστημάτων με κανόνες για προβλήματα κατηγοριοποίησης από σύνολα δεδομένωνΤζετζούμης, Ευάγγελος 31 January 2013 (has links)
Σκοπός της παρούσας εργασίας είναι η σύγκριση διαφόρων μεθόδων κατηγοριοποίησης που στηρίζονται σε αναπαράσταση γνώσης με κανόνες μέσω της δημιουργίας έμπειρων συστημάτων από γνωστά σύνολα δεδομένων. Για την εφαρμογή των μεθόδων και τη δημιουργία και υλοποίηση των αντίστοιχων έμπειρων συστημάτων χρησιμοποιούμε διάφορα εργαλεία όπως: (α) Το ACRES, το οποίο είναι ένα εργαλείο αυτόματης παραγωγής έμπειρων συστημάτων με συντελεστές βεβαιότητας. Οι συντελεστές βεβαιότητος μπορούν να υπολογίζονται κατά δύο τρόπους και επίσης παράγονται δύο τύποι έμπειρων συστημάτων που στηρίζονται σε δύο διαφορετικές μεθόδους συνδυασμού των συντελεστών βεβαιότητας (κατά MYCIN και μιας γενίκευσης αυτής του MYCIN με χρήση βαρών που υπολογίζονται μέσω ενός γενετικού αλγορίθμου). (β) Το WEKA, το οποίο είναι ένα εργαλείο που περιέχει αλγόριθμους μηχανικής μάθησης. Συγκεκριμένα, στην εργασία χρησιμοποιούμε τον αλγόριθμο J48, μια υλοποίηση του γνωστού αλγορίθμου C4.5, που παράγει δένδρα απόφασης, δηλ. κανόνες. (γ) Το CLIPS, το οποίο είναι ένα κέλυφος για προγραμματισμό με κανόνες. Εδώ, εξάγονται οι κανόνες από το δέντρο απόφασης του WEKA και υλοποιούνται στο CLIPS με ενδεχόμενες μετατροπές. (δ) Το FuzzyCLIPS, το οποίο επίσης είναι ένα κέλυφος για την δημιουργία ασαφών ΕΣ. Είναι μια επέκταση του CLIPS που χρησιμοποιεί ασαφείς κανόνες και συντελεστές βεβαιότητος. Εδώ, το έμπειρο σύστημα που παράγεται μέσω του CLIPS μετατρέπεται σε ασαφές έμπειρο σύστημα με ασαφοποίηση κάποιων μεταβλητών. (ε) Το GUI Ant-Miner, το οποίο είναι ένα εργαλείο για την εξαγωγή κανόνων κατηγοριοποίησης από ένα δοσμένο σύνολο δεδομένων. με τη χρήση ενός μοντέλου ακολουθιακής κάλυψης, όπως ο αλγόριθμος AntMiner.
Με βάση τις παραπάνω μεθόδους-εργαλεία δημιουργήθηκαν έμπειρα συστήματα από πέντε σύνολα δεδομένων κατηγοριοποίησης από τη βάση δεδομένων UCI Machine Learning Repository. Τα συστήματα αυτά αξιολογήθηκαν ως προς την ταξινόμηση με βάση γνωστές μετρικές (ορθότητα, ευαισθησία, εξειδίκευση και ακρίβεια). Από τη σύγκριση των μεθόδων και στα πέντε σύνολα δεδομένων, εξάγουμε τα παρακάτω συμπεράσματα: (α) Αν επιθυμούμε αποτελέσματα με μεγαλύτερη ακρίβεια και μεγάλη ταχύτητα, θα πρέπει μάλλον να στραφούμε στην εφαρμογή WEKA. (β) Αν θέλουμε να κάνουμε και παράλληλους υπολογισμούς, η μόνη εφαρμογή που μας παρέχει αυτή τη δυνατότητα είναι το FuzzyCLIPS, θυσιάζοντας όμως λίγη ταχύτητα και ακρίβεια. (γ) Όσον αφορά το GUI Ant-Miner, λειτουργεί τόσο καλά όσο και το WEKA όσον αφορά την ακρίβεια αλλά είναι πιο αργή μέθοδος. (δ) Σχετικά με το ACRES, λειτουργεί καλά όταν δουλεύουμε με υποσύνολα μεταβλητών, έτσι ώστε να παράγεται σχετικά μικρός αριθμός κανόνων και να καλύπτονται σχεδόν όλα τα στιγμιότυπα στο σύνολο έλεγχου. Στα σύνολα δεδομένων μας το ACRES δεν θεωρείται πολύ αξιόπιστο υπό την έννοια ότι αναγκαζόμαστε να δουλεύουμε με υποσύνολο μεταβλητών και όχι όλες τις μεταβλητές του συνόλου δεδομένων. Όσο πιο πολλές μεταβλητές πάρουμε ως υποσύνολο στο ACRES, τόσο πιο αργό γίνεται. / The aim of this thesis is the comparison of several classification methods that are based on knowledge representation with rules via the creation of expert systems from known data sets. For the application of those methods and the creation and implementation of the corresponding expert systems, we use various tools such as: (a) ACRES, which is a tool for automatic production of expert systems with certainty factors. The certainty factors can be calculated via two different methods and also two different types of expert systems can be produced based on different methods of certainty propagation (that of MYCIN and a generalized version of MYCIN one that uses weights calculated via a genetic algorithm). (b) WEKA, which is a tool that contains machine learning algorithms. Specifically, we use J48, an implementation of the known algorithm C4.5, which produces decision trees, which are coded rules. (c) CLIPS, which is a shell for rule based programming. Here, the rules encoded on the decision true produced by WEKA are extracted and codified in CLIPS with possible changes. (d) FuzzyCLIPS, which is a shell for creating fuzzy expert systems. It's an extension of CLIPS that uses fuzzy rules and certainty factors. Here, the expert system created via CLIPS is transferred to a fuzzy expert system by making some variables fuzzy. (e) GUI Ant-Miner, which is a tool for classification rules extraction from a given data set, using a sequential covering model, such as the AntMiner algorithm.
Based on the above methods-tools, expert systems were created from five (5) classification data sets from the UCI Machine Learning Repository. Those systems have been evaluated according to their classification capabilities based on known metrics (accuracy, sensitivity, specificity and precision). From the comparison of the methods on the five data sets, we conclude the following: (a) if we want results with greater accuracy and high speed, we should probably turn into WEKA. (b) if we want to do parallel calculations too, the only tool that provides us this capability is FuzzyCLIPS, sacrificing little speed and accuracy. (c) With regards to GUI Ant-Miner, it works as well as WEKA in terms of accuracy, but it is slower. (d) About ACRES, it works well when we work with subsets of the variables, so that it produces a relatively small number or rules and covers almost all the instances of the test set. For our datasets, ACRES is not considered very reliable in the sense that we should work with subsets of variables, not all the variables of the dataset. The more variables we consider as a subset in ACRES, the slower it becomes.
|
Page generated in 0.07 seconds