111 |
Image analysis methods for diagnosis of diffuse lung disease in multi-detector computed tomography / Μέθοδοι ανάλυσης εικόνας στη διάγνωση διάχυτων ασθενειών του πνεύμονα στην πολυτομική υπολογιστική τομογραφίαΚορφιάτης, Παναγιώτης 21 October 2011 (has links)
Image analysis techniques have been broadly used in computer aided diagnosis
tasks in recent years. Computer-aided image analysis is a popular tool in medical
imaging research and practice, especially due to the development of different imag-
ing modalities and due to the increased volume of image data. Image segmenta-
tion, a process that aims at identifying and separating regions of an image, is crucial
in many medical applications, such as in identification (delineation) of anatomical
structures and pathological regions, providing objective quantitative assessment
and monitoring of the onset and progression of the disease.
Multidetector CT (MDCT) allows acquisition of volumetric datasets with almost
isotropic voxels, enabling visualization, characterization and quantification of the
entire extent of lung anatomy, thus lending itself to characterization of Interstitial
Lung Diseases (ILDs), often characterized by non uniform (diffuse) distribution in
the lung volume. Interpretation of ILDs is characterized by high inter and intra-
observer variability, due to lack of standardized criteria in assessing its complex
and variable morphological appearance, further complicated by the increased vol-
ume of image data being reviewed.
Computer-Aided Diagnosis (CAD) schemes that automatically identify and char-
acterize radiologic patterns of ILDs in CT images have been proposed to improve
diagnosis and follow-up management decisions. These systems typically consist of
two stages. The first stage is the segmentation of left and right Lung Parenchyma
(LP) region, resulting from lung field segmentation and vessel tree removal, while
the second stage performs classification of LP into normal and abnormal tissue
types. The segmentation of Lung Field (LF) and vessel tree structures are crucial
preprocessing steps for the subsequent characterization and quantification of ILD
patterns.
Systems proposed for identification and quantification of ILDpatterns havemainly
exploited 2D texture extraction techniques, while only a few have investigated 3D texture features. Specifically, texture feature extraction methods that have been
exploited towards lung parenchyma analysis are: first order statistics, grey level
co-occurrence matrices, gray level run length matrices, histogram signatures and
fractals. The identification and quantification of lung parenchyma into normal and
abnormal tissue type has been achieved by means of supervised classification tech-
niques (e.g. Artificial Neural Networks, ANN, Bayesian classifier, linear discrimi-
nant analysis (LDA) and k-Nearest Neighboor (k-NN).
However, the previously proposed identification and quantification schemes in-
corporate preprocessing segmentation algorithms, effective on normal patient data.
In addition the effect of the preprocessing stages (i.e. segmentation of LF and ves-
sel tree structures) on the performance of ILD characterization and quantification
schemes has not been investigated. Finally, the complex interaction of such automated schemes with the radiologists remains an open issue. The current thesis
deals with identification and quantification of ILD in lung CT. The thesis aims
at optimizing all major steps encountered in a computer aided ILD quantification
scheme, by exploiting 3D texture feature extraction techniques and supervised and
unsupervised pattern classification schemes to derive 3D disease segments.
The specific objectives of the current thesis are focused on:
• Development of LF segmentation algorithms adapted to pathology.
• Development of vessel tree segmentation adapted to presence of pathology.
• Development of ILD identification and quantification algorithms.
• Investigation of the interaction of an ILD identification and quantification
scheme with the radiologist, by an interactive image editing tool. / Η Διάμεση Νόσος (ΔΝ) του πνεύμονα αποτελεί το 15% των παθήσεων του πνεύμονα που εμφανίζονται στην κλινική πρακτική. Η ΔΝ επηρεάζει κυρίως το πνευμονικό παρέγχυμα και εμφανίζεται στις εικόνες Υπολογιστικής Τομογραφίας (ΥΤ) του πνεύμονα με την μορφή διάχυτων περιοχών χαρακτηριστικών προτύπων υφής που παρεκκλίνουν από αυτό του φυσιολογικού παρεγχύματος. Η Πολυτομική Υπολογιστική Τομογραφία (ΠΥΤ) επιτρέπει την απόκτηση τρισδιάστατων απεικονίσεων με σημαντική μείωση του χρόνου λήψης και αποτελεί την απεικονιστική τεχνική επιλογής για την ποσοτικοποίηση και τη διάγνωση της ΔΝ. Η διάγνωση της ΔΝ χαρακτηρίζεται από μειωμένη διαγνωστική ακρίβεια χαρακτηρισμού και ακρίβεια ποσοτικοποίησης έκτασης ακόμα και για τον έμπειρο ακτινολόγο, αλλά και από χαμηλή επαναληψιμότητα. Η δυσκολία διάγνωσης οφείλεται στη μειωμένη ικανότητα του ανθρώπινου παράγοντα ως προς το καθορισμό έκτασης των προτύπων υφής λόγω ομοιότητας ακτινολογικής εμφάνισης τους σε συνδυασμό με το φόρτο εργασίας του ακτινολόγου και τον αυξημένο όγκο δεδομένων της ΠΥΤ. Αυτοματοποιημένα συστήματα ανάλυσης εικόνας μπορούν να αντιμετωπίσουν τα παραπάνω προβλήματα παρέχοντας σημαντική υποβοήθηση στο έργο της διάγνωσης και παρακολούθησης της νόσου.
Η ανάπτυξη αυτοματοποιημένων συστημάτων ανάλυσης εικόνας για υποβοήθηση διάγνωσης στην ΥΤ του πνεύμονα έχει αποτελέσει θέμα εκτεταμένης έρευνας την τελευταία δεκαετία με ένα μικρό τμήμα της να επικεντρώνεται στο χαρακτηρισμό και ποσοτικοποίηση της έκτασης της ΔΝ. Σημαντικά στάδια προεπεξεργασίας των συστημάτων αυτών αποτελούν οι τμηματοποίησεις των Πνευμονικών Πεδίων (ΠΠ) και του αγγειακού δένδρου για τον καθορισμό του προς ανάλυση όγκου του πνευμονικού παρεγχύματος.
Τα έως σήμερα προταθέντα συστήματα αυτόματης ανίχνευσης και ποσοτικοποίησης της έκτασης της ΔΝ αξιοποιούν κυρίως μεθόδους ανάλυσης δισδιάστατης (2Δ) υφής εικόνας, ενώ μόνο δύο μελέτες έως σήμερα έχουν αξιοποιήσει ανάλυση 3Δ υφής. Συγκεκριμένα, μέθοδοι ανάλυσης υφής εικόνας που έχουν αξιοποιηθεί είναι: στατιστική 1ης τάξης (ιστόγραμμα), μήτρες συνεμφάνισης αποχρώσεων του γκρι (Grey level Co-occurrence Matrices), μήτρες μήκους διαδρομής απόχρωσης του γκρι (Gray Level Run Length Matrices), υπογραφές ιστογράμματος και Fractals. Ο χαρακτηρισμός και η ποσοτικοποίηση περιοχών του πνευμονικού παρεγχύματος που αντιστοιχούν σε φυσιολογικό παρέγχυμα και υποκατηγορίες παθολογίας υλοποιείται με μεθόδους επιβλεπόμενης ταξινόμησης προτύπων όπως: τεχνητά νευρωνικά δίκτυα (Artificial Neural Networks, ΑΝΝ), Bayesian ταξινομητής, ανάλυση γραμμικού διαχωρισμού ( Linear Discriminant Analysis, LDΑ) και ταξινομητής πλησιέστερου γείτονα (k-Nearest Neighboor, k-NN).
Στα έως σήμερα προταθέντα συστήματα, η τμηματοποίηση των ΠΠ υλοποιείται με συμβατικές μεθόδους τμηματοποίησης με βάση τις αποχρώσεις του γκρί (τιμές έντασης) εικονοστοιχείων. Ανοικτό ζήτημα παραμένει και η αξιολόγηση της επίδρασης των σταδίων προ-επεξεργασίας (τμηματοποίηση ΠΠ και αγγειακού δένδρου) στην ακρίβεια συστημάτων χαρακτηρισμού και ποσοτικοποίησης της έκτασης της ΔΝ. Τέλος, η αξιολόγηση της αλληλεπίδρασης αυτόματων συστημάτων ποσοτικοποίησης και ακτινολόγου στη λήψη αποφάσεων χαρακτηρισμού και ποσοτικοποίησης της έκτασης που αφορούν την ΔΝ δεν έχει διερευνηθεί.
Η παρούσα διδακτορική διατριβή επικεντρώνεται στην ανάπτυξη ολοκληρωμένου συστήματος ανάλυσης εικόνας το οποίο χαρακτηρίζει και ποσοτικοποιεί την έκταση περιοχών με ΔΝ σε απεικονίσεις ΠΥΤ θώρακος, στοχεύοντας στη βελτιστοποίηση όλων των σταδίων του, καθώς και στην αξιολόγηση της συμβολής του συστήματος στην λήψη διαγνωστικών αποφάσεων. Για το σκοπό αυτό διερευνώνται τεχνικές 3Δ ενίσχυσης εικόνας, 3Δ τμηματοποίησης εικόνας καθώς και 3Δ χαρακτηριστικά υφής εικόνας σε συνδυασμό με επιβλεπόμενα και μη επιβλεπόμενα συστήματα ταξινόμησης.
Συγκεκριμένα η συμβολή της παρούσας διατριβής επικεντρώνεται στα ακόλουθα:
• Ανάπτυξη μεθόδων τμηματοποίησης των ΠΠ και του αγγειακού δένδρου παρουσία παθολογίας.
• Διερεύνηση της συμβολής αλγορίθμων εξαγωγής 3Δ υφής εικόνας στην ακρίβεια μεθόδων ταξινόμησης προτύπων ΔΝ.
• Βελτιστοποίηση μεθόδων χαρακτηρισμού και ποσοτικοποίησης έκτασης με χρήση τεχνικών επιβλεπόμενης και μη επιβλεπόμενης ταξινόμησης.
• Αξιολόγηση της επίδρασης των σταδίων προεπεξεργασίας στην ακρίβεια συστημάτων ποσοτικοποίησης.
• Αξιολόγηση της συμβολής συστημάτων ποσοτικοποίησης στη διάγνωση της ΔΝ.
|
112 |
Υπολογιστική επεξεργασία της αλλομορφίας στην παραγωγή λέξεων της ελληνικήςΚαρασίμος, Αθανάσιος 29 August 2011 (has links)
Η παρούσα διδακτορική διατριβή παρουσιάζει ένα συστηματικό και συγκεκριμένο τρόπο προσέγγισης και ανάλυσης της αλλομορφίας σε θεωρητικό, ενώ παράλληλα αποδεικνύει επιτυχώς τη δυνατότητα επεξεργασίας του φαινομένου σε υπολογιστικό επίπεδο στα Ελληνικά. Προηγούμενες έρευνες δεν ασχολήθηκαν με την αλλομορφία στο σύστημα παραγωγής των Ελληνικών, ενώ οι γενικότερες προσπάθειες μηχανικής μάθησης και ανάλυσης της αλλομορφίας ήταν εξαιρετικά περιορισμένες και μερικώς επιτυχημένες στη μορφολογική ανάλυση. Αντίθετα, η παρούσα εργασία ορίζει το φαινόμενο της αλλομορφίας με αυστηρά μορφολογικά κριτήρια, καθορίζει τα περιβάλλοντα εμφάνισης και παρουσιάζει με παραδείγματα τη συστηματική συμμετοχή σε όλες τις διαδικασίες σχηματισμού λέξεων. Πιο συγκεκριμένα παρουσίασε συγκριτικά τις αλλομορφικές συμπεριφορές θεμάτων και προσφυμάτων, περιορισμούς που διέπουν την επιλογή αλλομόρφου και την πεποίθηση της προβλεψιμότητας και κανονικότητας του φαινομένου.
Εξετάζοντας την αλλομορφία υπολογιστικά επισημαίνουμε την έλλειψη καθορισμένης στρατηγικής για την αντιμετώπισή της, καθώς και την επιλεκτική επεξεργασία των αλλομόρφων. Μετά την επιλογή των στρατηγικών της μηχανικής μάθησης, η αλλομορφία των παραγώγων δοκιμάστηκε αρχικά στο LINGUISTICA, το gold standard υλοποιημένο μοντέλο ΜεΜΜ, όπου ο συγκεκριμένος αλγόριθμος απέτυχε όχι μόνο να αναλύσει σωστά τις παράγωγες λέξεις, αλλά και να εντοπίσει αλλόμορφα. Επιπλέον, δοκιμάζουμε ένα επιβλεπόμενο μοντέλο Μέγιστης Εντροπίας, το AMIS, για την πρόβλεψη της αλλομορφίας των ονοματικών αλλομόρφων σε επίπεδο θεμάτων και επιθημάτων. Ο ΑλλοMantIS καταφέρνει να επιτύχει μία state-of-the-art επίδοση και θέτει τις αρχικές βάσεις για την υπολογιστική πρόβλεψη των αλλομορφικών αλλαγών. Για την τελική υπολογιστική προσέγγιση της αλλομορφίας προτείνουμε ένα συνδυαστικό μοντέλο, το οποίο θα συνδυάζει διαφορετικές στρατηγικές, αυτής της χρήσης των αλλο-κανόνων σε συνεργασία με το μοντέλο χαρακτηριστικών για την πρόβλεψη της αλλομορφίας. Θεωρούμε ότι η παρούσα διατριβή καλύπτει και παρουσιάζει με συστηματικότητα την υπολογιστική αντιμετώπιση της αλλομορφίας στην παραγωγή της ΚΝΕ κρίνοντας με βάση τα αποτελέσματα των πειραμάτων. / This thesis presents a systematic approach and analysis of allomorphy, while successfully demonstrates the possibility of treating the phenomenon in computational level in Greek. Previous research did not deal with allomorphy at the derivation process of Greek, while the overall efforts of morphology learning and analysis of allomorphy was extremely limited and partially successful in morphological analysis. In contrast, our work analyses the phenomenon of allomorphy with strict morphological criteria, defines the morphological environments of allomorph participants and presents examples of systematic participation in all word formation processes. More specifically, there are presented the allomorphic behavior of stems and derivational suffixes, restrictions governing the allomorphs selection and proofs of predictability and regularity of the phenomenon.
We highlight the lack of defined computational strategy for dealing with allomorphy and the selective treatment of allomorphs. We test the allomorphy of derived words initially with LINGUISTICA, the gold-standard UML model. This model’s algorithm not only fails to analyze properly the derived words, but also to identify allomorphy. In addition, we test a supervised maximum entropy model (AMIS), which help us to predict the nominal allomorphy of stems and derivational suffixes. We build AlloMantIS, which manages to achieve a state-of-the-art performance and establish a solid ground for the computational prediction of allomorphic changes. Finally we propose a combination computational model for allomorphy, which combines different strategies that use allomorphic rules in cooperation with a model of characteristics for predicting allomorphy. We believe that this thesis is covered and presented a systematic theoretical and computational treatment of allomorphy in Modern Greek derivation based on the results of experiments.
|
113 |
Ανάπτυξη συστήματος επεξεργασίας δεδομένων τηλεπισκόπησης για αυτόματη ανίχνευση και ταξινόμηση περιοχών με περιβαλλοντικές αλλοιώσειςΧριστούλας, Γεώργιος 31 May 2012 (has links)
Η παρούσα διατριβή είχε σαν κύριο στόχο την ανάλυση και επεξεργασία των δεδομένων SAR υπό το πρίσμα του περιεχομένου υφής για την ανίχνευση περιοχών με περιβαλλοντικές αλλοιώσεις όπως είναι οι παράνομες εναποθέσεις απορριμμάτων. Τα δεδομένα που χρησιμοποιήθηκαν προέρχονταν από τον δορυφόρο ENVISAT και το όργανο ASAR του Ευρωπαϊκού Οργανισμού Διαστήματος με διακριτική ικανότητα 12.5m και 30m για τις λειτουργίες μονής και διπλής πολικότητας αντίστοιχα καθώς και από τον δορυφόρο Terra-SAR με διακριτική ικανότητα 3m και HH πολικότητα. Χρησιμοποιήθηκαν κλασσικές τεχνικές ανάλυσης και ταξινόμησης υφής όπως GLCM, Markov Random Fields, Gabor Filters και Neural Networks. Η μελέτη προσανατολίστηκε στην ανάπτυξη νέων μεθόδων ταξινόμησης υφής για αυξημένη αποτελεσματικότητα. Χρησιμοποιήθηκαν δεδομένα πολυφασματικά και SAR. Για τα πολυφασματικά δεδομένα προτάθηκε η χρήση της spectral co-occurrence ως χαρακτηριστικό υφής που χρησιμοποιεί πληροφορία φασματικού περιεχομένου. Για τα δεδομένα SAR αναπτύχθηκε μία νέα μέθοδος ταξινόμησης η οποία βασίζεται σε συνήθεις περιγραφείς υφής (GLCM, Gabor, MRF) οι οποίοι μελετώνται για την ικανότητά τους να διαχωρίζουν ζεύγη μεταξύ τάξεων. Για κάθε ζεύγος τάξεων προκύπτουν χαρακτηριστικά υφής που βασίζονται στις στατιστικές ιδιότητες της cumulative καθώς και της πρώτης και δεύτερης τάξης αυτής. Η μέθοδος leave one out χρησιμοποιείται για τον εντοπισμό των χαρακτηριστικών που μπορούν να διαχωρίσουν τα δείγματα ανά ζεύγη τάξεων στα οποία αντιστοιχίζεται και ένας ξεχωριστός και ανεξάρτητος γραμμικός ταξινομητής. Η τελική ταξινόμηση γίνεται με τη μέθοδο της πλειοψηφίας η οποία εφαρμόζεται στο πρόβλημα των δύο τάξεων και τριών τάξεων αλλά επεκτείνεται και στο πρόβλημα των N-τάξεων δεδομένης της ύπαρξης κατάλληλων χαρακτηριστικών. / Texture characteristics of MERIS data based on the Gray-Level Co-occurrence Matrices (GLCM) are explored as far as their classification capabilities are concerned. Classification is employed in order to reveal four different land cover types, namely: water, forest, field and urban areas. The classification performance for each cover type is studied separately on each spectral band, while the combined performance of the most promising spectral bands is explored. In addition to GLCM, spectral co-occurrence matrices (SCM) formed by measuring the transition from band-to-band are employed for improving classification results. Conventional classifiers and voting techniques are used for the classification stage. Furthermore, the properties of texture characteristics are explored on various types of grayscale or RGB representations of the multispectral data, obtained by means of principal components analysis (PCA), non-negative matrix factorization (NMF) and information theory. Finally, the accuracy of the proposed classification approach is compared with that of the minimum distance classifier.
A simple and effective classification method is furthermore proposed for remote sensed data that is based on a majority voting schema. We propose a feature selection procedure for exhaustive search of occurrence measures resulting from fundamental textural descriptors such as Co-occurrence matrices, Gabor filters and Markov Random Fields. In the proposed method occurrence measures, that are named texture densities, are reduced to the local cumulative function of the texture representation and only those that can linearly separate pairs of classes are used in the classification stage, thus ensuring high classification accuracy and reliability. Experiments performed on SAR data of high resolution and on a Brodatz texture database have given more than 90% classification accuracy with reliability above 95%.
|
114 |
Διερεύνηση συμπεριφοράς μονωτήρων υψηλής τάσης μέσω μετρήσεων του ρεύματος διαρροήςΠυλαρινός, Διονύσιος 31 August 2012 (has links)
Η παρακολούθηση του ρεύματος διαρροής, και ειδικά της κυματομορφής του, είναι μια ευρύτατα διαδεδομένη τεχνική για την παρακολούθηση της επιφανειακής δραστηριότητας και κατάστασης των μονωτήρων υψηλής τάσης. Η παρακολούθηση στο πεδίο είναι απαραίτητη για να υπάρξει μια πιστή καταγραφή της δραστηριότητας και συμπεριφοράς σε πραγματικές συνθήκες, παρουσιάζει όμως σημαντικές δυσκολίες. Το πρόβλημα συνήθως παρακάμπτεται με την καταγραφή και μελέτη εξαγόμενων μεγεθών όπως η τιμή κορυφής και το φορτίο, μία προσέγγιση που οδηγεί όμως σε αμφίβολα αποτελέσματα. Η παρούσα διατριβή επικεντρώνεται στην διερεύνηση και ταξινόμηση κυματομορφών ρεύματος διαρροής καταγεγραμμένων στο πεδίο. Αρχικά, παρατίθεται μια λεπτομερής ανασκόπηση της καταγραφής και ανάλυσης ρεύματος διαρροής σε εργαστηριακές και πραγματικές συνθήκες. Στην συνέχεια, περιγράφεται το πεδίο μετρήσεων, δύο Υποσταθμοί Υψηλής Τάσης 150kV, το αναπτυχθέν λογισμικό αλλά και ο Υπαίθριος Σταθμός Δοκιμών όπου πρόκειται να αξιοποιηθούν τα αποτελέσματα. Μελετώνται περισσότερες από 100.000 κυματομορφές, που έχουν καταγραφεί σε μια περίοδο που ξεπερνάει τα δέκα έτη. Εξετάζεται και αξιολογείται το πρόβλημα του θορύβου και ταυτοποιούνται τρεις διαφορετικοί τύποι θορύβου. Εξετάζεται η επίδρασή τους στο πρόβλημα συσσώρευσης δεδομένων αλλά και στην ποιότητα της εξαγόμενης πληροφορίας. Για την αντιμετώπιση του προβλήματος εφαρμόζονται και αξιολογούνται τρεις διαφορετικές τεχνικές. Για την περαιτέρω ταξινόμησή των κυματομορφών που απεικονίζουν δραστηριότητα, χρησιμοποιούνται διάφορες τεχνικές επεξεργασίας σήματος, εξαγωγής και επιλογής χαρακτηριστικών καθώς και αναγνώρισης προτύπων όπως η Wavelet Multi-Resolution Ανάλυση, η Ανάλυση Fourier, τα Νευρωνικά Δίκτυα, το t-test, ο αλγόριθμος mRMR, ο αλγόριθμος κ-πλησιέστερων γειτόνων, ο απλός Μπεϋζιανός ταξινομητής και οι Μηχανές Διανυσμάτων Υποστήριξης. Συγκεντρωτικά, δίνεται μια συνολική εικόνα των διαφορετικών ζητημάτων που σχετίζονται με την παρακολούθηση του ρεύματος διαρροής. Παρατίθεται μια πλήρης εικόνα των κυματομορφών όπως αυτές καταγράφονται σε πραγματικές συνθήκες, υπογραμμίζοντας ιδιαιτερότητες που σχετίζονται με την φύση της εφαρμογής. Εφαρμόζονται και αξιολογούνται νέες προσεγγίσεις για την ταξινόμηση των κυματομορφών. Τα συνολικά αποτελέσματα προσφέρουν σημαντική ενίσχυση στην αποτελεσματικότητα της τεχνικής της παρακολούθησης του ρεύματος διαρροής, συμβάλλοντας σημαντικά στην μελέτη της επιφανειακής δραστηριότητας και συμπεριφοράς των μονωτήρων υψηλής τάσης. / Leakage current monitoring is a widely applied technique for monitoring surface activity and condition of high voltage insulators. Field monitoring is necessary to acquire an exact image of activity and performance in the field. However, recording, managing and interpreting leakage current waveforms, the shape of which is correlated to surface activity, is a major task. The problem is commonly by-passed with the extraction, recording and investigation of values related to peak and charge, an approach reported to produce questionable results. The present thesis focuses on the investigation and classification of field leakage current waveforms. At first, a detailed background of measuring and analyzing leakage current both in lab and field conditions is provided. Then, the monitoring sites, two 150kV Substations, as well as the developed custom-made software and the newly constructed High Voltage Test Station where the results of this thesis are to be implemented, is briefly described. More than 100.000 waveforms are investigated, recorded through a period exceeding ten years. Field related noise is thoroughly described and evaluated. Three different types of noise are identified and their impact on the size of accumulated data and on data interpretation is investigated. Three different techniques to overcome the problem are applied and evaluated. Activity portraying waveforms are further investigated. Further classification of activity portraying waveforms is performed employing signal processing, feature extraction and selection algorithms as well as pattern recognition techniques such as Wavelet Multi-Resolution Analysis, Fourier Analysis, Neural Networks (NNs), student’s t-test, minimum Redundancy Maximum Relevance (mRMR), k-Nearest Neighbors (kNN), Naive Bayesian Classifier and Support Vector Machines (SVMs). Overall results provide a full image of the various aspects of field leakage current monitoring. A detailed image of field waveforms, revealing several new attributes, is documented. New approaches for the classification of leakage current waveforms are introduced, applied on field waveforms and evaluated. Results described in this thesis significantly enhance the effectiveness of the leakage current monitoring technique, providing a powerful tool for the investigation of surface activity and performance of high voltage insulators.
|
115 |
Προδιαγραφές μιας καινοτόμας πλατφόρμας ηλεκτρονικής μάθησης που ενσωματώνει τεχνικές επεξεργασίας φυσικής γλώσσαςΦερφυρή, Ναυσικά 04 September 2013 (has links)
Ζούμε σε μια κοινωνία στην οποία η χρήση της τεχνολογίας έχει εισβάλει δυναμικά στην καθημερινότητα.Η εκπαίδευση δεν θα μπορούσε να μην επηρεαστεί απο τις Νέες Τεχνολογίες.Ήδη,όροι όπως “Ηλεκτρονική Μάθηση” και ”Ασύγχρονη Τηλε-εκπαίδευση” έχουν δημιουργήσει νέα δεδομένα στην κλασική Εκπαίδευση. Με τον όρο ασύγχρονη τηλε-εκπαίδευση εννοούμε μια διαδικασία ανταλλαγής μάθησης μεταξύ εκπαιδευτή - εκπαιδευομένων,που πραγματοποιείται ανεξάρτητα χρόνου και τόπου. Ηλεκτρονική Μάθηση είναι η χρήση των νέων πολυμεσικών τεχνολογιών και του διαδικτύου για τη βελτίωση της ποιότητας της μάθησης,διευκολύνοντας την πρόσβαση σε πηγές πληροφοριών και σε υπηρεσίες καθώς και σε ανταλλαγές και εξ'αποστάσεως συνεργασίες.Ο όρος καλύπτει ένα ευρύ φάσμα εφαρμογών και διαδικασιών,όπως ηλεκτρονικές τάξεις και ψηφιακές συνεργασίες, μάθηση βασιζόμενη στους ηλεκτρονικούς υπολογιστές και στις τεχνολογίες του παγκόσμιου ιστού. Κάποιες απο τις βασικές απαιτήσεις που θα πρέπει να πληρούνται για την δημιουργία μιας πλατφόρμας ηλεκτρονικής μάθησης είναι: Να υποστηρίζει τη δημιουργία βημάτων συζήτησης (discussion forums) και “δωματίων συζήτησης”(chat rooms),να υλοποιεί ηλεκτρονικό ταχυδρομείο,να έχει φιλικό περιβάλλον τόσο για το χρήστη/μαθητή όσο και για το χρήστη/καθηγητή,να υποστηρίζει προσωποποίηση(customization)του περιβάλλοντος ανάλογα με το χρήστη.Επίσης να κρατάει πληροφορίες(δημιουργία profiles)για το χρήστη για να τον “βοηθάει”κατά την πλοήγηση,να υποστηρίζει την εύκολη δημιουργία διαγωνισμάτων(online tests), να υποστηρίζει την παρουσίαση πολυμεσικών υλικών. Ως επεξεργασία φυσικής γλώσσας (NLP) ορίζουμε την υπολογιστική ανάλυση αδόμητων δεδομένων σε κείμενα, με σκοπό την επίτευξη μηχανικής κατανόησης του κειμένου αυτού.Είναι η επεξεργασία προτάσεων που εισάγονται ή διαβάζονται από το σύστημα,το οποίο απαντά επίσης με προτάσεις με τρόπο τέτοιο που να θυμίζει απαντήσεις μορφωμένου ανθρώπου. Βασικό ρόλο παίζει η γραμματική,το συντακτικό,η ανάλυση των εννοιολογικών στοιχείων και γενικά της γνώσης, για να γίνει κατανοητή η ανθρώπινη γλώσσα από τη μηχανή. Οι βασικές τεχνικές επεξεργασίας φυσικού κειμένου βασίζονται στις γενικές γνώσεις σχετικά με τη φυσική γλώσσα.Χρησιμοποιούν ορισμένους απλούς ευρετικούς κανόνες οι οποίοι στηρίζονται στη συντακτική και σημασιολογική προσέγγιση και ανάλυση του κειμένου.Ορισμένες τεχνικές που αφορούν σε όλα τα πεδία εφαρμογής είναι: ο διαμερισμός στα συστατικά στοιχεία του κειμένου (tokenization), η χρήση της διάταξης του κειμένου (structural data mining), η απαλοιφή λέξεων που δεν φέρουν ουσιαστική πληροφορία (elimination of insignificant words),η γραμματική δεικτοδότηση (PoS tagging), η μορφολογική ανάλυση και η συντακτική ανάλυση. Στόχος της παρούσας διπλωματικής είναι να περιγράψει και να αξιολογήσει πως οι τεχνικές επεξεργασίας της φυσικής γλώσσας (NLP), θα μπορούσαν να αξιοποιηθούν για την ενσωμάτωση τους σε πλατφόρμες ηλεκτρονικής μάθησης.Ο μεγάλος όγκος δεδομένων που παρέχεται μέσω μιας ηλεκτρονικής πλατφόρμας μάθησης, θα πρέπει να μπορεί να διαχειριστεί , να διανεμηθεί και να ανακτηθεί σωστά.Κάνοντας χρήση των τεχνικών NLP θα παρουσιαστεί μια καινοτόμα πλατφόρμα ηλεκτρονικής μάθησης,εκμεταλεύοντας τις υψηλού επιπέδου τεχνικές εξατομίκευσης, την δυνατότητα εξαγωγής συμπερασμάτων επεξεργάζοντας την φυσική γλώσσα των χρηστών προσαρμόζοντας το προσφερόμενο εκπαιδευτικό υλικό στις ανάγκες του κάθε χρήστη. / We live in a society in which the use of technology has entered dynamically in our life,the education could not be influenced by new Technologies. Terms such as "e-Learning" and "Asynchronous e-learning" have created new standards in the classical Education.
By the term “asynchronous e-learning” we mean a process of exchange of learning between teacher & student, performed regardless of time and place.
E-learning is the use of new multimedia technologies and the Internet to improve the quality of learning by facilitating access to information resources and services as well as remote exchanges .The term covers a wide range of applications and processes, such electronic classrooms, and digital collaboration, learning based on computers and Web technologies.
Some of the basic requirements that must be met to establish a platform for e-learning are: To support the creation of forums and chat rooms, to deliver email, has friendly environment for both user / student and user / teacher, support personalization depending to the user . Holding information (creating profiles) for the user in order to provide help in the navigation, to support easy creating exams (online tests), to support multimedia presentation materials.
As natural language processing (NLP) define the computational analysis of unstructured data in text, to achieve mechanical understanding of the text. To elaborate proposals that imported or read by the system, which also responds by proposals in a manner that reminds answers of educated man. A key role is played by the grammar, syntax, semantic analysis of data and general knowledge to understand the human language of the machine.
The main natural text processing techniques based on general knowledge about natural language .This techniques use some simple heuristic rules based on syntactic and semantic analysis of the text. Some of the techniques pertaining to all fields of application are: tokenization, structural data mining, elimination of insignificant words, PoS tagging, analyzing the morphological and syntactic analysis.
The aim of this study is to describe and evaluate how the techniques of natural language processing (NLP), could be used for incorporation into e-learning platforms. The large growth of data delivered through an online learning platform, should be able to manage, distributed and retrieved. By the use of NLP techniques will be presented an innovative e-learning platform, using the high level personalization techniques, the ability to extract conclusions digesting the user's natural language by customizing the offered educational materials to the needs of each user .
|
116 |
Μελέτη και σχεδίαση μετατροπέων σήματος (D/A converters)Βασιλακόπουλος, Κωνσταντίνος 07 June 2013 (has links)
Στην παρούσα διπλωματική εργασία παρουσιάζεται ο σχεδιασμός και η υλοποίηση ενός καινοτόμου μετατροπέα σήματος (D/A converter ή DAC) με τη δυνατότητα εξωτερικής ρύθμισης (offline calibration) για μετατροπή υψηλής ακρίβειας, η οποία εξασφαλίζει υψηλή γραμμικότητα ανεξαρτήτως της ανοχής των στοιχείων που τον απαρτίζουν. Μόλις ο μετατροπέας ρυθμιστεί κατάλληλα, λειτουργεί αντίστοιχα με ένα DAC, όπου όλα τα στοιχεία του έχουν υποστεί επεξεργασία με λέιζερ (laser trimmed DAC), αλλά χωρίς το υψηλό κόστος κατασκευής που συνεπάγεται η παραπάνω διαδικασία, με αποτέλεσμα να αποτελεί μία ιδανική οικονομική λύση για εφαρμογές που απαιτούν υψηλή ακρίβεια μετατροπής. / This diploma thesis presents the design and implementation of an innovative Digital to Analog Converter (DAC) with the capability of offline external calibration for accurate measurements, which guarantees high linearity regardless of the mismatch of its components. Once the converter has been configured, it can attain the same linearity performance as a laser trimmed DAC, but without the high manufacturing costs involved in the laser etching process, making it an ideal low-cost solution for high accuracy applications.
|
117 |
Βελτιστοποίηση φυσικών συστημάτων επεξεργασίας υγρών αποβλήτωνΓαλανόπουλος, Χρήστος 05 February 2015 (has links)
Η μελέτη ενός πειράματος μικρής πιλοτικής κλίμακας, με δύο παράλληλα συστήματα ρηχών λεκανών (ύψους 0.35m), η μία λεκάνη με φύτευση του είδους Typha Latifolia και η άλλη χωρίς φύτευση, διεξάχθηκε για τον σχεδιασμό ελεύθερης επιφανειακής ροής (FWS) τεχνητού υγροτόπου. Οι δύο λεκάνες τροφοδοτήθηκαν με πραγματικά αστικά λύματα όπου οι χρόνοι παραμονής κυμάνθηκαν από 27,6 έως 38,0 ημέρες. Η μεταβολή του όγκου κάθε λεκάνης παρακολουθήθηκε για 2 συνεχή έτη και ταυτόχρονα υπολογίστηκαν οι ρυθμοί βροχόπτωσης και εξάτμισης. Η διαφορά του όγκου μεταξύ των δύο λεκανών οφειλόταν στην πρόσληψη νερού από τα φυτά, η οποία συγκρίθηκε με τις προβλέψεις της εξατμισοδιαπνοής παρόμοιων φυτών με την χρήση του υπολογιστικού προγράμματος REF-ET. Η συγκομιδή των φυτών πραγματοποιήθηκε τρείς φορές στην διάρκεια του 1ου έτους του πειράματος, ώστε να εκτιμηθεί ο ρυθμός πρόσληψης αζώτου από τα φυτά. Η σημαντικότερη διαφορά των δύο συστημάτων ήταν η αφαίρεση νερού μέσω της εξατμισοδιαπνοής των φυτών.
Η πιλοτική μονάδα λειτούργησε έτσι ώστε να επιτευχθεί και απομάκρυνση της οργανικής ύλης (BOD5) και του ολικού αζώτου (TN) από τα λύματα. Ο σχεδιασμός της διευκόλυνε την ανάπτυξη ενός μαθηματικού μοντέλου, ακολουθώντας το πλαίσιο του μοντέλου της ενεργής ιλύος (ASM). Αρχικά το μαθηματικό μοντέλο αναπτύχθηκε για τις δύο λεκάνες με τις μικροβιακές διεργασίες που επικράτησαν στο εσωτερικό τους, ώστε να περιγραφεί πλήρως η συμπεριφορά τους. Η προσομοίωση και η εκτίμηση των παραμέτρων του μοντέλου επιτεύχθηκε με την χρήση του υπολογιστικού περιβάλλοντος του AQUASIM. Οι κύριες διεργασίες που ελήφθησαν υπόψη για την μοντελοποίηση ήταν η αμμωνιοποίηση, η αερόβια ετεροτροφική ανάπτυξη, η νιτροποίηση και η ανάπτυξη φυκών. Μια ισχυρή εποχική εξάρτηση παρατηρήθηκε για την συμπεριφορά κάθε λεκάνης όταν το μοντέλο εφαρμόστηκε για το 1ο έτος του πειράματος. Αυτό το μοντέλο επαληθεύτηκε ικανοποιητικά με τα πειραματικά δεδομένα του 2ου έτους. Η παρατηρούμενη μέση ετήσια απόδοση απομάκρυνσης του BOD5 και του TN ήταν 60% και 69%, αντίστοιχα για την λεκάνη χωρίς φυτά και 83% και 75%, αντίστοιχα για την λεκάνη με φυτά. Το μοντέλο προέβλεψε μέση ετήσια απόδοση απομάκρυνσης 82% για το BOD5 και 65% για το TN στην λεκάνη με φυτά, ικανοποιώντας τα κριτήρια για τον σχεδιασμό πλήρους κλίμακας τεχνητού υγροτόπου .
Η ικανότητα του μοντέλου να προβλέπει όχι μόνο την απομάκρυνση της οργανικής ύλης αλλά και του ολικού αζώτου, θεωρήθηκε επαρκής όταν δοκιμάστηκε με έναν ελεύθερης επιφανειακής ροής τεχνητό υγρότοπο με 400 ισοδύναμο πληθυσμό, με μοναδική τροποποίηση τον συνυπολογισμό του περιορισμού του οξυγόνου στον ρυθμό της διεργασίας της νιτροποίησης. Επομένως, το δυναμικό μοντέλο διαμορφώθηκε με την ενσωμάτωση της πρόβλεψης του ρυθμού της εξατμισοδιαπνοής των φυτών και χρησιμοποιήθηκε για τον σχεδιασμό περίπτωσης μελέτης τεχνητού υγροτόπου πλήρους κλίμακας. Τα στοιχεία που απαιτούνται για αυτό τον σχεδιασμό περιλάμβαναν την παροχή εισόδου και κλιματολογικά στοιχεία (θερμοκρασίας και βροχόπτωσης) για την περιοχή του σχεδιασμού, καθώς και οι απαιτήσεις της ποιότητας εκροής. Η περίπτωση μελέτης για 4000 ισοδύναμο πληθυσμό όπου η ποιότητα εκροής ήταν σε μέσες ετήσιες τιμές BOD5=25mg/L και TN=15mg/L, χρειάστηκε μία συνολική επιφάνεια υγροτόπου 11 εκταρίων. Εάν χρησιμοποιηθούν δύο λεκάνες σε σειρά, η 1η με φυτά και η 2η χωρίς, τότε η συνολική επιφάνεια μειώνεται κατά περίπου 27%, ελέγχοντας μόνο την αρχική μέγιστη φύτευση της πρώτης λεκάνης του υγροτόπου. / The study at pilot-scale of two parallel systems with shallow basins (height h=0.35m), one planted with Typha Latiofolia and the other without vegetation, was conducted for the modeling of free water surface (FWS) constructed wetland systems. The basins were fed with real sewage at retention times ranging from 27.6 to 38.0 days. The variation of the volume in each basin was monitored for two consecutive years and simultaneously, rainfall and evaporation rates were calculated. The difference of the volume between the basins was due to the water absorption by the plants and was compared with the predictions of evapotranspiration rates of similar plants using the REF-ET calculation software. The harvesting of the plants was performed three times during the first year, in order to estimate the nitrogen uptake by the plants. The main difference in the two systems was the water removal through plant evapotranspiration.
The pilot unit was operated so as to achieve the removal of both organic matter (BOD5) and total nitrogen (TN) from the sewage. Its design enabled the development of a mathematical model, following the framework of the activated sludge model (ASM). The simulation and the parameter estimation were achieved using the AQUASIM framework. The mathematical model describes the microbial processes, which dominated within the basins describing satisfactorily their behavior. The key processes accounted for in the modeling were ammonification, aerobic heterotrophic growth, nitrification and algal growth. A strong seasonal dependence was observed for each basin. The model was satisfactorily validated with the data of the second year. An observed average annual removal efficiency of BOD5 and TN were 60% and 69%, respectively for the basin without plants and 83% and 75%, respectively for the basin with plants. The model predicted average annual removal efficiency 82% for BOD5 and 65% for TN in the basin with plants, satisfying the design criteria of a full-scale constructed wetland.
The ability of the model to predict not only the removal of organic matter but also total nitrogen removal, was considered sufficient as tested with a real free water surface constructed wetland of 400 population equivalent, with the sole modification being the inclusion of oxygen limitation in the nitrification rate. The dynamic model was amended with the direct incorporation of the plant evapotranspiration rate and it was used to design a full-scale constructed wetland. The required elements for this design included the inflow rate and climatic data (temperature and rainfall) for the design region, as well as the effluent quality requirements. In the case study of 4000 population equivalent, the effluent quality requirement was: average annual values for BOD5=25mg/L and for TN=15mg/L. The model was used to determine a total wetland surface requirement of 11ha. If two sequential basins are used, the first with plants and the second without, then the total wetland surface could be reduced by approximately 27%, controlling only the maximum initial vegetation in the first wetland basin.
|
118 |
Τεχνικές επεξεργασίας ψηφιακού σεισμικού σήματος για χρήση στην τομογραφία υψηλής ανάλυσηςΛόης, Αθανάσιος 16 May 2014 (has links)
Αντικείμενο της παρούσας διδακτορικής διατριβής αποτελεί η μελέτη και ανάπτυξη νέων μεθοδολογιών αυτόματης επεξεργασίας σεισμολογικών δεδομένων, µε σκοπό την επίλυση σημαντικών προβλημάτων που συναντώνται στα πεδία των επιστημών της σεισμολογίας και της γεωφυσικής όπως: 1) η ανίχνευση μικροσεισμικών γεγονότων από µία καταγραφή, µε άλλα λόγια ο διαχωρισμός της καταγραφής σε τμήματα που αποτελούνται από εδαφικό θόρυβο και σε τμήματα που περιέχουν την χρήσιμη πληροφορία (σεισμικά γεγονότα) για τους γεωεπιστήμονες και 2) η εκτίμηση των χρόνων άφιξης των διαμήκων (P-) καθώς και των εγκαρσίων (S-) σεισμικών φάσεων.
Πιο αναλυτικά, η διατριβή είναι δομημένη ως εξής:
Το πρώτο κεφάλαιο αποτελεί την εισαγωγή της διατριβής.
Στο δεύτερο κεφάλαιο συγκεντρώνονται και κατηγοριοποιούνται όλες οι υπάρχουσες τεχνικές που έχουν αναπτυχθεί για την επίλυση του προβλήματος της αυτόματης ανίχνευσης σεισμικών γεγονότων καθώς και τον αυτόματο προσδιορισμό του χρόνου άφιξης των P και S σεισμικών φάσεων. Συγκεκριμένα γίνεται κατηγοριοποίηση αυτών σε τεχνικές που στηρίζονται στην ανάλυση και επεξεργασία των σεισμικών καταγραφών στα πεδία του χρόνου και της συχνότητας, στη χρήση νευρωνικών δικτύων, στην ανάλυση χρονικών σειρών και αυτοπαλινδρόμησης, στην ανάλυση της πόλωσης των κυμάτων, στις στατιστικές υψηλότερης τάξης, μεθόδους ασαφούς λογικής, κυματιδιακές μεθόδους κτλ.
Στο τρίτο κεφάλαιο, αναπτύσσεται νέα τεχνική για την επίλυση του προβλήματος της αυτόματης ανίχνευσης σεισμικών γεγονότων από μία καταγραφή, η οποία βασίζεται σε μία μη αυστηρή διαδικασία ελέγχου υποθέσεων. Η προτεινόμενη τεχνική πραγματοποιείται σε δύο στάδια. Κατά το πρώτο στάδιο εκτιμώνται οι εμπειρικές συναρτήσεις πυκνότητας πιθανότητας που προκύπτουν τόσο από τον εδαφικό θόρυβο όσο και από τα υπόλοιπα που προέκυψαν από την λεύκανση αυτού. Κατά το δεύτερο στάδιο προτείνεται στατιστικό τεστ τύπου κατωφλίωσης για την αυτόματη ανίχνευση μικροσεισμικών γεγονότων. Η προτεινόμενη τεχνική εφαρμόζεται σε συνθετικά και πραγματικά δεδομένα και συγκρίνεται με τον γνωστό αλγόριθμο του λόγου βραχυπρόθεσμου προς μακροπρόθεσμο μέσο (STA/LTA).
Στο τέταρτο κεφάλαιο παρουσιάζεται μέθοδος για την επίλυση του προβλήματος του αυτόματου προσδιορισμό του χρόνου άφιξης της P φάσης κάνοντας χρήση στατιστικών ανώτερης τάξης. Συγκεκριμένα, γίνεται χρήση των ποσοτήτων της λοξότητας, της κύρτωσης και μίας εκτίμησης της αντιεντροπίας ως γραμμικός συνδυασμός των παραπάνω. Επιπλέον παρουσιάζονται τα αποτελέσματα από την εφαρμογή της συγκεκριμένης τεχνικής σε συνθετικά αλλά και πραγματικά δεδομένα μικροσεισμικού δικτύου, κατάλληλα για χρήση στην παθητική σεισμική τομογραφία υψηλής ευκρίνειας. Τα αποτελέσματα αυτά συγκρίνονται με γνωστές ενεργειακές μεθόδους.
Στο πέμπτο κεφάλαιο, αναπτύσσεται νέα τεχνική για την επίλυση του προβλήματος της αυτόματης εκτίμησης του χρόνου άφιξης της S φάσης. Η προτεινόμενη τεχνική βασίζεται στην στατιστική επεξεργασία συγκεκριμένης χαρακτηριστικής συνάρτησης, η οποία προκύπτει από τις ιδιότητες πόλωσης των σεισμικών κυμάτων που έχουν καταγραφεί. Επιπλέον, για να ελαττωθεί η εξάρτηση του προτεινόμενου αλγορίθμου από το χρησιμοποιούμενο παράθυρο, ακολουθείται μια πολυ-παραθυρική προσέγγιση του προβλήματος σε συνδυασμό με χρήση συναρτήσεων βαρών οι οποίες εκτιμώνται αυτόματα και βασίζονται στις μεταβολές της ενέργειας του σήματος κατά τη S άφιξη. Τέλος, παρουσιάζονται τα αποτελέσματα της εφαρμογής της μεθόδου σε πραγματικά δεδομένα καθώς και η αξιολόγησή τους σε περιβάλλον θορύβου.
Στο έκτο κεφάλαιο, παρουσιάζονται τα αποτελέσματα της εφαρμογής των προτεινόμενων τεχνικών σε δεδομένα μικροσεισμικού δικτύου και συγκεκριμένα σε δεδομένα που προέκυψαν από πειράματα παθητικής σεισμικής τομογραφίας και τεχνητής υδραυλικής διάρρηξης που έλαβαν χώρα στην περιοχή Δέλβινο της ΝΔ Αλβανίας. Επιπλέον, γίνεται ανάλυση των αποτελεσμάτων βάσεις των δεικτών αβεβαιότητας που επέλεξαν οι αναλυτές στις εκτιμήσεις τους, καθώς και βάσει των λόγων σήματος θορύβου των καταγραφών.
Στο έβδομο κεφάλαιο παρατίθενται τα συμπεράσματα της παρούσας διδακτορικής διατριβής, καθώς και πιθανές μελλοντικές προεκτάσεις. / The problems of seismic event detection and P- and S-phase arrival time estimation constitute important and vital tasks for the geoscientists. The solution of the aforementioned problems provides with important geophysical and seismological information, that can be used in a number of problems such as the structure of the earth’s interior, geotectonic settings, hypocentric and epicentric coordinates of an earthquake, the seismicity of an area and seismic hazard assessment. Traditionally, human experts have carried out this task. Nevertheless, during the last three decades due to the progress in computer technology, several methods have been developed for the automatic seismic event detection and P- and S- phase identification.
After the introduction of the first chapter, in the second chapter the majority of the existing methods that have been developed and applied up to now, are gathered and categorized. These methods involve energy criteria, the seismic wave polarity assumption, artificial neural networks, higher order statistics, maximum likelihood methods, fuzzy logic methods etc.
In the third chapter, a new thresholding type technique is proposed, tailored to fit real world situations where our knowledge on the statistical characteristics of the background noise process are unknown and a strict hypothesis testing framework can not be followed. In such cases the replacement of the unknown probability density function under the null hypothesis by its empirical counterpart, constitutes a possibility. In this work, a two stage procedure is proposed. The first one concerns the estimation of the empirical functions of the noise process itself as well as its whitened counterpart. In the second stage, using the above empirical functions, a thresholding scheme is proposed in order to solve the problem of the detection of seismic events in a non strict hypothesis testing framework. The performance of the proposed technique is confirmed by its application in a series of experiments both in synthetic and real seismic datasets.
In the fourth chapter, the problem of automatic P-phase identification is solved using higher order statistics. The first- and second-order statistics (such as mean value, variance, autocorrelation, and power spectrum) are extensively used in signal processing to describe linear and Gaussian processes. In practice, many processes deviate from linearity and Gaussianity. Higher order statistics can be used for the study of such processes. The P-phase arrival time is estimated using these HOS parameters and additionally, an estimation of the negentropy defined as a linear combination of skewness and kurtosis. According to the implemented algorithm a moving window “slides” on the recorded signal, estimating skewness, kurtosis, and negentropy. Skewness can be considered as a measure of symmetry of the distribution, while kurtosis is a measure of heaviness of the tails, so they are suitable for detecting parts of the signal that do not follow the amplitude distribution of ambient noise. Seismic events have higher amplitudes in comparison to the seismic noise, and these higher values occupy the tails of the distribution (high degree of asymmetry of distribution). In the case of seismic events, skewness and kurtosis obtain high values, presenting maxima in the transition from ambient noise to the seismic events (P-arrival). The proposed algorithms are applied on synthetic as well as real seismic data and compared to well known energy based methods.
Algorithms that deal with the automatic S-onset time identification problem, is a topic of ongoing research. Modern dense seismic networks used for earthquake location, seismic tomography investigations, source studies, early warning etc., demand accurate automatic S-wave picking. Most of the techniques that have been proposed up to now are mainly based on the polarization features of the seismic waves. In the fifth chapter, a new time domain method for the automatic determination of the S-phase arrival onsets is proposed and its implementation on local earthquake data is presented. Eigevalue analysis is taking place over small time intervals, and the maximum eigenvalue which is obtained on each step is retained for further processing. In this way a time series of maximum eigenvalues is formed, which serves as a characteristic function. A first S-phase arrival time estimation is obtained by applying the kurtosis criterion on the derived characteristic function. Furthermore, a multi-window approach combined with an energy-based weighting scheme is also applied, in order to reduce the algorithm’s dependence on the moving window’s length and provide a weighted S phase onset. Automatic picks are compared against manual reference picks and moreover the proposed technique is subjected to a noise robustness test.
In the sixth chapter, the results of the implementation of the proposed techniques on microseismic data are presented. Specifically, the proposed methods are applied on two real sets of data. One dataset was been recorded during a Passive Seismic Tomography (PST) experiment, while the second one during the seismic monitoring of fracking operations. Both experiments took place in a hydrocarbon field in Delvina, SW Albania. These results are also analyzed, based on the arrival times and their uncertainty as they were evaluated by human analysts as well as the corresponding signal to noise ratio of the seismic records.
Finally, the seventh chapter concludes this work and possible future extensions are discussed.
|
119 |
Συντακτική επεξεργασία γλωσσικών δομών από μαθητές με αναγνωστικές δυσκολίες : Μία μελέτη του ρόλου της προσωδιακής ευαισθησίας, της συντακτικής επίγνωσης και της εργαζόμενης μνήμηςΚοσιώνης, Σπυρίδων 03 April 2015 (has links)
Στην παρούσα ερευνητική εργασία, θα μελετηθεί η επίδραση διαφόρων παραγόντων, όπως η ικανότητα στην αποκωδικοποίηση, η εργαζόμενη μνήμη, η προσωδιακή ευαισθησία και η συντακτική επίγνωση, στη συντακτική επεξεργασία προτάσεων από παιδιά και ενήλικες, που έχουν ως μητρική γλώσσα την ελληνική. Σκοπό της έρευνας αποτελεί η διερεύνηση της φύσης της δυσκολίας που αντιμετωπίζουν οι φτωχοί αναγνώστες της Στ΄ Δημοτικού, οι οποίοι αποτελούν την πειραματική ομάδα, στη συντακτική επεξεργασία προτάσεων. Χρησιμοποιήθηκαν δύο ομάδες ελέγχου: μια εξισωμένη ηλικιακά με την πειραματική ομάδα (Στ΄ Δημοτικού) και μια εξισωμένη αναγνωστικά (Δ΄ Δημοτικού). Στα έργα που χορηγήθηκαν για την αξιολόγηση της συντακτικής επίγνωσης (έργο αξιολόγησης συντακτικής επίγνωσης, έργο αποκατάστασης αποδομημένων προτάσεων, έργο επισύναψης κατηγορούμενου σε υποκείμενο με ανάγνωση), οι μαθητές με δυσκολία στην ανάγνωση σημείωσαν χαμηλότερη επίδοση από την ηλικιακά εξισωμένη ομάδα ελέγχου. Με συγκρίσεις των επιδόσεων της πειραματικής ομάδας και της αναγνωστικά εξισωμένης ομάδα ελέγχου, δε βρέθηκε διαφορά στη συντακτική επεξεργασία ανάμεσα στις δύο αυτές ομάδες. Η επίδραση των διαφόρων παραγόντων βρέθηκε ότι ήταν διαφορετική ανάλογα με τη φύση του έργου. Τέλος, βρέθηκε ότι οι φτωχοί αναγνώστες δεν παρουσιάζουν κάποια διαφορά, σε σύγκριση με την ηλικιακά εξισωμένη ομάδα ελέγχου, όσον αφορά στον τρόπο με τον οποίο χειρίζονται τους προσωδιακούς δείκτες, κατά τη επεξεργασία συντακτικά αμφίσημων εκφωνημάτων. / In the current study, the effect of various factors, such as decoding, working memory, prosodic sensitivity and syntactic awareness, on the syntactic processing of sentences will be investigated on children and adults, whose native language is Greek. The purpose of this research is to investigate the nature of the difficulty of sixth-grader poor readers, who constituted the experimental group, in syntactic processing. Two control groups were used, one age matched (sixth-graders) and one reading matched (fourth graders) with the experimental group. In the tasks used to evaluate syntactic processing (syntactic awareness task, word ordering task, attachment reading task), students with reading difficulty had lower performance than the age matched control group. Comparisons of the performance of the experimental group with the reading control group, showed that there is not significant difference in syntactic processing between these groups . Τhe influence of various factors on performance was found to be differentiated, according to the nature of each task. Finally, no difference concerning poor readers’ handling of prosodic information as compared to the age control group was found, during the processing of syntactically ambiguous utterances.
|
120 |
Ρωμαλέες τεχνικές εκτίμησης της οπτικής ροής / Robust techniques for optical flow estimationΨαράκης, Ζαχαρίας 04 November 2014 (has links)
Στο πλαίσιο της εργασίας αυτής προτείνεται μια τεχνική η οποία προσπαθεί να κάνει ταυτόχρονα εκτίμηση της οπτικής ροής καθώς επίσης και διαμέριση της σκηνής σε διαφορετικά κινούμενα σώματα. Συγκεκριμένα προτείνεται η λύση μιας ακολουθίας προβλημάτων ελαχιστοποίησης. Κάθε πρόβλημα ελαχιστοποίησης προσπαθεί να απομονώσει κάποιο κινούμενο σώμα από την σκηνή και εκτιμά για αυτό μία ταχύτητα. Τα αποτελέσματα που προέκυψαν από την εφαρμογή της τεχνικής σε προβλήματα εκτίμησης της οπτικής ροής διαφορετικής πολυπλοκότητας δείχνουν ότι η επίδοση της προτεινόμενης τεχνικής είναι ικανοποιητική. / In this thesis, a method, which tries to estimate the optical flow field, and segment the scene at the same time, is suggested. Specifically, a series of minimization problems are solved. Each of these minimization problems, tries to isolate a moving object from the scene, and estimate for it a velocity. The results from applying the suggested method in several optical flow estimation problems, with varying complexities, show that the performance of the method is very promising.
|
Page generated in 0.0379 seconds