Spelling suggestions: "subject:"πραγματοποίηση"" "subject:"αυτοματοποίηση""
1 |
Τμηματοποίηση και τρόποι σύνδεσης κανονικών ρηγμάτων στην κεντρική ΕλλάδαΖάμπος, Μιλτιάδης 19 January 2010 (has links)
Οι ρηξιγενείς ζώνες περιλαμβάνουν συνήθως ασυνεχή, υποπαράλληλα, κλιμακωτά ρηξιγενή τμήματα τα οποία χωρίζονται από ζώνες μεταβίβασης (relay zones). Καθώς οι ρηξιγενείς ζώνες εξελίσσονται, τα τμήματα των ζωνών αυτών, μπορούν να αλληλεπιδρούν μηχανικά και να ενώνονται σταδιακά, σχηματίζοντας έτσι δομές μεγαλύτερης κλίμακας με την αύξηση της παραμόρφωσης. Ο τρόπος με τον οποίο τα τμήματα αλληλεπιδρούν κατά τη διάρκεια της εξέλιξης των ζωνών, έχει γίνει αντικείμενο αρκετών ερευνών. Ωστόσο ακόμα και σήμερα οι γνώσεις μας για τις διεργασίες της αλληλεπίδρασης και της σύνδεσης των τμημάτων είναι περιορισμένες. Στην παρούσα εργασία, για τη μελέτη της τμηματοποίησης και του τρόπου σύνδεσης κανονικών ρηγμάτων, επιλέχτηκαν 3 περιοχές της Κεντρικής Ελλάδας: οι ρηξιγενείς ζώνες του Αιγίου και της Ελίκης στον Κορινθιακό κόλπο, οι ρηξιγενείς ζώνες της Αταλάντης και της Αρκίτσας στον Ευβοϊκό κόλπο και τέλος οι σύνθετες ρηξιγενείς ζώνες του Καπαρελλίου και της Δάφνης στην περιοχή της Βοιωτίας. Οι δύο πρώτες έχουν ΔΒΔ διεύθυνση, ενώ η τελευταία έχει σχεδόν Α-Δ διεύθυνση και αντιπροσωπεύει τη ζώνη παραμόρφωσης μεταξύ των δύο κύριων ζωνών rift. Η επιλογή των περιοχών αυτών έγινε με βάση την σημαντική τεκτονική τους δραστηριότητα τα τελευταία 1.5 εκατομμύρια χρόνια και την σπουδαιότητα τους στη νεοτεκτονική εξέλιξη της Κεντρικής Ελλάδας.
Στην παρούσα διατριβή υπολογίστηκαν παράμετροι που αντανακλούν έμμεσα την κατανομή της τάσης γύρω από τα ρήγματα, όπως είναι η κατακόρυφη μετατόπιση (D), το μήκος των ρηγμάτων (L), ο αριθμός των ρηξιγενών τμημάτων κάθε ζώνης (n), η επικάλυψη (OL), η κλιμάκωση (S), και το μήκος της ζώνης μεταβίβασης (Lr). Οι παράμετροι αυτοί αποτελούν δείκτες του βαθμού σύνδεσης μεταξύ των ρηξιγενών τμημάτων καθώς και του βαθμού ωριμότητας μιας ενεργού ζώνης. Έτσι, χρησιμοποιήθηκαν αρχικά Ψηφιακά Μοντέλα Αναγλύφου (DEM) από τα οποία κατασκευάστηκαν τοπογραφικά προφίλ σε κάθε ρηξιγενή ζώνη, με σκοπό τον υπολογισμό της κατακόρυφης μετατόπισης των ρηγμάτων τόσο στα επι μέρους τμήματα όσο και στις ζώνες μεταβίβασης καθώς και η κατανομή της μετατόπισης κατά μήκος οροφής-βάσης των ρηγμάτων. Επίσης προσδιορίστηκε η γεωμετρία των ζωνών μεταβίβασης μεταξύ των ρηξιγενών τμημάτων, με σκοπό να εξετασθούν οι τρόποι σύνδεσης των τμημάτων με υπολογισμό του μήκους των μη επικαλυπτόμενων ζωνών (underlapping zone), των ζωνών επικάλυψης (overlap zone) και των κλιμακώσεων (separation/spacing). Τα μήκη των τμημάτων των ρηξιγενών ζωνών προβλήθηκαν σε διαγράμματα αθροιστικής συχνότητας με σκοπό την περιγραφή των πληθυσμών των ρηγμάτων στις τρεις περιοχές μελέτης. Τα διαγράμματα δηλώνουν μια πολυκλασματική κατανομή, που αντιπροσωπεύει διαφορετικούς πληθυσμούς ρηγμάτων που αλληλεπιδρούν ή μια εκθετική κατανομή που δείχνει ένα πρώιμο στάδιο κορεσμού των ρηγμάτων. Στη συνέχεια, κατασκευάστηκαν διαγράμματα της μέγιστης κατακόρυφης μετατόπισης των τμημάτων με το μήκος (D-L), με σκοπό να προσδιοριστεί σε ποιο στάδιο σύνδεσης βρίσκονται οι συγκεκριμένες ζώνες και να προταθούν μοντέλα εξέλιξης αυτών. Τέλος εξετάστηκαν και συσχετίστηκαν τα γεωμετρικά χαρακτηριστικά των ζωνών μεταβίβασης (μήκος κλιμάκωσης, μήκος επικαλυπτόμενων ή μη τμημάτων), με σκοπό την εξαγωγή συμπερασμάτων για την ικανοποίηση ή μη κριτηρίων αλληλεπίδρασης των τμημάτων και της πιθανής σύνδεσης αυτών. Η κατανόηση του ρόλου της τμηματοποίησης και του τρόπου σύνδεσης των τμημάτων των ρηξιγενών ζωνών μπορεί να βοηθήσει σημαντικά στην εκτίμηση της σεισμικής επικινδυνότητας μιας περιοχής, στην κατανόηση των ιζηματογενών διαδικασιών μπροστά από τα ρήγματα καθώς και στον προσδιορισμό παγίδων ρευστής φάσης και της μετανάστευσή τους, μιας και οι ζώνες μεταβίβασης δύναται να αποτελούν περιοχές διαφυγής ή εμπόδια στη ροή των ρευστών. / Fault zones are commonly composed of discontinuous, sub-parallel, stepping fault segments, separated by relay zones. During the growth of a fault zone, its segments interact mechanically and link up into gradually larger segments that eventually may form large structures, due to strain accommodation. The way that segments interact during the growth of a fault zone, has been the subject of several studies. Yet, present understanding of interaction and linkage of segments, continues to be shrouded by considerable uncertainty. Three areas in central Greece were chosen, to investigate the role of segmentation and linkage of normal faults: the Aigio and Eliki fault zones in the Gulf of Corinth, the Atalanti and Arkitsa fault zones in the Northern Gulf of Evoia and the composite fault zones of Kaparelli and Dafnes in Beotia area. The Gulf of Corinth and the Northern Gulf of Evia are WNW-trending grabens, while Beotia area represents the deformed zone between the two main rift zones. These areas have been chosen due to their significant tectonic activity in the last 1.5Ma and their great importance in the neotectonic evolution of central Greece.
In this study, several parameters reflecting the stress distribution around faults, have been measured, such as the vertical displacement (D), the number of segments (n), the overlap (OL), the spacing (S) and the length of relay zone (Lr). These parameters are indicators of the degree of linkage between fault segments and the degree of maturity of an active fault zone. Digital Elevation Models (DEM) have been used to construct elevation profiles in every fault zone, in order to measure the vertical throw of each segment, and in the relay zones as well as the distribution of displacement in footwall and hanging wall blocks. In addition, the geometry of the relay zones between fault segments is defined by calculating the length of underlapping zone, the length of overlapping zone and the length of spacing, in order to examine the segment linkage. The lengths of fault zones’ segments have been illustrated in plots of cumulative frequency, in order to describe the fault population in the three study areas. The plots indicate either multifractal distribution that represents fault population with different characteristics that interact or exponential distribution that shows an early stage of fault saturation. The relationship between maximum vertical displacement and length is illustrated in d-L plots, in order to determine the linkage stage of the particular fault zones and to propose evolutionary models. Finally the geometric characteristics of relay zones (spacing, length of underlapping or overlapping segments) were examined, in order to investigate whether or not the segments satisfy the interaction criteria and their possible linkage. Segmentation and fault segment linkage plays an important role in evaluating seismic hazard of an area, the architecture of sedimentary deposits, as well as in fluid flow in faulted reservoirs since relay zones can act as leakage zones or barriers from the hanging wall to the footwall blocks.
|
2 |
Επίδραση τεχνικών μείωσης θορύβου στην τμηματοποίηση πνευμονικών πεδίων στην υπολογιστική τομογραφία / Evaluating the effect of image denoising in lung field segmentation algorithm in computed tomographyΑρκούδη, Μαρία 26 July 2013 (has links)
Η υπολογιστική τομογραφία θώρακος αποτελεί την απεικονιστική τεχνική επιλογής για την διάγνωση και την ποσοτικοποίηση των διάμεσων νοσημάτων του πνεύμονα (1). Η διάγνωση όμως τέτοιων παθολογιών χαρακτηρίζεται από μεγάλη ένδο- και μεταξύ παρατηρητών μεταβλητότητα λόγω της μη ύπαρξης κριτηρίων του απεικονιστικού προτύπου των παθολογιών καθώς και του μεγάλου όγκου δεδομένων της εξέτασης.
Για τον λόγο αυτό στην βιβλιογραφία έχει προταθεί η χρήση συστημάτων αυτόματης ποσοτικοποίησης με σκοπό την ακριβή μέτρηση των παθολογιών η οποία έως σήμερα πραγματοποιείται με ημι-ποσοτικές κλίμακες. Τα συστήματα αυτά λειτουργούν είτε σε επίπεδο τομής (2Δ) είτε σε ολόκληρο των όγκο (3Δ) του πνευμονικού πεδίου. Τα 3Δ συστήματα υπερτερούν τον 2Δ καθώς καλύπτουν το σύνολο του όγκου των πνευμονικών πεδίων περιορίζονται όμως λόγο της μειωμένης ποιότητας εικόνας (2-4).
Τα συστήματα ποσοτικοποίησης αποτελούνται (συνήθως) από δύο στάδια προ-επεξεργασίας τα οποία προηγούνται του σταδίου ποσοτικοποίησης των παθολογιών. Τα στάδια προ-επεξεργασίας στοχεύουν στην απομόνωση του πνευμονικού παρεγχύματος. Ειδικότερα στο πρώτο στάδιο πραγματοποιείται απομόνωση των πνευμονικών πεδίων ενώ στο δεύτερο στάδιο πραγματοποιείται η αφαίρεση του αγγειακού δένδρου με αποτέλεσμα την απομόνωση του πενυμονικού πεδίου φυσιολογικού η μη. Η επίδραση των δύο βημάτων προ-επεξεργασίας είναι καθοριστική στην ακρίβεια του συστήματος ποσοτικοποίησης όπως έχει διατυπωθεί στην βιβλιογραφία.
Τα συστήματα ποσοτικοποίησης που έχουν προταθεί έως σήμερα υιοθετούν σαν τεχνικές τμηματοποίησης πνευμονικών πεδίων είτε τεχνικές κατωφλίωσης σε συνδυασμό με μορφολογική επεξεργασία (2) είτε συνδυασμό τεχνικών που βασίζονται στην ανάλυση υφής περιοχής (5-8).
Στα πλαίσια τμηματοποίησης των πνευμονικών πεδίων έχει προταθεί μια σειρά αλγορίθμων ικανή να τμηματοποίηση πνευμονικά πεδία χωρίς παρουσία παθολογιών ή με την παρουσία μικρών όγκων (οζιδίων) (9-14) ενώ μόλις πρόσφατα προτάθηκαν τεχνικές τμηματοποίησης οι οποίες στοχεύουν στην τμηματοποίηση πνευμονικών πεδίων με παρουσία διάχυτων ασθενειών του πνεύμονα (3) (15). Στην εικόνα 2 παρουσιάζονται τόσο φυσιολογικά όσο και παθολογικά πνευμονικά πεδία. Στην περίπτωση των παθολογικών πνευμονικών πεδίων είναι φανερό πως η τμηματοποίηση υπό την παρουσία προτύπων διάχυτων νοσημάτων δεν είναι «εύκολη αποστολή» καθώς τα πρότυπα της παθολογίας και ο περιβάλλον ιστός μοιράζονται κοινά απεικονιστικά χαρακτηριστικά. Λεπτομερής περιγραφή των αλγορίθμων τμηματοποίησης θα πραγματοποιηθεί στα επόμενα κεφάλαια.
Στην υπολογιστική τομογραφία το σήμα (προβολές) που καταγράφεται στους ανιχνευτές χαρακτηρίζεται από παρουσία θορύβου, φαινόμενο που κυρίως οφείλεται στην τυχαιότητα απορρόφησης των φωτονίων στους ανιχνευτές. Ο θόρυβος αυτός γενικότερα αναφέρεται ως κβαντικός θόρυβος. O θόρυβος μέσω της διαδικασίας ανακατασκευής εικόνας κληροδοτείται και στη τελική εικόνα. Ο θόρυβος αυτός μπορεί να μειωθεί είτε αυξάνοντας τα στοιχεία λήψης (υψηλότερη δόση), είτε εφαρμόζοντας τεχνικές ανακατασκευής οι οποίες χρησιμοποιούν πυρήνες εξομάλυνσης (smoothing kernel).΄Όμως, λαμβάνοντας υπόψη τη βασική αρχή ακτινοπροστασίας ALARA (As Low As Reasonable Achievable) τα στοιχεία λήψης πρέπει να είναι όσο το δυνατόν χαμηλότερα. Κάνοντας όμως χρήση του πυρήνα εξομάλυνσης μειώνεται η διακριτική ικανότητα εικόνας. Αυτό φανερώνει ότι η μείωση θορύβου δεν είναι ένα τετριμμένο πρόβλημα. Με εικόνες που χαρακτηρίζονται από υψηλό SNR (σήμα προς θόρυβο) μπορεί να επιτευχθεί ακριβής διάγνωση αλλά και να αξιοποιηθούν στα πλαίσια τεχνικών ανάλυσης εικόνας όπως τεχνικές αντιστοίχισης και τμηματοποίησης [1]. Όπως προαναφέραμε τα 3Δ πρωτόκολλα χαρακτηρίζονται από μειωμένη ποιότητα εικόνας λόγω παρουσίας θορύβου σε σχέση με τα 2Δ πρωτόκολλα υψηλής ανάλυσης
Έως τώρα στη βιβλιογραφία έχουν προταθεί πολλές τεχνικές για μείωση θορύβου στην υπολογιστική τομογραφία. Για παράδειγμα έχουν χρησιμοποιηθεί επαναληπτικές τεχνικές ανακατασκευής οι οποίες αποσκοπούν στην μείωση θορύβου, μέσω της βελτιστοποίησης στατιστικών συναρτήσεων [2]-[4]. To βασικό μειονέκτημα αυτών των τεχνικών είναι η υψηλή υπολογιστική πολυπλοκότητα (high computational complexity).
Η εφαρμογή αλγορίθμου μείωσης θορύβου μετά την ανακατασκευή εικόνας (post-processing) αποτελεί πρόκληση κυρίως λόγω του χαρακτήρα του θορύβου στην ανακατασκευασμένη εικόνα. Επιπλέον η κατευθυντικότητα του θορύβου λόγω υψηλής απορρόφησης κατά μήκος συγκεκριμένων κατευθύνσεων καθιστά τη διαφοροποίηση μεταξύ δομών και θορύβου ιδιαίτερα πολύπλοκη. Μια πολύ βασική αρχή στην οποία θα πρέπει να υπακούει κάθε τεχνική μείωσης θορύβου που εφαρμόζεται σε ιατρικές εικόνες είναι ότι η κλινική πληροφορία της εικόνας πρέπει να διατηρείται. Οι πιο πρόσφατες τεχνικές που σχετίζονται με την μείωση θορύβου στις ανακατασκευασμένες εικόνες χρησιμοποιούν τεχνικές οι οποίες αφαιρούν το θόρυβο αλλά ταυτόχρονα διατηρούν τις αιχμές της εικόνας (16). Χαρακτηριστικό ιδιαίτερα χρήσιμο στην περίπτωση των περίπλοκων απεικονιστικών προτύπων τις διάχυτης παθολογίας του πνεύμονα όπως το γραμμικό δικτυωτό πρότυπο τις πνευμονικής ίνωσης το οποίο μπορεί να συνυπάρχει με το πρότυπο της θαμβή υάλου το οποίο δεν περιέχει δομές αλλά εύκολα συγχέεται με το φυσιολογικό πνευμονικό παρέγχυμα παρουσία θορύβου.
Ανοικτό ζήτημα στην βιβλιογραφία αποτελεί η τμηματοποίηση των πνευμονικών πεδίων, ιδιαίτερα στην περίπτωση όπου η παθολογία επηρεάζει τα όρια αυτών. Οι τεχνικές που έχουν προταθεί έως σήμερα εστιάζουν στην εφαρμογή των αλγορίθμων σε δεδομένα τα οποία έχουν προέλθει από τον ίδιο υπολογιστικό τομογράφο με συγκεκριμένο πρωτόκολλο λήψης. Στις μελέτες αυτές δεν έχει γίνει διερεύνηση της επίδρασης του θορύβου στους αλγορίθμους τμηματοποίησης.
Οι αλγόριθμοι μείωσης θορύβου έχουν προταθεί στην βιβλιογραφία έως βήμα προ επεξεργασίας για δεδομένα τα οποία είτε προέρχονται από διαφορετικά κέντρα ή έχουν ληφθεί αξιοποιώντας διαφορετικό πρωτόκολλο.
Στην παρούσα μελέτη πραγματοποιήθηκε μελέτη της επίδρασης των τεχνικών μείωσης θορύβου στις τεχνικές τμηματοποίησης σε δεδομένα υπολογιστικής τομογραφίας θώρακος. Στην μελέτη αξιοποιήθηκαν δεδομένα τα όποια ελήφθησαν με πρωτόκολλο λήψης 3D δεδομένων ενώ στα πνευμονικά πεδία υπήρχαν πρότυπα ενδιάμεσης πνευμονοπάθειας.
Οι τεχνικές τμηματοποίησης η οποίες αξιοποιήθηκαν ήταν οι k-means, Voxel Classification based, thresholding, MRF και η ΜΕΤΕΤ. Η τεχνική k-means είχε μια παράμετρο των αριθμών κλάσεων στην εικόνα η όποια προέκυψε έπειτα από πειραματικό προσδιορισμό (κ=4).
Η τεχνική MRF απαιτούσε τον καθορισμό δυο παραμέτρων, του αριθμού των κλάσεων καθώς και του Β μιας παραμέτρου που καθορίζει την βαρύτητα που παίζει η γειτονία ενός pixel. Στην παρούσα μελέτη χρησιμοποιήθηκε μια σχετικά μεγάλη τιμή προκειμένου να μειωθεί η επίδραση του θορύβου στην τελική τμηματοποίηση. Τέλος η τεχνική ΜΕΤΕΤ περιέχει μια παράμετρο (του αριθμού κλάσεων) η όποια επιλεγεί να είναι κ=4 όπως προτείνεται στην βιβλιογραφία.
Για την αξιολόγηση των αλγορίθμων τμηματοποίησης αξιοποιήθηκε η πλειοψηφία των δεικτών τμηματοποίησης που χρησιμοποιούνται στην βιβλιογραφία. Στην μελέτη αυτή χρησιμοποιήθηκαν όλοι οι δείκτες και όχι αποσπασματικά όπως εφαρμόζονται σε διάφορες δημοσιεύσεις. Το δείγμα αληθείας προέκυψε έπειτα από χειροκίνητη τμηματοποίηση 370 τομών από ακτινολόγο με χρόνια εμπειρίας στην ερμηνεία δεδομένων υπολογιστικής τομογραφίας.
Για την υλοποίηση της εργασίας σχεδιάστηκε και αναπτύχθηκε στο εργαστήριο Ιατρικής Φυσικής του Πανεπιστήμιου Πατρών κατάλληλη γραφική επιφάνεια διεπαφής η οποία επέτρεπε στην ‘φόρτωση’ των δεδομένων, την τμηματοποίηση των πνευμονικών πεδίων, την εφαρμογή των αλγορίθμων μειώσης θορύβου, την χειροκίνητη τμηματοποίηση του υπολογισμού των δεικτών ακρίβειας και τέλος την αποθήκευση όλων των δεδομένων.
Στην βιβλιογραφία έως σήμερα έχουν προταθεί μια σειρά αλγορίθμων τμηματοποίησης πνευμονικών πεδίων οι οποίες στοχεύουν είτε στην τμηματοποίηση υγιών πνευμονικών πεδίων είτε παθολογικών πνευμονικών πεδίων. Ωστόσο όλοι οι αλγόριθμοι εφαρμόζονται σε δεδομένα τα οποία προέρχονται από υπολογιστικούς τομογράφους με συγκεκριμένο πρωτόκολλο χωρίς να γίνεται περαιτέρω μελέτη συμπεριφοράς των αλγορίθμων σε δεδομένα από διαφορετικό πρωτόκολλο λήψης (διαφορετικό επίπεδο θορύβου).
Βάση των αποτελεσμάτων τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες η τεχνική ΜΕΤΕΤ έδωσε τα καλύτερα αποτέλεσμα ως προς όλους τους δείκτες εκτός του δείκτη TPF όπου εκεί η μέθοδος k-means έδωσε το καλύτερο αποτέλεσμα. Το γεγονός αυτό μπορούμε να το αποδώσουμε επειδή η τεχνική βασίζεται στην ένταση των επιπέδων του γκρι τμηματοποιεί όλα τα τμήματα με φυσιολογική εμφάνιση άρα συμπίπτει καλύτερα με την τμηματοποίηση του ακτινολόγου χωρίς να εμφανίζει υπερ-τμηματοποίηση. Ο δείκτης TPF αποτελεί το κοινό τμήμα των δυο τμηματοποιήσεων. H στατιστική ανάλυση βάσης του δείκτη ρ που προκύπτει από το student t test ανέδειξε ότι η συμπεριφορά της ΜΕΤΕΤ δεν εμφανίζει στατιστικές σημαντικές διαφορές στις αρχικές όσο και στις επεξεργασμένες εικόνες. Τέλος οι τεχνικές τμηματοποίησης MRF, Thresholding, και Voxel Classification based εμφανίζουν την ίδια συμπεριφορά τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες. / Accurate and automated Lung Field (LF) segmentation in volumetric computed tomography protocols is highly challenged by the presence of pathologies affecting lung borders, also affecting the performance of computer-aided diagnosis (CAD) schemes. In this work, 4 three-dimensional LF segmentation algorithms are evaluated. The 4 algorithms considered are:
• k-means based unsupervised segmentation.
• Thresholding based segmentation (based on minimum error thresholding proposed by Kittler et al.).
• Unsupervised segmentation followed by supervised border refinement.
• Markov Random Field based unsupervised segmentation.
Further more the algorithms are applied with or without denoising of data as a pre-processing step. Denoising techniques have been proposed to deal with the use of multi-center data i.e. datasets acquired with equipment from different vendors or different protocols.
A home developed graphical user interface was used to apply the segmentation algorithms, perform denoising and finally allow for ground truth derivation.
Seven quantitative indexes were used including overlap, Dice similarity coefficient, true and false positive fraction, mean distance, root mean square distance and finally distance maximum.
Based on the analysis performed, unsupervised segmentation followed by supervised border refinement outperformed all the other methods exploited with respect to all quantitative measures considered except false positive fraction. Additionally the technique was robust against noise levels (performance with or without denoising did not present statistically significant difference). K-means unsupervised segmentation performed better from the other methods with respect to false positive fraction. This can be attributed to under-segmentation occurred since in this study k-means algorithm was based only on gray level information.
|
3 |
Αυτόματη αναγνώριση CAPTCHAs με χρήση τεχνικών ΨΕΕΓκολώνη, Σταυρούλα 06 March 2015 (has links)
Γνωρίζουμε πως στην εποχή που διανύουμε το Διαδίκτυο προσφέρει μια παγκόσμια επικοινωνία δημιουργώντας ταυτόχρονα και μια παγκόσμια οικονομία. Η παροχή δωρεάν υπηρεσιών από αρκετές ιστοσελίδες οδήγησε στη συστηματική κατάχρησή τους με ευνόητο σκοπό το κέρδος. Ως αντίσταση σε αυτή την κακόβουλη νέα πηγή εσόδων για κάποιους, προβάλλονται τα CAPTCHAs. Στόχος τους είναι να εξακριβώσουν αν μία αίτηση σε μία υπηρεσία γίνεται από έναν χρήστη ή από ένα αυτοματοποιημένο πρόγραμμα. Κάθε ιστοσελίδα που δίνει την δυνατότητα στον χρήστη να δημιουργήσει δικό του περιεχόμενο ή να χρησιμοποιήσει τις υπηρεσίες της οφείλει πλέον να εμπεριέχει CAPTCHAs.
Η παρούσα ειδική επιστημονική εργασία έχει ως στόχο τη μελέτη και την ερμηνεία όλων των διαφορετικών ειδών CAPTCHAs που έχουν δημιουργηθεί ώστε να είναι ανθεκτικά στις κακόβουλες προσπάθειες λύσης και εξετάζεται το κατά πόσο αυτό είναι εφικτό. Γίνεται μια προσπάθεια αρχικά να κατανοήσουμε ακριβώς τι είναι τα CAPTCHAs και γιατί η χρήση τους καθίσταται αναγκαία. Αυτό που επίσης θα διερευνηθεί, μέσα από συγκεκριμένες δημοσιεύσεις που έχουν πραγματοποιηθεί, είναι ποιες αρχές πρέπει να διέπουν το σχεδιασμό ενός CAPTCHA. Προκειμένου να συμβεί αυτό θα ανατρέξουμε σε διαφορετικές προσεγγίσεις και αφού τις παρουσιάσουμε γίνεται μια κριτική ανάλυση των μεθόδων της κάθε ερευνητικής ομάδας. / It is fact that in the modern world the Internet offers a global communication while creating a global economy. The provision of free services from several websites has led to this systematic abuse solely for the purpose of making a profit. In order to stem the tide of this malicious new source of income for some, “CAPTCHAs” are employed. Their goal is to determine whether a request to a service is made by a user or by an automated program. Every website that enables the user to create their own content or use its services must now deploy CAPTCHAs.
This current special scientific work aims at the study and interpretation of all different kinds of CAPTCHAs created so that they are resistant to malicious efforts of solutions and examines whether this is possible. An attempt is made initially to understand exactly what the “CAPTCHAs” are and why their use is necessary. What will also be explored through specific publications made, is what principles should govern the design of a CAPTCHA. In order to do this we will go back to different approaches and after presenting them, a critical analysis of the methods of each research group will be conducted.
|
4 |
Τμηματοποίηση εικόνων υφής με χρήση πολυφασματικής ανάλυσης και ελάττωσης διαστάσεωνΘεοδωρακόπουλος, Ηλίας 16 June 2010 (has links)
Τμηματοποίηση υφής ονομάζεται η διαδικασία του διαμερισμού μίας εικόνας σε πολλαπλά τμήματα-περιοχές, με κριτήριο την υφή κάθε περιοχής. Η διαδικασία αυτή βρίσκει πολλές εφαρμογές στους τομείς της υπολογιστικής όρασης, της ανάκτησης εικόνων, της ρομποτικής, της ανάλυσης δορυφορικών εικόνων κλπ. Αντικείμενο της παρούσης εργασίας είναι να διερευνηθεί η ικανότητα των αλγορίθμων μη γραμμικής ελάττωσης διάστασης, και ιδιαίτερα του αλγορίθμου Laplacian Eigenmaps, να παράγει μία αποδοτική αναπαράσταση των δεδομένων που προέρχονται από πολυφασματική ανάλυση εικόνων με χρήση φίλτρων Gabor, για την επίλυση του προβλήματος της τμηματοποίησης εικόνων υφής. Για το σκοπό αυτό προτείνεται μία νέα μέθοδος επιβλεπόμενης τμηματοποίησης υφής, που αξιοποιεί μία χαμηλής διάστασης αναπαράσταση των χαρακτηριστικών διανυσμάτων, και γνωστούς αλγόριθμους ομαδοποίησης δεδομένων όπως οι Fuzzy C-means και K-means, για την παραγωγή της τελικής τμηματοποίησης. Η αποτελεσματικότητα της μεθόδου συγκρίνεται με παρόμοιες μεθόδους που έχουν προταθεί στη βιβλιογραφία, και χρησιμοποιούν την αρχική , υψηλών διαστάσεων, αναπαράσταση των χαρακτηριστικών διανυσμάτων. Τα πειράματα διενεργήθηκαν χρησιμοποιώντας την βάση εικόνων υφής Brodatz. Κατά το στάδιο αξιολόγησης της μεθόδου, χρησιμοποιήθηκε ο δείκτης Rand index σαν μέτρο ομοιότητας ανάμεσα σε κάθε παραγόμενη τμηματοποίηση και την αντίστοιχη ground-truth τμηματοποίηση. / Texture segmentation is the process of partitioning an image into multiple segments (regions) based on their texture, with many applications in the area of computer vision, image retrieval, robotics, satellite imagery etc. The objective of this thesis is to investigate the ability of non-linear dimensionality reduction algorithms, and especially of LE algorithm, to produce an efficient representation for data derived from multi-spectral image analysis using Gabor filters, in solving the texture segmentation problem. For this purpose, we introduce a new supervised texture segmentation algorithm, which exploits a low-dimensional representation of feature vectors and well known clustering methods, such as Fuzzy C-means and K-means, to produce the final segmentation. The effectiveness of this method was compared to that of similar methods proposed in the literature, which use the initial high-dimensional representation of feature vectors. Experiments were performed on Brodatz texture database. During evaluation stage, Rand index has been used as a similarity measure between each segmentation and the corresponding ground-truth segmentation.
|
5 |
DNA microarray image processing based on advanced pattern recognition techniques / Επεξεργασία εικόνων μικροσυστοιχιών DNA με χρήση σύγχρονων μεθόδων ταξινόμησης προτύπωνΑθανασιάδης, Εμμανουήλ 26 August 2010 (has links)
In the present thesis, a novel gridding technique, as well as, two new segmentation methods applied to complementary DNA (cDNA) microarray images is proposed. More precise, a new gridding method based on continuous wavelet transform (CWT) was performed. Line profiles of x and y axis were calculated, resulting to 2 different signals. These signals were independently processed by means of CWT at 15 different levels, using daubechies 4 mother wavelet. A summation, point by point, was performed on the processed signals, in order to suppress noise and enhance spot’s differences. Additionally, a wavelet based hard thresholding filter was applied to each signal for the task of alleviating the noise of the signals. 10 real microarray images were used in order to visually assess the performance of our gridding method. Each microarray image contained 4 sub-arrays, each sub-array 40x40 spots, thus, 6400 spots totally. According to our results, the accuracy of our algorithm was 98% in all 10 images and in all spots. Additionally, processing time was less than 3 sec on a 1024×1024×16 microarray image, rendering the method a promising technique for an efficient and fully automatic gridding processing. Following the gridding process, the Gaussian Mixture Model (GMM) and the Fuzzy GMM algorithms were applied to each cell, with the purpose of discriminating foreground from background. In addition, markov random field (MRF), as well as, a proposed wavelet based MRF model (SMRF) were implemented. The segmentation abilities of all the algorithms were evaluated by means of the segmentation matching factor (SMF), the Coefficient of Determination (r2), and the concordance correlation (pc). Indirect accuracy performances were also tested on the experimental images by means of the Mean Absolute Error (MAE) and the Coefficient of Variation (CV). In the latter case, SPOT and SCANALYZE software results were also tested. In the former case, SMRF attained the best SMF, r2, and pc (92.66%, 0.923, and 0.88, respectively) scores, whereas, in the latter case scored MAE and CV, 497 and 0.88, respectively. The results and support the performance superiority of the SMRF algorithm in segmenting cDNA images. / Τα τελευταία χρόνια παρατηρείται ραγδαία ανάπτυξη της τεχνολογίας των μικροσυστοιχιών (microarrays) με αποτέλεσμα την ποιοτική και ποσοτική μέτρηση της έκφρασης χιλιάδων γονιδίων ταυτοχρόνως σ’ ένα και μόνο πείραμα. Εικόνες μικροσυστοιχιών, στις οποίες έχει λάβει χώρα υβριδοποίηση δείγματος DNA, χρησιμοποιούνται ευρέως για την εξαγωγή αξιόπιστων αποτελεσμάτων γονιδιακής έκφρασης και προσδιορισμό των μηχανισμών που ελέγχουν την ενεργοποίηση των γονιδίων σ’ έναν οργανισμό. Συνεπώς, η δημιουργία κατάλληλων υπολογιστικών τεχνικών για την επεξεργασία των εικόνων αυτών συντελεί καθοριστικά στην εξαγωγή ορθών και έγκυρων αποτελεσμάτων. Στη παρούσα Διδακτορική Διατριβή αναπτύχθηκε στο πρώτο στάδια μια νέα πλήρως αυτοματοποιημένη τεχνική διευθυνσιοδότησης και στο δεύτερο στάδιο δύο νέες τεχνικές τμηματοποίησης.
Πιο συγκεκριμένα, αναπτύχθηκε μια νέα μέθοδος διευθυνσιοδότησης η οποία βασίζεται στο συνεχή μετασχηματισμό κυματιδίου (Continuous Wavelet Transform CWT) για την αυτόματη εύρεση των κέντρων των κηλίδων, καθώς και των ορίων μεταξύ δύο διαδοχικών κηλίδων.
Στη συνέχεια αναπτύχθηκαν δύο νέες μέθοδοι κατάτμησης της εικόνας για τον διαχωρισμό των κηλίδων από το φόντο, οι οποίες βασίζονται στη τεχνική μίξης ασαφών μοντέλων Γκάους (Fuzzy Gaussian Mixture Models FGMM) καθώς και στη τεχνική συνδυασμού τυχαίων πεδίων Μαρκόφ (Markov Random Field MRF) και μετασχηματισμού κυματιδίου (Wavelet Transform WT) (SMRF). Με σκοπό την αξιολόγηση (validation) των προτεινόμενων μεθόδων της παρούσας Διδακτορικής Διατριβής, δημιουργήθηκαν και χρησιμοποιήθηκαν τόσο πραγματικές εικόνες μικροσυστοιχιών, καθώς και απομιμούμενες (simulated) σύμφωνα με μεθοδολογία η οποία προτείνεται απο τη διεθνή βιβλιογραφία.
Όσον αφορά την διευθυνσιοδότηση, χρησιμοποιώντας οπτική ανασκόπηση για κάθε κηλίδα χωριστά σε όλες τις πραγματικές εικόνες, δημιουργήθηκαν δύο κατηγορίες, ανάλογα με το αν οι γραμμές του πλέγματος εφάπτονταν πάνω σε κάποια κηλίδα ή όχι. Η προτεινόμενη μεθοδολογία ήταν ακριβής σε ποσοστό 98% στον ακριβή εντοπισμό των κηλίδων σε όλες τις εικόνες.
Σύγκριση ανάμεσα στην απόδοση των GMM, FGMM, MRF και SMRF στις απομιμούμενες εικόνες σε διαφορετικά επίπεδα θορύβου πραγματοποιήθηκε και τα αποτελέσματα σε όλα τα μετρικά, segmentation matching factor (SMF), coefficient of variation ( ), και coefficient of determination ( ), μας έδειξαν ότι η μέθοδος SMRF είναι πιο αξιόπιστη στο να μπορέσει να αναδείξει την πραγματική περιφέρεια της κηλίδας, τόσο σε εικόνες με μεγάλο λόγο σήματος προς θόρυβο, όσο και σε μικρό λόγο. Ενδεικτικά αποτελέσματα σε 1 db SNR για την περίπτωση του SMRF είναι SMF = 92.66, =0.923, και = 0.88, ακολουθούμενο από το MRF ( SMF = 92.15, =0.91, και = 0.85), FGMM ( SMF = 91.07, =0.92, και = 0.86)και GMM (SMF = 90.73, =0.89, και = 0.83). Στη συνέχεια πάρθηκαν αποτελέσματα τα οποία προέκυψαν από τη χρήση πραγματικών εικόνων μικροσυστοιχιών. Και σε αυτή τη περίπτωση, αναδείχθηκε η υπεροχή του WMRF, έναντι των άλλων αλγορίθμων ταξινόμησης μέση τιμή MAE = 497 και CV = 0.88. Τέλος, θα πρέπει να τονιστεί ότι τα παραπάνω μετρικά υπολογίστηκαν και σε αποτελέσματα από δύο ευρέως χρησιμοποιούμενα πακέτα επεξεργασίας εικόνων μικροσυστοιχιών, τα οποία χρησιμοποιούνται και είναι διαθέσιμα. Πιο συγκεκριμένα, χρησιμοποιήθηκαν το SCANALYSE και το SPOT, τα οποία χρησιμοποιούν τις τεχνικές τμηματοποίησης Fixed Circle και Seeded Region Growing, αντίστοιχα. Στη περίπτωση αυτή η τεχνική SMRF κατάφερε να υπολογίσει καλύτερα αποτελέσματα από τα δύο αυτά πακέτα. Πιο συγκεκριμένα η τεχνική GMM πέτυχε MAE = 1470 και CV = 1.29, η τεχνική FGMM πέτυχε MAE = 1430 και CV = 1.21, η τεχνική MRF πέτυχε MAE = 1215 και CV = 1.15, η τεχνική WMRF πέτυχε MAE = 497 και CV = 0.88, η τεχνική FC του λογισμικού πακέτου SCANALYZE πέτυχε MAE = 503 και CV = 0.90, και τέλος η τεχνική SRG του λογισμικού πακέτου SPOT πέτυχε MAE = 1180 και CV = 0.93.
|
6 |
Optimization of cDNA microarray image analysis methods / Βελτιστοποίηση της επεξεργασίας εικόνας μικροσυστοιχιών DNAΔασκαλάκης, Αντώνιος 03 May 2010 (has links)
The expression of genetic information, in all organisms, might be characterized as in a constant state of flux with only a fraction of the gene within a genome being expressed at any given time. The genes’ expression pattern reflects the response of cells to stimuli that control growth, development and signal environmental changes. Understanding genes’ expression at the level of transcription and/or other stages of gene regulation at the mRNA level (half life of mRNA, RNA production from primary transcript) might reveal insights into the genes expression mechanisms that control these changes.
With the DNA microarray technology researchers are now able to determine, in a single experiment, the gene expression profiles of hundreds to tens of thousands of genes in tissue, tumors, cells or biological fluids. Accordingly, and since the patterns of gene expression are strongly functionally correlated, microarrays might provide unprecedented information both on basic research (e.g. expression profiles of different tissues) and on applied research (e.g. human diseases, drug and hormone action etc).
While the simultaneous measurement of thousands of gene expression levels potentially serves as source of profound knowledge, genes quantification (i.e. extraction of the genes expression levels) is confounded by various types of noise originating both from the microarray experimental procedure (e.g. sample preparation) and the probabilistic characteristics of the microarray detection process (e.g. scanning errors). The “noisy” nature of the measured gene expression levels obscures some of the important characteristics of the biological processes of interest. The latter, as a direct effect, renders the extraction of biological meaningful conclusions through microarray experiments difficult and affects the accuracy of the biological inference. Thus, as a major challenge in DNA microarray analysis, and especially for the accurate extraction of genes expression levels, might be considered the effective separation of “true” gene expression values from noise.
Noise reduction is an essential process, which has to be incorporated into the microarray image analysis pipeline in order to minimize the “errors” that propagate throughout the microarray analysis pipeline and, consequently, affect the extracted gene expression levels. A possible solution, as proposed in previous studies, for addressing microarray image noise is image enhancement. Results of these studies have indicated a superior quality of the enhanced images, without however examining whether enhancement leads to more accurate spot segmentation or reduces the variability of the extracted gene expression levels.
As foresaid, noise also complicates the extraction of meaningful biological conclusions. While more advanced methods have been introduced [28-32] that attempt to prevent the noisy set of genes from being grouped, there is a lack of consensus among experts on the selection of a single method for determining meaningful clusters of genes. The latter, directly affects the biological inference, since different number of clusters are produced when different clustering techniques or either different parameters in the clustering algorithms are utilized.
Thus, it turns up that it is not only important to assess the performance of each analysis stage independently (i.e. whether the techniques employed in the microarray analysis pipeline provide accurate extracted gene expression levels or the clustering techniques group biologically related genes) but it is also necessary to ensure an acceptable performance of all steps, as a whole, in terms of biologically meaningful information.
This thesis has been carried out towards the development of a complete microarray image processing and analysis framework in order to improve the extraction and, consequently, the quantification of gene expression levels on spotted complementary DNA (cDNA) microarray images. The aims of the present thesis are: a) to model and address the effects of cDNA microarray image noise in such a way that it will increase the accuracy of the extracted gene expression levels, b) to investigate the impact of noise and facilitate genes expression data analysis in order to allow biologists to develop an integrated understanding of the process being studied, c) to introduce a semi-supervised biologically informed criterion for the detection of meaningful biological clusters of genes that answer specific biological questions, d) to investigate the performance and the impact of various state-of-art and novel cDNA microarray image segmentation techniques in the quantification of genes expression levels
For exploring all of these aspects, a complete and robust framework of microarray image processing and analysis techniques was designed, built and implemented. The framework incorporated in the microarray analysis pipeline a novel combination of image processing and analysis techniques originating from the comprehensive quantitative investigation of the impact of noise on spot segmentation, intensity extraction and data mining. Additionally, novel formulations of known image segmentation techniques have been introduced, implemented and evaluated in the task of microarray image segmentation. The usefulness of the proposed methods has been validated experimentally on both simulated and real cDNA microarray images. / Η έκφραση της γενετικής πληροφορίας, σε όλους τους οργανισμούς, χαρακτηρίζεται από μια σταθερή κατάσταση «ροής» στην οποία όμως μόνο ένα μέρος του γονιδίου μέσα στο γονιδίωμα (genome) εκφράζεται ανά χρονική στιγμή. Το γονιδιακό μοτίβο έκφρασης (gene expression pattern or gene expression profile) θα μπορούσαμε να πούμε ότι αντανακλά την αντίδραση των κυττάρων στα διάφορα εξωτερικά ερεθίσματα. Για να μπορέσουν να απαντηθούν ερωτήματα σχετικά με τους μηχανισμούς που επηρεάζουν και μεταβάλλουν τη γονιδιακή έκφραση ανάλογα με το εξωτερικό ερέθισμα είναι απαραίτητη η μελέτη της γονιδιακής έκφρασης σε μεταγραφικό επίπεδο (transcription level) ή/και άλλα στάδια (παράγοντες) που ρυθμίζουν τη γονιδιακή έκφραση (gene regulation) σε επίπεδο mRNA.
Με τη χρήση της τεχνολογίας των μικροσυστοιχιών, οι ερευνητές έχουν πλέον τη δυνατότητα να μελετήσουν ταυτόχρονα την γονιδιακή έκφραση δεκάδων ή και εκατοντάδων χιλιάδων γονιδίων σε ιστούς, κύτταρα όγκους κλπ με τη χρήση ενός και μόνο πειράματος. Κατά συνέπεια, και από τη στιγμή που τα γονιδιακά μοτίβα έκφρασης συσχετίζονται έντονα λειτουργικά (functionally correlated), η τεχνολογία των μικροσυστοιχιών παρέχει ανεκτίμητης αξίας πληροφορίες που μπορούν να δώσουν ώθηση τόσο στην ανάπτυξη της βασικής έρευνας π.χ. μελέτη των γονιδιακών προφίλ έκφρασης διαφορετικών ιστών όσο και στην ανάπτυξη της εφαρμοσμένης έρευνας π.χ. μελέτη ασθενειών, δράση φαρμάκων και ορμονών κλπ.
Παρά τη δυνατότητα που παρέχει η τεχνολογία των μικροσυστοιχιών για την ταυτόχρονη μέτρηση των επιπέδων έκφρασης χιλιάδων γονιδίων, η ποσοτικοποίηση της γονιδιακής έκφρασης (δηλ. η εξαγωγή των επιπέδων έκφρασης των γονιδίων), επηρεάζεται από τους διάφορους τύπους θορύβου που υπεισέρχονται τόσο κατά την πειραματική διαδικασία κατασκευής των μικροσυστοιχιών (π.χ. προετοιμασία δειγμάτων) όσο και από τα πιθανοκρατικά χαρακτηριστικά που διέπουν τη διαδικασία ανίχνευσης (microarray scanning procedure) των μικροσυστοιχιών (π.χ. λάθη ανίχνευσης). Η «θορυβώδης» φύση των γονιδίων και κατά συνέπεια των μετρούμενων γονιδιακών εκφράσεων «κρύβει» (obscure) μερικά από τα πιο σημαντικά χαρακτηριστικά των βιολογικών διαδικασιών ενδιαφέροντος και καθιστά δύσκολη την εξαγωγή χρήσιμων βιολογικών συμπερασμάτων.
Από τα παραπάνω διαφαίνεται ότι η μείωση του θορύβου είναι μια πολύ σημαντική διαδικασία η οποία θα πρέπει να ενσωματωθεί στην αλγοριθμική μεθοδολογία που μέχρι στιγμής χρησιμοποιείται για την εξαγωγή των γονιδιακών εκφράσεων από τις εικόνες μικροσυστοιχιών. Με αυτό τον τρόπο θα ελαχιστοποιηθούν τα πιθανά «λάθη» τα οποία μεταφέρονται (propagate) κατά τη διαδικασία εξαγωγής των εντάσεων (μέσω της χρησιμοποιούμενης αλγοριθμικής μεθοδολογίας) και τελικά επηρεάζουν την «ακριβή» εξαγωγή των γονιδιακών εκφράσεων.
‘Ως πιθανή λύση για την αντιμετώπιση του θορύβου στις εικόνες μικροσυστοιχιών, έχει προταθεί στη διεθνή βιβλιογραφία η χρήση τεχνικών αναβάθμισης εικόνας. Τα αποτελέσματα αυτών των επιστημονικών εργασιών συμπεραίνουν ότι με τη χρήση τεχνικών αναβάθμισης η ποιότητα των επεξεργασμένων εικόνων είναι σαφώς καλύτερη. Ωστόσο, καμία από αυτές τις εργασίες δεν μελετάει εάν οι τεχνικές αναβάθμισης οδηγούν στον ακριβέστερο προσδιορισμό των παρυφών των κουκίδων (spot) από τις οποίες εξάγονται οι γονιδιακές εκφράσεις ή εάν βοηθάνε στη μείωση της μεταβλητότητας (variability) των εξαγόμενων γονιδιακών εκφράσεων.
Επιπρόσθετα, όπως έχει ήδη προαναφερθεί, ο θόρυβος παρεμποδίζει την εξαγωγή χρήσιμων βιολογικών συμπερασμάτων. Παρά το μεγάλο πλήθος εξελιγμένων μεθόδων που έχουν προταθεί στη διεθνή βιβλιογραφία για την αποτροπή της ομαδοποίησης γονιδίων που χαρακτηρίζονται ως «θορυβώδη», δεν έχει καθοριστεί ακόμα (από τους ειδικούς) μια ενιαία μέθοδος που να βρίσκει και να ομαδοποιεί γονίδια τα οποία θα παρέχουν βιολογικά χρήσιμες πληροφορίες. Αποτέλεσμα αυτής της «ασυμφωνίας» μεταξύ των ειδικών αποτελεί η εξαγωγή διαφορετικών βιολογικών συμπερασμάτων ανάλογα α) με τον αριθμό των δημιουργούμενων γονιδιακών ομάδων (που εξαρτάται άμεσα από τη διαφορετική μέθοδο ομαδοποίησης (clustering)) και β) με τις διαφοροποιήσεις που μπορεί να έχουμε στις παραμέτρους των διαφόρων μεθόδων ομαδοποίησης.
H παρούσα διατριβή στοχεύει στη δημιουργία ενός ολοκληρωμένου πλαισίου για την επεξεργασία και ανάλυση εικόνων μικροσυστοιχιών με σκοπό την βελτιστοποίηση της εξαγωγής και κατά συνέπεια της ποσοτικοποίησης των γονιδιακών εντάσεων από εικόνες μικροσυστοιχιών κουκίδων (spotted cDNA microarray images). Οι στόχοι της παρούσας διατριβής συνοψίζονται ως εξής: α) μοντελοποίηση και περιορισμός των επιδράσεων του θορύβου σε εικόνες μικροσυστοιχιών κουκίδων κατά τέτοιο τρόπο ώστε να αυξηθεί η ακρίβεια των εξαγόμενων γονιδιακών εκφράσεων, β) μελέτη της επίδρασης του θορύβου και βελτιστοποίηση των μεθόδων ανάλυσης των γονιδιακών εκφράσεων με σκοπό τη διευκόλυνση των βιολόγων στην εξαγωγής βιολογικών συμπερασμάτων και την καλύτερη κατανόηση της βιολογικής διεργασίας που μελετάται, γ) εισαγωγή ενός ημιεποπτευόμενου (semi-supervised) κριτηρίου που στηριζόμενο σε βιολογικές πληροφορίες θα αποσκοπεί στην ανεύρεση βιολογικά σημαντικών ομάδων γονιδίων τα οποία ταυτόχρονα θα απαντούν σε συγκεκριμένα βιολογικά ερωτήματα ,δ) μελέτη της επίδρασης και της απόδοσης διαφόρων τεχνικών κατάτμησης εικόνων μικροσυστοιχιών κουκίδων, τόσο ανωτάτου επιπέδου (state-of-art) όσο και νέων, στην ποσοτικοποίηση γονιδιακών εκφράσεων.
Για την πραγματοποίηση των παραπάνω στόχων σχεδιάστηκε και κατασκευάστηκε μια πλήρως δομημένη μεθοδολογία (a complete and robust framework) που περιελάμβανε αλγοριθμους επεξεργασίας και ανάλυσης εικόνας κουκίδων μικροσυστοιχιών Η προτεινόμενη μεθοδολογία ενσωμάτωσε στην ήδη υπάρχουσα αλγοριθμική μεθοδολογία (microarray analysis pipeline) έναν πρωτότυπο συνδυασμό τεχνικών επεξεργασίας και ανάλυσης εικόνας βασισμένο στην εις βάθος ποσοτική έρευνα της επίδρασης του θορύβου στην κατάτμηση κουκίδων (spot segmentation), στην εξαγωγή εντάσεων και στην εξόρυξη δεδομένων (data mining). Επιπρόσθετα, κατά την παρούσα διατριβή προτάθηκαν, κατασκευάστηκαν και αξιολογήθηκαν νέες τεχνικές κατάτμησης εικόνας από μικροσυστοιχές κουκίδων. Η χρησιμότητα των προτεινόμενων μεθοδολογιών αξιολογήθηκε τόσο σε εικονικές (simulated) όσο και σε πραγματικές εικόνες μικροσυστοιχιών κουκίδων.
|
7 |
Image analysis methods for diagnosis of diffuse lung disease in multi-detector computed tomography / Μέθοδοι ανάλυσης εικόνας στη διάγνωση διάχυτων ασθενειών του πνεύμονα στην πολυτομική υπολογιστική τομογραφίαΚορφιάτης, Παναγιώτης 21 October 2011 (has links)
Image analysis techniques have been broadly used in computer aided diagnosis
tasks in recent years. Computer-aided image analysis is a popular tool in medical
imaging research and practice, especially due to the development of different imag-
ing modalities and due to the increased volume of image data. Image segmenta-
tion, a process that aims at identifying and separating regions of an image, is crucial
in many medical applications, such as in identification (delineation) of anatomical
structures and pathological regions, providing objective quantitative assessment
and monitoring of the onset and progression of the disease.
Multidetector CT (MDCT) allows acquisition of volumetric datasets with almost
isotropic voxels, enabling visualization, characterization and quantification of the
entire extent of lung anatomy, thus lending itself to characterization of Interstitial
Lung Diseases (ILDs), often characterized by non uniform (diffuse) distribution in
the lung volume. Interpretation of ILDs is characterized by high inter and intra-
observer variability, due to lack of standardized criteria in assessing its complex
and variable morphological appearance, further complicated by the increased vol-
ume of image data being reviewed.
Computer-Aided Diagnosis (CAD) schemes that automatically identify and char-
acterize radiologic patterns of ILDs in CT images have been proposed to improve
diagnosis and follow-up management decisions. These systems typically consist of
two stages. The first stage is the segmentation of left and right Lung Parenchyma
(LP) region, resulting from lung field segmentation and vessel tree removal, while
the second stage performs classification of LP into normal and abnormal tissue
types. The segmentation of Lung Field (LF) and vessel tree structures are crucial
preprocessing steps for the subsequent characterization and quantification of ILD
patterns.
Systems proposed for identification and quantification of ILDpatterns havemainly
exploited 2D texture extraction techniques, while only a few have investigated 3D texture features. Specifically, texture feature extraction methods that have been
exploited towards lung parenchyma analysis are: first order statistics, grey level
co-occurrence matrices, gray level run length matrices, histogram signatures and
fractals. The identification and quantification of lung parenchyma into normal and
abnormal tissue type has been achieved by means of supervised classification tech-
niques (e.g. Artificial Neural Networks, ANN, Bayesian classifier, linear discrimi-
nant analysis (LDA) and k-Nearest Neighboor (k-NN).
However, the previously proposed identification and quantification schemes in-
corporate preprocessing segmentation algorithms, effective on normal patient data.
In addition the effect of the preprocessing stages (i.e. segmentation of LF and ves-
sel tree structures) on the performance of ILD characterization and quantification
schemes has not been investigated. Finally, the complex interaction of such automated schemes with the radiologists remains an open issue. The current thesis
deals with identification and quantification of ILD in lung CT. The thesis aims
at optimizing all major steps encountered in a computer aided ILD quantification
scheme, by exploiting 3D texture feature extraction techniques and supervised and
unsupervised pattern classification schemes to derive 3D disease segments.
The specific objectives of the current thesis are focused on:
• Development of LF segmentation algorithms adapted to pathology.
• Development of vessel tree segmentation adapted to presence of pathology.
• Development of ILD identification and quantification algorithms.
• Investigation of the interaction of an ILD identification and quantification
scheme with the radiologist, by an interactive image editing tool. / Η Διάμεση Νόσος (ΔΝ) του πνεύμονα αποτελεί το 15% των παθήσεων του πνεύμονα που εμφανίζονται στην κλινική πρακτική. Η ΔΝ επηρεάζει κυρίως το πνευμονικό παρέγχυμα και εμφανίζεται στις εικόνες Υπολογιστικής Τομογραφίας (ΥΤ) του πνεύμονα με την μορφή διάχυτων περιοχών χαρακτηριστικών προτύπων υφής που παρεκκλίνουν από αυτό του φυσιολογικού παρεγχύματος. Η Πολυτομική Υπολογιστική Τομογραφία (ΠΥΤ) επιτρέπει την απόκτηση τρισδιάστατων απεικονίσεων με σημαντική μείωση του χρόνου λήψης και αποτελεί την απεικονιστική τεχνική επιλογής για την ποσοτικοποίηση και τη διάγνωση της ΔΝ. Η διάγνωση της ΔΝ χαρακτηρίζεται από μειωμένη διαγνωστική ακρίβεια χαρακτηρισμού και ακρίβεια ποσοτικοποίησης έκτασης ακόμα και για τον έμπειρο ακτινολόγο, αλλά και από χαμηλή επαναληψιμότητα. Η δυσκολία διάγνωσης οφείλεται στη μειωμένη ικανότητα του ανθρώπινου παράγοντα ως προς το καθορισμό έκτασης των προτύπων υφής λόγω ομοιότητας ακτινολογικής εμφάνισης τους σε συνδυασμό με το φόρτο εργασίας του ακτινολόγου και τον αυξημένο όγκο δεδομένων της ΠΥΤ. Αυτοματοποιημένα συστήματα ανάλυσης εικόνας μπορούν να αντιμετωπίσουν τα παραπάνω προβλήματα παρέχοντας σημαντική υποβοήθηση στο έργο της διάγνωσης και παρακολούθησης της νόσου.
Η ανάπτυξη αυτοματοποιημένων συστημάτων ανάλυσης εικόνας για υποβοήθηση διάγνωσης στην ΥΤ του πνεύμονα έχει αποτελέσει θέμα εκτεταμένης έρευνας την τελευταία δεκαετία με ένα μικρό τμήμα της να επικεντρώνεται στο χαρακτηρισμό και ποσοτικοποίηση της έκτασης της ΔΝ. Σημαντικά στάδια προεπεξεργασίας των συστημάτων αυτών αποτελούν οι τμηματοποίησεις των Πνευμονικών Πεδίων (ΠΠ) και του αγγειακού δένδρου για τον καθορισμό του προς ανάλυση όγκου του πνευμονικού παρεγχύματος.
Τα έως σήμερα προταθέντα συστήματα αυτόματης ανίχνευσης και ποσοτικοποίησης της έκτασης της ΔΝ αξιοποιούν κυρίως μεθόδους ανάλυσης δισδιάστατης (2Δ) υφής εικόνας, ενώ μόνο δύο μελέτες έως σήμερα έχουν αξιοποιήσει ανάλυση 3Δ υφής. Συγκεκριμένα, μέθοδοι ανάλυσης υφής εικόνας που έχουν αξιοποιηθεί είναι: στατιστική 1ης τάξης (ιστόγραμμα), μήτρες συνεμφάνισης αποχρώσεων του γκρι (Grey level Co-occurrence Matrices), μήτρες μήκους διαδρομής απόχρωσης του γκρι (Gray Level Run Length Matrices), υπογραφές ιστογράμματος και Fractals. Ο χαρακτηρισμός και η ποσοτικοποίηση περιοχών του πνευμονικού παρεγχύματος που αντιστοιχούν σε φυσιολογικό παρέγχυμα και υποκατηγορίες παθολογίας υλοποιείται με μεθόδους επιβλεπόμενης ταξινόμησης προτύπων όπως: τεχνητά νευρωνικά δίκτυα (Artificial Neural Networks, ΑΝΝ), Bayesian ταξινομητής, ανάλυση γραμμικού διαχωρισμού ( Linear Discriminant Analysis, LDΑ) και ταξινομητής πλησιέστερου γείτονα (k-Nearest Neighboor, k-NN).
Στα έως σήμερα προταθέντα συστήματα, η τμηματοποίηση των ΠΠ υλοποιείται με συμβατικές μεθόδους τμηματοποίησης με βάση τις αποχρώσεις του γκρί (τιμές έντασης) εικονοστοιχείων. Ανοικτό ζήτημα παραμένει και η αξιολόγηση της επίδρασης των σταδίων προ-επεξεργασίας (τμηματοποίηση ΠΠ και αγγειακού δένδρου) στην ακρίβεια συστημάτων χαρακτηρισμού και ποσοτικοποίησης της έκτασης της ΔΝ. Τέλος, η αξιολόγηση της αλληλεπίδρασης αυτόματων συστημάτων ποσοτικοποίησης και ακτινολόγου στη λήψη αποφάσεων χαρακτηρισμού και ποσοτικοποίησης της έκτασης που αφορούν την ΔΝ δεν έχει διερευνηθεί.
Η παρούσα διδακτορική διατριβή επικεντρώνεται στην ανάπτυξη ολοκληρωμένου συστήματος ανάλυσης εικόνας το οποίο χαρακτηρίζει και ποσοτικοποιεί την έκταση περιοχών με ΔΝ σε απεικονίσεις ΠΥΤ θώρακος, στοχεύοντας στη βελτιστοποίηση όλων των σταδίων του, καθώς και στην αξιολόγηση της συμβολής του συστήματος στην λήψη διαγνωστικών αποφάσεων. Για το σκοπό αυτό διερευνώνται τεχνικές 3Δ ενίσχυσης εικόνας, 3Δ τμηματοποίησης εικόνας καθώς και 3Δ χαρακτηριστικά υφής εικόνας σε συνδυασμό με επιβλεπόμενα και μη επιβλεπόμενα συστήματα ταξινόμησης.
Συγκεκριμένα η συμβολή της παρούσας διατριβής επικεντρώνεται στα ακόλουθα:
• Ανάπτυξη μεθόδων τμηματοποίησης των ΠΠ και του αγγειακού δένδρου παρουσία παθολογίας.
• Διερεύνηση της συμβολής αλγορίθμων εξαγωγής 3Δ υφής εικόνας στην ακρίβεια μεθόδων ταξινόμησης προτύπων ΔΝ.
• Βελτιστοποίηση μεθόδων χαρακτηρισμού και ποσοτικοποίησης έκτασης με χρήση τεχνικών επιβλεπόμενης και μη επιβλεπόμενης ταξινόμησης.
• Αξιολόγηση της επίδρασης των σταδίων προεπεξεργασίας στην ακρίβεια συστημάτων ποσοτικοποίησης.
• Αξιολόγηση της συμβολής συστημάτων ποσοτικοποίησης στη διάγνωση της ΔΝ.
|
8 |
Ανάπτυξη μεθόδου με σκοπό την αναγνώριση και εξαγωγή θεματικών λέξεων κλειδιών από διευθύνσεις ιστοσελίδων του ελληνικού Διαδικτύου / Keyword identification within Greek URLsΒονιτσάνου, Μαρία-Αλεξάνδρα 16 January 2012 (has links)
Η αύξηση της διαθέσιμης Πληροφορίας στον Παγκόσμιο Ιστό είναι ραγδαία. Η παρατήρηση αυτή παρότρυνε πολλούς ερευνητές να επικεντρώσουν το έργο τους στην εξαγωγή χρήσιμων γνωρισμάτων από διαδικτυακά έγγραφα, όπως ιστοσελίδες, εικόνες, βίντεο, με σκοπό τη ενίσχυση της διαδικασίας κατηγοριοποίησης ιστοσελίδων. Ένας πόρος που περιέχει πληροφορία και δεν έχει διερευνηθεί διεξοδικά για γλώσσες εκτός της αγγλικής, είναι η διεύθυνση ιστοσελίδας (URL- Uniform Recourse Locator). Το κίνητρο της διπλωματικής αυτής εργασίας είναι το γεγονός ότι ένα σημαντικό υποσύνολο των χρηστών του διαδικτύου δείχνει ενδιαφέρον για δικτυακούς πόρους, των οποίων οι διευθύνσεις URL περιλαμβάνουν όρους προερχόμενους από τη μητρική τους γλώσσα (η οποία δεν είναι η αγγλική), γραμμένους με λατινικούς χαρακτήρες. Προτείνεται μέθοδος η οποία θα αναγνωρίζει και θα εξάγει τις λέξεις-κλειδιά από διευθύνσεις ιστοσελίδων (URLs), εστιάζοντας στο ελληνικό Διαδίκτυο και συγκεκριμένα σε URLs που περιέχουν ελληνικούς όρους. Το κύριο ζήτημα της προτεινόμενης μεθόδου είναι ότι οι ελληνικές λέξεις μπορούν να μεταγλωττίζονται με λατινικούς χαρακτήρες σύμφωνα με πολλούς διαφορετικούς τρόπους, καθώς και το γεγονός ότι τα URLs μπορούν να περιέχουν περισσότερες της μιας λέξεις χωρίς κάποιο διαχωριστικό. Παρόλη την ύπαρξη προηγούμενων προσεγγίσεων για την επεξεργασία ελληνικού διαδικτυακού περιεχομένου, όπως αναζητήσεις στο ελληνικό διαδίκτυο και αναγνώριση οντότητας σε ελληνικές ιστοσελίδες, καμία από τις παραπάνω δεν βασίζεται σε διευθύνσεις URL. Επιπλέον, έχουν αναπτυχθεί πολλές τεχνικές για την κατηγοριοποίηση ιστοσελίδων με βάση κυρίως τις διευθύνσεις URL, αλλά καμία δεν διερευνά την περίπτωση του ελληνικού διαδικτύου. Η προτεινόμενη μέθοδος περιέχει δύο βασικά στοιχεία: το μεταγλωττιστή και τον κατακερματιστή. Ο μεταγλωττιστής, βασισμένος σε ένα ελληνικό λεξικό και ένα σύνολο κανόνων, μετατρέπει τις λέξεις που είναι γραμμένες με λατινικούς χαρακτήρες σε ελληνικούς όρους ενώ παράλληλα ο κατακερματιστής τμηματοποιεί τη διεύθυνση URL σε λέξεις με νόημα, εξάγοντας, έτσι τελικά ελληνικούς όρους που αποτελούν λέξεις κλειδιά. Η πειραματική αξιολόγηση της προτεινόμενης μεθόδου σε δείγμα ελληνικών URLs αποδεικνύει ότι μπορεί να αξιοποιηθεί εποικοδομητικά στην αυτόματη αναγνώριση λέξεων-κλειδιών σε ελληνικά URLs. / The available information on the WWW is increasing rapidly. This observation has triggered many researchers to focus their work on extracting useful features from web documents that would enhance the task of web classification. A quite informative resource that has not been thoroughly explored for languages other than English, is the uniform recourse locator (URL). Motivated by the fact that a significant part of the Web users is interested in web resources, whose URLs contain terms from their non English native languages,written using Latin characters, we propose a method that identifies and extracts successfully keywords within URLs focusing on the Greek Web and especially ons URLs, containing Greek terms. The main issue of this approach is that Greek words can be transliterated to Latin characters in many different ways based on how the words are pronounced rather than on how they are written. Although there are previous attempts on similar issues, like Greek web searches and entity recognition in Greek Web Pages, none of them is based on URLs. In addition, there are many techniques on web page categorization based mainly on URLs but noone explores the case of Greek terms. The proposed method uses a three-step approach; firstly, a normalized URL is divided into its basic components, according to URI protocol (scheme :// host / path-elements / document . extension). The domain part is splitted on the apperance of punctuation marks or numbers. Secondly, domain-tokens are segmented into meaningful tokens using a set of transliteration rules and a Greek dictionary. Finally, in order to identify useful keywords, a score is assigned to each extracted keyword based on its length and whether the word is nested in another word. The algorithm is evaluated on a random sample of 1,000 URLs collected manually. We perform a human-based evaluation comparing the keywords extracted automatically with the keywords extracted manually when no other additional information than the URL is available. The results look promising.
|
Page generated in 0.0553 seconds