• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Επίδραση τεχνικών μείωσης θορύβου στην τμηματοποίηση πνευμονικών πεδίων στην υπολογιστική τομογραφία / Evaluating the effect of image denoising in lung field segmentation algorithm in computed tomography

Αρκούδη, Μαρία 26 July 2013 (has links)
Η υπολογιστική τομογραφία θώρακος αποτελεί την απεικονιστική τεχνική επιλογής για την διάγνωση και την ποσοτικοποίηση των διάμεσων νοσημάτων του πνεύμονα (1). Η διάγνωση όμως τέτοιων παθολογιών χαρακτηρίζεται από μεγάλη ένδο- και μεταξύ παρατηρητών μεταβλητότητα λόγω της μη ύπαρξης κριτηρίων του απεικονιστικού προτύπου των παθολογιών καθώς και του μεγάλου όγκου δεδομένων της εξέτασης. Για τον λόγο αυτό στην βιβλιογραφία έχει προταθεί η χρήση συστημάτων αυτόματης ποσοτικοποίησης με σκοπό την ακριβή μέτρηση των παθολογιών η οποία έως σήμερα πραγματοποιείται με ημι-ποσοτικές κλίμακες. Τα συστήματα αυτά λειτουργούν είτε σε επίπεδο τομής (2Δ) είτε σε ολόκληρο των όγκο (3Δ) του πνευμονικού πεδίου. Τα 3Δ συστήματα υπερτερούν τον 2Δ καθώς καλύπτουν το σύνολο του όγκου των πνευμονικών πεδίων περιορίζονται όμως λόγο της μειωμένης ποιότητας εικόνας (2-4). Τα συστήματα ποσοτικοποίησης αποτελούνται (συνήθως) από δύο στάδια προ-επεξεργασίας τα οποία προηγούνται του σταδίου ποσοτικοποίησης των παθολογιών. Τα στάδια προ-επεξεργασίας στοχεύουν στην απομόνωση του πνευμονικού παρεγχύματος. Ειδικότερα στο πρώτο στάδιο πραγματοποιείται απομόνωση των πνευμονικών πεδίων ενώ στο δεύτερο στάδιο πραγματοποιείται η αφαίρεση του αγγειακού δένδρου με αποτέλεσμα την απομόνωση του πενυμονικού πεδίου φυσιολογικού η μη. Η επίδραση των δύο βημάτων προ-επεξεργασίας είναι καθοριστική στην ακρίβεια του συστήματος ποσοτικοποίησης όπως έχει διατυπωθεί στην βιβλιογραφία. Τα συστήματα ποσοτικοποίησης που έχουν προταθεί έως σήμερα υιοθετούν σαν τεχνικές τμηματοποίησης πνευμονικών πεδίων είτε τεχνικές κατωφλίωσης σε συνδυασμό με μορφολογική επεξεργασία (2) είτε συνδυασμό τεχνικών που βασίζονται στην ανάλυση υφής περιοχής (5-8). Στα πλαίσια τμηματοποίησης των πνευμονικών πεδίων έχει προταθεί μια σειρά αλγορίθμων ικανή να τμηματοποίηση πνευμονικά πεδία χωρίς παρουσία παθολογιών ή με την παρουσία μικρών όγκων (οζιδίων) (9-14) ενώ μόλις πρόσφατα προτάθηκαν τεχνικές τμηματοποίησης οι οποίες στοχεύουν στην τμηματοποίηση πνευμονικών πεδίων με παρουσία διάχυτων ασθενειών του πνεύμονα (3) (15). Στην εικόνα 2 παρουσιάζονται τόσο φυσιολογικά όσο και παθολογικά πνευμονικά πεδία. Στην περίπτωση των παθολογικών πνευμονικών πεδίων είναι φανερό πως η τμηματοποίηση υπό την παρουσία προτύπων διάχυτων νοσημάτων δεν είναι «εύκολη αποστολή» καθώς τα πρότυπα της παθολογίας και ο περιβάλλον ιστός μοιράζονται κοινά απεικονιστικά χαρακτηριστικά. Λεπτομερής περιγραφή των αλγορίθμων τμηματοποίησης θα πραγματοποιηθεί στα επόμενα κεφάλαια. Στην υπολογιστική τομογραφία το σήμα (προβολές) που καταγράφεται στους ανιχνευτές χαρακτηρίζεται από παρουσία θορύβου, φαινόμενο που κυρίως οφείλεται στην τυχαιότητα απορρόφησης των φωτονίων στους ανιχνευτές. Ο θόρυβος αυτός γενικότερα αναφέρεται ως κβαντικός θόρυβος. O θόρυβος μέσω της διαδικασίας ανακατασκευής εικόνας κληροδοτείται και στη τελική εικόνα. Ο θόρυβος αυτός μπορεί να μειωθεί είτε αυξάνοντας τα στοιχεία λήψης (υψηλότερη δόση), είτε εφαρμόζοντας τεχνικές ανακατασκευής οι οποίες χρησιμοποιούν πυρήνες εξομάλυνσης (smoothing kernel).΄Όμως, λαμβάνοντας υπόψη τη βασική αρχή ακτινοπροστασίας ALARA (As Low As Reasonable Achievable) τα στοιχεία λήψης πρέπει να είναι όσο το δυνατόν χαμηλότερα. Κάνοντας όμως χρήση του πυρήνα εξομάλυνσης μειώνεται η διακριτική ικανότητα εικόνας. Αυτό φανερώνει ότι η μείωση θορύβου δεν είναι ένα τετριμμένο πρόβλημα. Με εικόνες που χαρακτηρίζονται από υψηλό SNR (σήμα προς θόρυβο) μπορεί να επιτευχθεί ακριβής διάγνωση αλλά και να αξιοποιηθούν στα πλαίσια τεχνικών ανάλυσης εικόνας όπως τεχνικές αντιστοίχισης και τμηματοποίησης [1]. Όπως προαναφέραμε τα 3Δ πρωτόκολλα χαρακτηρίζονται από μειωμένη ποιότητα εικόνας λόγω παρουσίας θορύβου σε σχέση με τα 2Δ πρωτόκολλα υψηλής ανάλυσης Έως τώρα στη βιβλιογραφία έχουν προταθεί πολλές τεχνικές για μείωση θορύβου στην υπολογιστική τομογραφία. Για παράδειγμα έχουν χρησιμοποιηθεί επαναληπτικές τεχνικές ανακατασκευής οι οποίες αποσκοπούν στην μείωση θορύβου, μέσω της βελτιστοποίησης στατιστικών συναρτήσεων [2]-[4]. To βασικό μειονέκτημα αυτών των τεχνικών είναι η υψηλή υπολογιστική πολυπλοκότητα (high computational complexity). Η εφαρμογή αλγορίθμου μείωσης θορύβου μετά την ανακατασκευή εικόνας (post-processing) αποτελεί πρόκληση κυρίως λόγω του χαρακτήρα του θορύβου στην ανακατασκευασμένη εικόνα. Επιπλέον η κατευθυντικότητα του θορύβου λόγω υψηλής απορρόφησης κατά μήκος συγκεκριμένων κατευθύνσεων καθιστά τη διαφοροποίηση μεταξύ δομών και θορύβου ιδιαίτερα πολύπλοκη. Μια πολύ βασική αρχή στην οποία θα πρέπει να υπακούει κάθε τεχνική μείωσης θορύβου που εφαρμόζεται σε ιατρικές εικόνες είναι ότι η κλινική πληροφορία της εικόνας πρέπει να διατηρείται. Οι πιο πρόσφατες τεχνικές που σχετίζονται με την μείωση θορύβου στις ανακατασκευασμένες εικόνες χρησιμοποιούν τεχνικές οι οποίες αφαιρούν το θόρυβο αλλά ταυτόχρονα διατηρούν τις αιχμές της εικόνας (16). Χαρακτηριστικό ιδιαίτερα χρήσιμο στην περίπτωση των περίπλοκων απεικονιστικών προτύπων τις διάχυτης παθολογίας του πνεύμονα όπως το γραμμικό δικτυωτό πρότυπο τις πνευμονικής ίνωσης το οποίο μπορεί να συνυπάρχει με το πρότυπο της θαμβή υάλου το οποίο δεν περιέχει δομές αλλά εύκολα συγχέεται με το φυσιολογικό πνευμονικό παρέγχυμα παρουσία θορύβου. Ανοικτό ζήτημα στην βιβλιογραφία αποτελεί η τμηματοποίηση των πνευμονικών πεδίων, ιδιαίτερα στην περίπτωση όπου η παθολογία επηρεάζει τα όρια αυτών. Οι τεχνικές που έχουν προταθεί έως σήμερα εστιάζουν στην εφαρμογή των αλγορίθμων σε δεδομένα τα οποία έχουν προέλθει από τον ίδιο υπολογιστικό τομογράφο με συγκεκριμένο πρωτόκολλο λήψης. Στις μελέτες αυτές δεν έχει γίνει διερεύνηση της επίδρασης του θορύβου στους αλγορίθμους τμηματοποίησης. Οι αλγόριθμοι μείωσης θορύβου έχουν προταθεί στην βιβλιογραφία έως βήμα προ επεξεργασίας για δεδομένα τα οποία είτε προέρχονται από διαφορετικά κέντρα ή έχουν ληφθεί αξιοποιώντας διαφορετικό πρωτόκολλο. Στην παρούσα μελέτη πραγματοποιήθηκε μελέτη της επίδρασης των τεχνικών μείωσης θορύβου στις τεχνικές τμηματοποίησης σε δεδομένα υπολογιστικής τομογραφίας θώρακος. Στην μελέτη αξιοποιήθηκαν δεδομένα τα όποια ελήφθησαν με πρωτόκολλο λήψης 3D δεδομένων ενώ στα πνευμονικά πεδία υπήρχαν πρότυπα ενδιάμεσης πνευμονοπάθειας. Οι τεχνικές τμηματοποίησης η οποίες αξιοποιήθηκαν ήταν οι k-means, Voxel Classification based, thresholding, MRF και η ΜΕΤΕΤ. Η τεχνική k-means είχε μια παράμετρο των αριθμών κλάσεων στην εικόνα η όποια προέκυψε έπειτα από πειραματικό προσδιορισμό (κ=4). Η τεχνική MRF απαιτούσε τον καθορισμό δυο παραμέτρων, του αριθμού των κλάσεων καθώς και του Β μιας παραμέτρου που καθορίζει την βαρύτητα που παίζει η γειτονία ενός pixel. Στην παρούσα μελέτη χρησιμοποιήθηκε μια σχετικά μεγάλη τιμή προκειμένου να μειωθεί η επίδραση του θορύβου στην τελική τμηματοποίηση. Τέλος η τεχνική ΜΕΤΕΤ περιέχει μια παράμετρο (του αριθμού κλάσεων) η όποια επιλεγεί να είναι κ=4 όπως προτείνεται στην βιβλιογραφία. Για την αξιολόγηση των αλγορίθμων τμηματοποίησης αξιοποιήθηκε η πλειοψηφία των δεικτών τμηματοποίησης που χρησιμοποιούνται στην βιβλιογραφία. Στην μελέτη αυτή χρησιμοποιήθηκαν όλοι οι δείκτες και όχι αποσπασματικά όπως εφαρμόζονται σε διάφορες δημοσιεύσεις. Το δείγμα αληθείας προέκυψε έπειτα από χειροκίνητη τμηματοποίηση 370 τομών από ακτινολόγο με χρόνια εμπειρίας στην ερμηνεία δεδομένων υπολογιστικής τομογραφίας. Για την υλοποίηση της εργασίας σχεδιάστηκε και αναπτύχθηκε στο εργαστήριο Ιατρικής Φυσικής του Πανεπιστήμιου Πατρών κατάλληλη γραφική επιφάνεια διεπαφής η οποία επέτρεπε στην ‘φόρτωση’ των δεδομένων, την τμηματοποίηση των πνευμονικών πεδίων, την εφαρμογή των αλγορίθμων μειώσης θορύβου, την χειροκίνητη τμηματοποίηση του υπολογισμού των δεικτών ακρίβειας και τέλος την αποθήκευση όλων των δεδομένων. Στην βιβλιογραφία έως σήμερα έχουν προταθεί μια σειρά αλγορίθμων τμηματοποίησης πνευμονικών πεδίων οι οποίες στοχεύουν είτε στην τμηματοποίηση υγιών πνευμονικών πεδίων είτε παθολογικών πνευμονικών πεδίων. Ωστόσο όλοι οι αλγόριθμοι εφαρμόζονται σε δεδομένα τα οποία προέρχονται από υπολογιστικούς τομογράφους με συγκεκριμένο πρωτόκολλο χωρίς να γίνεται περαιτέρω μελέτη συμπεριφοράς των αλγορίθμων σε δεδομένα από διαφορετικό πρωτόκολλο λήψης (διαφορετικό επίπεδο θορύβου). Βάση των αποτελεσμάτων τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες η τεχνική ΜΕΤΕΤ έδωσε τα καλύτερα αποτέλεσμα ως προς όλους τους δείκτες εκτός του δείκτη TPF όπου εκεί η μέθοδος k-means έδωσε το καλύτερο αποτέλεσμα. Το γεγονός αυτό μπορούμε να το αποδώσουμε επειδή η τεχνική βασίζεται στην ένταση των επιπέδων του γκρι τμηματοποιεί όλα τα τμήματα με φυσιολογική εμφάνιση άρα συμπίπτει καλύτερα με την τμηματοποίηση του ακτινολόγου χωρίς να εμφανίζει υπερ-τμηματοποίηση. Ο δείκτης TPF αποτελεί το κοινό τμήμα των δυο τμηματοποιήσεων. H στατιστική ανάλυση βάσης του δείκτη ρ που προκύπτει από το student t test ανέδειξε ότι η συμπεριφορά της ΜΕΤΕΤ δεν εμφανίζει στατιστικές σημαντικές διαφορές στις αρχικές όσο και στις επεξεργασμένες εικόνες. Τέλος οι τεχνικές τμηματοποίησης MRF, Thresholding, και Voxel Classification based εμφανίζουν την ίδια συμπεριφορά τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες. / Accurate and automated Lung Field (LF) segmentation in volumetric computed tomography protocols is highly challenged by the presence of pathologies affecting lung borders, also affecting the performance of computer-aided diagnosis (CAD) schemes. In this work, 4 three-dimensional LF segmentation algorithms are evaluated. The 4 algorithms considered are: • k-means based unsupervised segmentation. • Thresholding based segmentation (based on minimum error thresholding proposed by Kittler et al.). • Unsupervised segmentation followed by supervised border refinement. • Markov Random Field based unsupervised segmentation. Further more the algorithms are applied with or without denoising of data as a pre-processing step. Denoising techniques have been proposed to deal with the use of multi-center data i.e. datasets acquired with equipment from different vendors or different protocols. A home developed graphical user interface was used to apply the segmentation algorithms, perform denoising and finally allow for ground truth derivation. Seven quantitative indexes were used including overlap, Dice similarity coefficient, true and false positive fraction, mean distance, root mean square distance and finally distance maximum. Based on the analysis performed, unsupervised segmentation followed by supervised border refinement outperformed all the other methods exploited with respect to all quantitative measures considered except false positive fraction. Additionally the technique was robust against noise levels (performance with or without denoising did not present statistically significant difference). K-means unsupervised segmentation performed better from the other methods with respect to false positive fraction. This can be attributed to under-segmentation occurred since in this study k-means algorithm was based only on gray level information.
2

Innovative focal plane design for high resolution imaging and earth observation : freeform optics and curved sensors / Aménagement de plans focaux pour l'imagerie haute résolution et l'observation de la terre : optiques freeform et détecteurs courbes

Jahn, Wilfried 05 December 2017 (has links)
Le besoin en haute performance en termes de qualité image, résolution et champ de vue accroît la complexité et le budget masse/volume des instruments optiques. Ces contraintes impactent toutes les applications: l’astronomie, la défense, les missions spatiales, la médecine, les objectifs d’appareil photos et caméras, les smartphones, les drones. Afin de résoudre cette problématique dans les instruments d’observation astronomique, je considère deux technologies : les optiques freeform et les détecteurs courbes, qui offrent une nouvelle ère pour le design de systèmes optiques.L’augmentation de la taille des télescopes en orbite basse est nécessaire pour atteindre une observation planétaire à haute résolution spatiale, ce qui implique des systèmes d’imagerie complexes et de grand plans focaux. L’utilisation de systèmes d’imagerie homothétiques aux satellites à défilement Spot et Pleiades mènerait à des dimensions de plans focaux prohibitifs, tout particulièrement pour des missions en infrarouge nécessitant un cryostat. Deux télescopes optiques sont présentés, ils utilisent un module de segmentation composé de miroirs freeform qui permet de réduire considérablement la dimension du plan focal. Les capteurs courbes permettent réduire de manière considérable la complexité des imageurs et des spectromètres en corrigeant directement l'aberration de courbure de champ en plan focal. Je présente des études comparatives sur des systèmes optiques grand champ depuis des champs de vue astronomiques jusqu’à celui du Fishseye, ainsi que les résultats obtenus avec nos deux prototypes d’objectif grand champ utilisant les premiers capteurs courbes CMOS visibles full-frame. / The need of high performance in terms of image quality, high resolution and wide field of view increases the complexity and the volume/mass budget of telescopes and their instruments. Such constraints concern also a wide range of applications: astronomy, defense and surveillance, space missions, biomedical imaging, camera objectives, smartphones, drones. To overcome these issues in astronomical instruments, I consider two technologies: freeform optics and curved sensors, offering a new era for the design of optical systems.Increasing the size of low-orbiting space telescopes is necessary to reach high resolution observation of planets, which implies more complex imaging systems and large focal planes. The use of homothetic imaging systems as Spot and Pleiades pushbroom satellites would lead to prohibitive large linear focal plane dimensions, especially for infrared missions requiring a cryostat. Two optical telescopes are presented, they use an image segmentation made of freeform mirrors which allows to reduce significantly the size of the focal plane. Curved sensors enable to reduce drastically the complexity of imagers and spectrometers by correcting the field curvature aberration directly in the focal plane. I present comparative studies on wide field optical designs from astronomical to Fisheye instruments and the results obtained with our two wide field imaging prototypes using the first visible full-frame CMOS curved sensors.

Page generated in 0.1177 seconds