• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 32
  • 21
  • Tagged with
  • 180
  • 45
  • 28
  • 19
  • 19
  • 18
  • 17
  • 15
  • 13
  • 11
  • 11
  • 11
  • 10
  • 9
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Επίδραση τεχνικών μείωσης θορύβου στην τμηματοποίηση πνευμονικών πεδίων στην υπολογιστική τομογραφία / Evaluating the effect of image denoising in lung field segmentation algorithm in computed tomography

Αρκούδη, Μαρία 26 July 2013 (has links)
Η υπολογιστική τομογραφία θώρακος αποτελεί την απεικονιστική τεχνική επιλογής για την διάγνωση και την ποσοτικοποίηση των διάμεσων νοσημάτων του πνεύμονα (1). Η διάγνωση όμως τέτοιων παθολογιών χαρακτηρίζεται από μεγάλη ένδο- και μεταξύ παρατηρητών μεταβλητότητα λόγω της μη ύπαρξης κριτηρίων του απεικονιστικού προτύπου των παθολογιών καθώς και του μεγάλου όγκου δεδομένων της εξέτασης. Για τον λόγο αυτό στην βιβλιογραφία έχει προταθεί η χρήση συστημάτων αυτόματης ποσοτικοποίησης με σκοπό την ακριβή μέτρηση των παθολογιών η οποία έως σήμερα πραγματοποιείται με ημι-ποσοτικές κλίμακες. Τα συστήματα αυτά λειτουργούν είτε σε επίπεδο τομής (2Δ) είτε σε ολόκληρο των όγκο (3Δ) του πνευμονικού πεδίου. Τα 3Δ συστήματα υπερτερούν τον 2Δ καθώς καλύπτουν το σύνολο του όγκου των πνευμονικών πεδίων περιορίζονται όμως λόγο της μειωμένης ποιότητας εικόνας (2-4). Τα συστήματα ποσοτικοποίησης αποτελούνται (συνήθως) από δύο στάδια προ-επεξεργασίας τα οποία προηγούνται του σταδίου ποσοτικοποίησης των παθολογιών. Τα στάδια προ-επεξεργασίας στοχεύουν στην απομόνωση του πνευμονικού παρεγχύματος. Ειδικότερα στο πρώτο στάδιο πραγματοποιείται απομόνωση των πνευμονικών πεδίων ενώ στο δεύτερο στάδιο πραγματοποιείται η αφαίρεση του αγγειακού δένδρου με αποτέλεσμα την απομόνωση του πενυμονικού πεδίου φυσιολογικού η μη. Η επίδραση των δύο βημάτων προ-επεξεργασίας είναι καθοριστική στην ακρίβεια του συστήματος ποσοτικοποίησης όπως έχει διατυπωθεί στην βιβλιογραφία. Τα συστήματα ποσοτικοποίησης που έχουν προταθεί έως σήμερα υιοθετούν σαν τεχνικές τμηματοποίησης πνευμονικών πεδίων είτε τεχνικές κατωφλίωσης σε συνδυασμό με μορφολογική επεξεργασία (2) είτε συνδυασμό τεχνικών που βασίζονται στην ανάλυση υφής περιοχής (5-8). Στα πλαίσια τμηματοποίησης των πνευμονικών πεδίων έχει προταθεί μια σειρά αλγορίθμων ικανή να τμηματοποίηση πνευμονικά πεδία χωρίς παρουσία παθολογιών ή με την παρουσία μικρών όγκων (οζιδίων) (9-14) ενώ μόλις πρόσφατα προτάθηκαν τεχνικές τμηματοποίησης οι οποίες στοχεύουν στην τμηματοποίηση πνευμονικών πεδίων με παρουσία διάχυτων ασθενειών του πνεύμονα (3) (15). Στην εικόνα 2 παρουσιάζονται τόσο φυσιολογικά όσο και παθολογικά πνευμονικά πεδία. Στην περίπτωση των παθολογικών πνευμονικών πεδίων είναι φανερό πως η τμηματοποίηση υπό την παρουσία προτύπων διάχυτων νοσημάτων δεν είναι «εύκολη αποστολή» καθώς τα πρότυπα της παθολογίας και ο περιβάλλον ιστός μοιράζονται κοινά απεικονιστικά χαρακτηριστικά. Λεπτομερής περιγραφή των αλγορίθμων τμηματοποίησης θα πραγματοποιηθεί στα επόμενα κεφάλαια. Στην υπολογιστική τομογραφία το σήμα (προβολές) που καταγράφεται στους ανιχνευτές χαρακτηρίζεται από παρουσία θορύβου, φαινόμενο που κυρίως οφείλεται στην τυχαιότητα απορρόφησης των φωτονίων στους ανιχνευτές. Ο θόρυβος αυτός γενικότερα αναφέρεται ως κβαντικός θόρυβος. O θόρυβος μέσω της διαδικασίας ανακατασκευής εικόνας κληροδοτείται και στη τελική εικόνα. Ο θόρυβος αυτός μπορεί να μειωθεί είτε αυξάνοντας τα στοιχεία λήψης (υψηλότερη δόση), είτε εφαρμόζοντας τεχνικές ανακατασκευής οι οποίες χρησιμοποιούν πυρήνες εξομάλυνσης (smoothing kernel).΄Όμως, λαμβάνοντας υπόψη τη βασική αρχή ακτινοπροστασίας ALARA (As Low As Reasonable Achievable) τα στοιχεία λήψης πρέπει να είναι όσο το δυνατόν χαμηλότερα. Κάνοντας όμως χρήση του πυρήνα εξομάλυνσης μειώνεται η διακριτική ικανότητα εικόνας. Αυτό φανερώνει ότι η μείωση θορύβου δεν είναι ένα τετριμμένο πρόβλημα. Με εικόνες που χαρακτηρίζονται από υψηλό SNR (σήμα προς θόρυβο) μπορεί να επιτευχθεί ακριβής διάγνωση αλλά και να αξιοποιηθούν στα πλαίσια τεχνικών ανάλυσης εικόνας όπως τεχνικές αντιστοίχισης και τμηματοποίησης [1]. Όπως προαναφέραμε τα 3Δ πρωτόκολλα χαρακτηρίζονται από μειωμένη ποιότητα εικόνας λόγω παρουσίας θορύβου σε σχέση με τα 2Δ πρωτόκολλα υψηλής ανάλυσης Έως τώρα στη βιβλιογραφία έχουν προταθεί πολλές τεχνικές για μείωση θορύβου στην υπολογιστική τομογραφία. Για παράδειγμα έχουν χρησιμοποιηθεί επαναληπτικές τεχνικές ανακατασκευής οι οποίες αποσκοπούν στην μείωση θορύβου, μέσω της βελτιστοποίησης στατιστικών συναρτήσεων [2]-[4]. To βασικό μειονέκτημα αυτών των τεχνικών είναι η υψηλή υπολογιστική πολυπλοκότητα (high computational complexity). Η εφαρμογή αλγορίθμου μείωσης θορύβου μετά την ανακατασκευή εικόνας (post-processing) αποτελεί πρόκληση κυρίως λόγω του χαρακτήρα του θορύβου στην ανακατασκευασμένη εικόνα. Επιπλέον η κατευθυντικότητα του θορύβου λόγω υψηλής απορρόφησης κατά μήκος συγκεκριμένων κατευθύνσεων καθιστά τη διαφοροποίηση μεταξύ δομών και θορύβου ιδιαίτερα πολύπλοκη. Μια πολύ βασική αρχή στην οποία θα πρέπει να υπακούει κάθε τεχνική μείωσης θορύβου που εφαρμόζεται σε ιατρικές εικόνες είναι ότι η κλινική πληροφορία της εικόνας πρέπει να διατηρείται. Οι πιο πρόσφατες τεχνικές που σχετίζονται με την μείωση θορύβου στις ανακατασκευασμένες εικόνες χρησιμοποιούν τεχνικές οι οποίες αφαιρούν το θόρυβο αλλά ταυτόχρονα διατηρούν τις αιχμές της εικόνας (16). Χαρακτηριστικό ιδιαίτερα χρήσιμο στην περίπτωση των περίπλοκων απεικονιστικών προτύπων τις διάχυτης παθολογίας του πνεύμονα όπως το γραμμικό δικτυωτό πρότυπο τις πνευμονικής ίνωσης το οποίο μπορεί να συνυπάρχει με το πρότυπο της θαμβή υάλου το οποίο δεν περιέχει δομές αλλά εύκολα συγχέεται με το φυσιολογικό πνευμονικό παρέγχυμα παρουσία θορύβου. Ανοικτό ζήτημα στην βιβλιογραφία αποτελεί η τμηματοποίηση των πνευμονικών πεδίων, ιδιαίτερα στην περίπτωση όπου η παθολογία επηρεάζει τα όρια αυτών. Οι τεχνικές που έχουν προταθεί έως σήμερα εστιάζουν στην εφαρμογή των αλγορίθμων σε δεδομένα τα οποία έχουν προέλθει από τον ίδιο υπολογιστικό τομογράφο με συγκεκριμένο πρωτόκολλο λήψης. Στις μελέτες αυτές δεν έχει γίνει διερεύνηση της επίδρασης του θορύβου στους αλγορίθμους τμηματοποίησης. Οι αλγόριθμοι μείωσης θορύβου έχουν προταθεί στην βιβλιογραφία έως βήμα προ επεξεργασίας για δεδομένα τα οποία είτε προέρχονται από διαφορετικά κέντρα ή έχουν ληφθεί αξιοποιώντας διαφορετικό πρωτόκολλο. Στην παρούσα μελέτη πραγματοποιήθηκε μελέτη της επίδρασης των τεχνικών μείωσης θορύβου στις τεχνικές τμηματοποίησης σε δεδομένα υπολογιστικής τομογραφίας θώρακος. Στην μελέτη αξιοποιήθηκαν δεδομένα τα όποια ελήφθησαν με πρωτόκολλο λήψης 3D δεδομένων ενώ στα πνευμονικά πεδία υπήρχαν πρότυπα ενδιάμεσης πνευμονοπάθειας. Οι τεχνικές τμηματοποίησης η οποίες αξιοποιήθηκαν ήταν οι k-means, Voxel Classification based, thresholding, MRF και η ΜΕΤΕΤ. Η τεχνική k-means είχε μια παράμετρο των αριθμών κλάσεων στην εικόνα η όποια προέκυψε έπειτα από πειραματικό προσδιορισμό (κ=4). Η τεχνική MRF απαιτούσε τον καθορισμό δυο παραμέτρων, του αριθμού των κλάσεων καθώς και του Β μιας παραμέτρου που καθορίζει την βαρύτητα που παίζει η γειτονία ενός pixel. Στην παρούσα μελέτη χρησιμοποιήθηκε μια σχετικά μεγάλη τιμή προκειμένου να μειωθεί η επίδραση του θορύβου στην τελική τμηματοποίηση. Τέλος η τεχνική ΜΕΤΕΤ περιέχει μια παράμετρο (του αριθμού κλάσεων) η όποια επιλεγεί να είναι κ=4 όπως προτείνεται στην βιβλιογραφία. Για την αξιολόγηση των αλγορίθμων τμηματοποίησης αξιοποιήθηκε η πλειοψηφία των δεικτών τμηματοποίησης που χρησιμοποιούνται στην βιβλιογραφία. Στην μελέτη αυτή χρησιμοποιήθηκαν όλοι οι δείκτες και όχι αποσπασματικά όπως εφαρμόζονται σε διάφορες δημοσιεύσεις. Το δείγμα αληθείας προέκυψε έπειτα από χειροκίνητη τμηματοποίηση 370 τομών από ακτινολόγο με χρόνια εμπειρίας στην ερμηνεία δεδομένων υπολογιστικής τομογραφίας. Για την υλοποίηση της εργασίας σχεδιάστηκε και αναπτύχθηκε στο εργαστήριο Ιατρικής Φυσικής του Πανεπιστήμιου Πατρών κατάλληλη γραφική επιφάνεια διεπαφής η οποία επέτρεπε στην ‘φόρτωση’ των δεδομένων, την τμηματοποίηση των πνευμονικών πεδίων, την εφαρμογή των αλγορίθμων μειώσης θορύβου, την χειροκίνητη τμηματοποίηση του υπολογισμού των δεικτών ακρίβειας και τέλος την αποθήκευση όλων των δεδομένων. Στην βιβλιογραφία έως σήμερα έχουν προταθεί μια σειρά αλγορίθμων τμηματοποίησης πνευμονικών πεδίων οι οποίες στοχεύουν είτε στην τμηματοποίηση υγιών πνευμονικών πεδίων είτε παθολογικών πνευμονικών πεδίων. Ωστόσο όλοι οι αλγόριθμοι εφαρμόζονται σε δεδομένα τα οποία προέρχονται από υπολογιστικούς τομογράφους με συγκεκριμένο πρωτόκολλο χωρίς να γίνεται περαιτέρω μελέτη συμπεριφοράς των αλγορίθμων σε δεδομένα από διαφορετικό πρωτόκολλο λήψης (διαφορετικό επίπεδο θορύβου). Βάση των αποτελεσμάτων τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες η τεχνική ΜΕΤΕΤ έδωσε τα καλύτερα αποτέλεσμα ως προς όλους τους δείκτες εκτός του δείκτη TPF όπου εκεί η μέθοδος k-means έδωσε το καλύτερο αποτέλεσμα. Το γεγονός αυτό μπορούμε να το αποδώσουμε επειδή η τεχνική βασίζεται στην ένταση των επιπέδων του γκρι τμηματοποιεί όλα τα τμήματα με φυσιολογική εμφάνιση άρα συμπίπτει καλύτερα με την τμηματοποίηση του ακτινολόγου χωρίς να εμφανίζει υπερ-τμηματοποίηση. Ο δείκτης TPF αποτελεί το κοινό τμήμα των δυο τμηματοποιήσεων. H στατιστική ανάλυση βάσης του δείκτη ρ που προκύπτει από το student t test ανέδειξε ότι η συμπεριφορά της ΜΕΤΕΤ δεν εμφανίζει στατιστικές σημαντικές διαφορές στις αρχικές όσο και στις επεξεργασμένες εικόνες. Τέλος οι τεχνικές τμηματοποίησης MRF, Thresholding, και Voxel Classification based εμφανίζουν την ίδια συμπεριφορά τόσο στις αρχικές όσο και στις επεξεργασμένες εικόνες. / Accurate and automated Lung Field (LF) segmentation in volumetric computed tomography protocols is highly challenged by the presence of pathologies affecting lung borders, also affecting the performance of computer-aided diagnosis (CAD) schemes. In this work, 4 three-dimensional LF segmentation algorithms are evaluated. The 4 algorithms considered are: • k-means based unsupervised segmentation. • Thresholding based segmentation (based on minimum error thresholding proposed by Kittler et al.). • Unsupervised segmentation followed by supervised border refinement. • Markov Random Field based unsupervised segmentation. Further more the algorithms are applied with or without denoising of data as a pre-processing step. Denoising techniques have been proposed to deal with the use of multi-center data i.e. datasets acquired with equipment from different vendors or different protocols. A home developed graphical user interface was used to apply the segmentation algorithms, perform denoising and finally allow for ground truth derivation. Seven quantitative indexes were used including overlap, Dice similarity coefficient, true and false positive fraction, mean distance, root mean square distance and finally distance maximum. Based on the analysis performed, unsupervised segmentation followed by supervised border refinement outperformed all the other methods exploited with respect to all quantitative measures considered except false positive fraction. Additionally the technique was robust against noise levels (performance with or without denoising did not present statistically significant difference). K-means unsupervised segmentation performed better from the other methods with respect to false positive fraction. This can be attributed to under-segmentation occurred since in this study k-means algorithm was based only on gray level information.
102

Investigatoin and imaging characteristics of a CMOS sensor based digital detector coupled to a red emitting fluorescent screen / Διερεύνηση των απεικονιστικών χαρακτηριστικών ψηφιακού ανιχνευτή βασισμένου σε αισθητήρα CMOS σε σύζευξη με φθορίζουσα οθόνη ερυθράς εκπομπής

Σεφέρης, Ιωάννης 26 July 2013 (has links)
The dominant powder scintillator in most medical imaging modalities for decades is Gd2O2S:Tb due to the very good intrinsic properties and overall efficiency. Except for Gd2O2S:Tb there are alternative powder phosphor scintillators like Lu2SiO5:Ce and Gd2O2S:Eu that has been suggested for use in various medical imaging modalities. Gd2O2S:Eu emits red light and can be combined mainly with digital imaging devices like CCDs and CMOS based detectors. The purposes of the present thesis, is to investigate the fundamental imaging performance of a high resolution CMOS based imaging sensor combined with custom made Europium (Eu3+) activated Gd2O2S screens in terms of Modulation Transfer Function (MTF), Normalized Noise Power Spectrum (NNPS), Detective Quantum Efficiency (DQE), Noise Equivalent Quanta (NEQ) and Information Capacity (IC) covering the mammography and general radiography energy ranges. The CMOS sensor was coupled to two Gd2O2S:Eu scintillator screens with coating thicknesses of 33.3 and 65.1 mg/cm2, respectively, which were placed in direct contact with the photodiode array. The CMOS photodiode array, featuring 1200x1600 pixels with a pixel pitch of 22.5 m , was used as an optical photon detector. In addition to frequency dependent parameters (MTF, NPS, DQE) characterizing image quality, image information content was assessed through the application of information capacity (IC). The MTF was measured using the slanted-edge method to avoid aliasing while the Normalized NPS (NNPS) was determined by two-dimensional (2D) Fourier transforming of uniformly exposed images. Both parameters were assessed by irradiation under the RQA-5 protocol (70kVp digital-radiography) recommended by the International Electrotechnical Commission Reports 62220-1 and the W/Rh, W/Ag beam qualities (28kVp digital-mammography). The DQE was assessed from the measured MTF, NNPS and the direct entrance surface air-Kerma (ESAK) obtained from X-ray spectra measurement with a portable cadmium telluride (CdTe) detector. The spectral matching factor between the optical spectra emitted by the Gd2O2S:Eu and the Gd2O2S:Tb screens and the CMOS optical sensor, evaluated in the present study, was 1 and 0.95 respectively. The ESAK values ranged between 11.2-87.5 Gy , for RQA-5, and between 65.8-334 Gy , for W/Rh, W/Ag beam qualities. It was found that the detector response function was linear for the exposure ranges under investigation. Under radiographic conditions the MTF of the present system was found higher than previously published MTF data for a 48 m CMOS sensor, in the low up to medium frequency ranges. DQE was found comparable, while the NNPS appeared to be higher in the frequency range under investigation (0–10 cycles/mm). NEQ reached a maximum (73563 mm-2) in the low frequency range (1.8 cycles/mm), under the RQA 5 (ESAK: 11.2 Gy ) conditions. IC values were found to range between 1730-1851 bits/mm2. Under mammographic conditions MTF, NNPS and NEQ were found comparable to data previously published for the 48 m CMOS sensor while the DQE was found lower. The corresponding IC values were found ranging between 2475 and 2821 bits/mm2. The imaging performance of europium (Eu3+) activated Gd2O2S screens in combination to the CMOS sensor, investigated in the present study, was found comparable to those of Terbium (Tb) activated Gd2O2S screens (combined with the CMOS sensor). It can be thus claimed that red emitting phosphors could be suitably used in digital imaging systems, where the Silicon (Si) based photodetectors are more sensitive to longer wavelength ranges, and particularly in the red wavelength range. / -
103

La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restoration

Nguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
104

Modélisation et suivi de l'éclairement et de l'albédo de surface à partir de données satellitaires : le cas du Tibet / Observing at-surface irradiance and albedo from space : the Tibet experiment

Roupioz, Laure 10 July 2015 (has links)
Le suivi journalier du bilan radiatif solaire est indispensable à l’étude des processus à l'interface sol-atmosphère, en particulier en climatologie et en hydrologie. Dans le cadre du projet CEOP-Aegis visant à étudier l'hydrologie du plateau du Tibet, cette thèse se concentre sur le développement d'une méthode permettant d’en estimer le bilan radiatif solaire de surface de façon quotidienne. Une série temporelle de flux radiatifs produite à partir de produits satellitaires existants met en évidence la nécessité d’intégrer la variabilité sous-pixel du terrain et des nuages pour les zones aussi hétérogènes que le Tibet. L’analyse de l’impact de la variabilité spatiale et temporelle des nuages sur le rayonnement solaire illustre le bénéfice lié à l’utilisation de la répartition des nuages plutôt que la fraction de nébulosité et l’importance d’une résolution temporelle élevée. Une méthode novatrice proposée pour la correction topographique sous-pixel montre que l’utilisation d’un modèle numérique de terrain à haute résolution spatiale améliore significativement l'estimation de l’éclairement ainsi que de l'albédo. Deux approches sont proposées pour améliorer l’estimation du bilan radiatif intégrant de manière adéquate l’hétérogénéité sous-pixel. / Monitoring the solar radiation budget on a daily basis is a prerequisite to study land surface processes, especially in climatology and hydrology. As part of the CEOP-Aegis project studying the hydrology of the Tibetan Plateau, this thesis focuses on developing a method to adequately estimate at-surface daily solar radiation budget over this particular area. A radiation budget time series produced based on existing satellite data products highlights the necessity to consider terrain and clouds sub-pixel variability when working over heterogeneous areas such as the Tibetan Plateau. The analysis of the impact of spatial and temporal variability of clouds on solar radiation demonstrates that the surface irradiance estimation would benefit from using cloud distribution instead of cloud fraction and the significance of high temporal resolution. A new sub-pixel topographic correction method is proposed and shows that using high resolution digital elevation model improves the irradiance as well as the albedo retrieval. Two approaches are proposed to improve solar radiation budget estimates taking into account adequately the sub-pixel heterogeneity.
105

Spatialisation des services écosystémiques en contexte de front pionnier amazonien : analyse critique d'un outil de la gestion environnementale / Mapping ecosystem services to analyze the human-nature relations in the context of the Amazonian pioneer front : critical analysis of an environmental management tool

Le Clec'h, Solen 20 October 2016 (has links)
Pour mettre en oeuvre les services écosystémiques, notion clé de la gestion environnementale, de plus en plus d’acteurs se tournent vers la quantification et la spatialisation. Par sa dimension opérationnelle qui semble être naturelle pour beaucoup d'acteurs, la cartographie des services écosystémiques est souvent considérée comme un outil déjà opérant et neutre. Or, la représentation cartographique implique des choix qui ne sont pas neutres. En soulevant des doutes et des limitations techniques, qui reflètent bien souvent des failles de la notion, la cartographie peut aussi être considéréecomme une manière d'analyser de façon critique la notion. Cette thèse vise ainsi à étudier l’outil cartographique appliqué aux services écosystémiques afin de comprendre son apport potentiel pour la gestion environnementale. Pour ce faire, elle analyse de manière critique la dimension méthodologique de la notion de services écosystémiques et de sa cartographie. En outre, elle cherche à favoriser la compréhension des liens entre pratiques anthropiques et l'état du milieu naturel, notamment en déterminant les facteurs de contrôle qui permettent de quantifier les services. Cette thèse s’appuie sur le cas des espaces de déforestation en Amazonie brésilienne où les modifications paysagères sont rapides et récentes. Apartir d’images satellites à haute et moyenne résolution spatiale et de relevés terrain, des méthodes statistiques sont appliquées afin de cartographier un ou plusieurs indicateurs de services. Les résultats obtenus permettent de comprendre la répartition et la structuration spatiale de ces indicateurs, en relation avec l'appropriation de l'espace par les exploitantsagricoles et avec les éléments structurels du territoire. Ils soulignent également les limitations et les enjeux sous-jacents à la notion de services écosystémiques et son impact sur leur mise en application. / To implement ecosystem services, key notion of environmental management, more and more actors have turned to quantification and mapping procedures. Because of its operational dimension that seems to be natural for many actors,ecosystem service mapping is often considered as an already operational and neutral tool. Yet, cartographical representation involves choices that are not neutral. Since mapping can raise doubts and technical limitations that often reflect in the notion itself, it can be seen as a way to critically analyze the notion. This thesis aims to study the mapping toolapplied to ecosystem services in order to understand their potential contribution to environmental management. To do so, it critically analyses the methodological dimension of the ecosystem service notion and its mapping. Furthermore, it aims topromote understanding of the relationships between human practices and the state of the natural environment, notably through the determination of factors of control that enable the quantification of ecosystem services. This thesis is based on the study case of deforestation areas in the Brazilian Amazon, where the landscape has been changing rapidly andrecently. Based on satellite images at high and moderate spatial resolution and on sampling data, statistical methods are implemented in order to map one or several indicators of ecosystem services. The results obtained allow the understanding of spatial repartition and the structure of these indicators, in connection with the way farmers use their land and the structural components of the territory. They also highlight the limitations and issues underlying the notion of ecosystem services and its implementation.
106

Αναγνώριση περιβάλλοντος χώρου μέσω συσσώρευσης φωτογραφιών για ρομποτικά οχήματα

Σαντζαρίδου, Χριστίνα 04 November 2014 (has links)
Αντικείμενο αυτής της διπλωματικής εργασίας είναι η εύρεση της θέσης ενός κινούμενου ρομπότ. Για το σκοπό αυτό, χρησιμοποιείται ένα στερεοσκοπικό σύστημα όμοιων καμερών (web-cameras) υπό γωνία μεταξύ τους. Κάθε μια εκ των 2 καμερών λαμβάνει μια ακολουθία φωτογραφιών σε κοινό χρόνο. Η εύρεση της θέσης γίνεται με τη μέθοδο της τριγωνοποίησης (triangulation), η οποία δίνει τις συντεταγμένες του κινούμενου αντικειμένου μέσω ομοίων τριγώνων που σχηματίζονται από τα 2 επίπεδα των φωτογραφιών (image planes), την ευθεία που ενώνει τα κέντρα των 2 καμερών καθώς και από το ίδιο το κινούμενο αντικείμενο. Ωστόσο, η γεωμετρική αυτή μέθοδος εφαρμόζεται σε φωτογραφίες που έχουν ληφθεί με παράλληλες κάμερες. Για τον λόγο αυτό, εφαρμόζεται η μέθοδος της διόρθωσης εικόνας (image rectification) η οποία μετασχηματίζει τις εικόνες έτσι ώστε να είναι σα να έχουν ληφθεί από παράλληλες κάμερες. Στη συνέχεια εντοπίζεται το κινούμενο αντικείμενο με μορφολογική επεξεργασία εικόνας, υπολογίζεται το κέντρο βάρους του και γίνεται η τριγωνοποίηση γεωμετρικά. Στην προαναφερθείσα διαδικασία, θεωρούνται γνωστά τα εσωτερικά στοιχεία των καμερών και η μεταξύ τους απόσταση. Επιπλέον, θεωρείται ότι όλος ο όγκος του ρομπότ αναπαρίσταται απο ένα σημείο P με συντεταγμένες (X,Y,Z) ως προς σύστημα συντεταγμένων με αρχή το κέντρο προβολής της αριστερής κάμερας. / The objective of this thesis is the position estimation of a moving robot. For this purpose, a stereoscopic system of two identical, non-parallel cameras has been used (web-cameras). Each of the two cameras takes a photo synchronized sequence. The position of the robot has been estimated with the method of triangulation, which computes the coordinates of the moving object via similar triangles formed by the two image planes, the straight line joining the centres of the cameras and by the moving object. However, triangulation is applicable to images acquired by parallel cameras. For this reason, the images have been rectified. Image rectification is a transformation process that is used to project two-or-more images onto a common image. Then, the moving object is detected with morphological image processing techniques, its centroid is calculated and finally triangulation has been applied. The intrinsic parameters of the cameras and the distance between them are known. Furthermore, we consider that the entire volume of the robot is represented by a point P with coordinates (X, Y, Z) with respect to the left camera coordinate system.
107

Medical image registration methods by mutual information / Μέθοδοι αντιστοίχισης ιατρικών εικόνων με χρήση αμοιβαίας πληροφορίας

Πήχης, Γιώργος 27 April 2009 (has links)
In this work were studied, implemented and evaluated two algorithms of image registration with two similarity metrics of mutual information. These were Viola-Wells Mutual Information [6],[7] and Mattes Mutual Information[11]. Materials and Methods: Two 3D MRI T1 and Τ2 brain images were used. The T1 image was rotated in all three axes , with the 27 possible triples of angles 0.25, 1.5 and 3 degrees and in the T2 image were added 3 Gaussian Noise Levels (1,3,5%). Thus were formed two experiments. The monomodal experiment which was registering the initial T1 image with its 27 rotated instances and the multimodal experiment which was registering the 4 T2 images (0,1,3,5% Gaussian Noise) with the 27 rotated T1 images. The registration framework had also a Regular Step Gradient Descent Optimizer, affine linear transformation and linear interpolator. After the 5 experimental set were registered with both algorithms, then in order for the results to be evaluated, 5 similarity metrics were used. These were: 1) Mean Square Difference 2) Correlation Coefficient 3) Joint Entropy 4) Normalized Mutual Information και 5) Entropy of the Difference Image. Finally t-test was applied, in order to find statistically significant differences. Results: Both algorithms had similar outcome, although the algorithm with Mattes Μutual Information metric, had a slightly improved performance. Statistically important differences were found in the t-test. Conclusions: The two methods should be tested more, using other kinds of transformation, and more data sets. / Σε αυτήν την εργασία μελετήθηκαν, υλοποιήθηκαν και αξιολογήθηκαν δύο αλγόριθμοι αντιστοίχισης ιατρικών εικόνων με δύο μετρικές ομοιότητας με χρήση κοινού πληροφορίας. Συγκεκριμένα η υλοποίηση Viola-Wells [6],[7] και η υλοποίηση Mattes[11]. Υλικά και Μέθοδος: Χρησιμοποιήθηκαν δύο εικόνες 3D MRI T1 και Τ2 που απεικόνιζαν εγκέφαλου. Η εικόνα Τ1 περιστράφηκε με τους 27 δυνατές συνδυασμούς των γωνιών 0.25,1.5,3 μοιρών , σε όλους τους άξονες και στην εικόνα Τ2 προστέθηκαν 3 επίπεδα Gaussian θορύβου (1,3,5%). Έτσι σχηματίστηκαν δύο πειράματα. Το μονο-απεικονιστικό πείραμα (Monomodal) που αντιστοιχούσε την αρχική Τ1 εικόνα με τα 27 περιστρεμμένα στιγμιότυπα της και το πολύ-απεικονιστικό (multimodal) που αντιστοιχούσε τις 4 Τ2 εικόνες (0,1,3,5% Gaussian Noise) με τα 27 περιστρεμμένα στιγμιότυπα της Τ1. Το σχήμα της αντιστοίχισης αποτελούνταν εκτός από τις δύο μετρικές ομοιότητας, από τον Regular Step Gradient Descent βελτιστοποιητή , συσχετισμένο (affine) γραμμικό μετασχηματισμό και γραμμικό interpolator. Αφού τα 5 σύνολα πειραμάτων ταυτίστηκαν και με τους 2 αλγορίθμους στην συνέχεια και προκειμένου να αξιολογηθεί το αποτέλεσμα της αντιστοίχισης, χρησιμοποιήθηκαν 5 μετρικές ομοιότητας. Αυτές ήταν : 1) Mean Square Difference 2) Correlation Coefficient 3) Joint Entropy 4) Normalized Mutual Information και 5) Entropy of the Difference Image. Τέλος εφαρμόστηκε και t-test προκειμένου να επιβεβαιωθούν στατιστικώς σημαντικές διαφορές. Αποτελέσματα: Και οι δύο αλγόριθμοι βρέθηκαν να έχουν παρόμοια συμπεριφορά, ωστόσο ο αλγόριθμος που χρησιμοποιούσε την Mattes Μutual Information μετρική ομοιότητας είχε καλύτερα αποτελέσματα. Στατιστικώς σημαντικές διαφορές επιβεβαιώθηκαν και από το t-test. Συμπέρασμα: Οι δύο μέθοδοι θα πρέπει να αξιολογηθούν χρησιμοποιώντας και άλλους μετασχηματισμούς, καθώς και διαφορετικά data set.
108

Μελέτη σύγχρονων τεχνικών επεξεργασίας και ανάλυσης οφθαλμιατρικών εικόνων και εικόνων video-βρογχοσκοπίου επεμβατικής πνευμονολογίας με ιδιέτερο κλινικό ενδιαφέρον / Methods for medical image processing from retina and from video-bronchoscopy with high clinical interest

Παπασταματόπουλος, Μιχαήλ 29 June 2007 (has links)
Στο πρώτο και δεύτερο κεφάλαιο γίνεται μια λεπτομερή ανάλυση της ανατομίας και φυσιολογίας του ανθρώπινου οφθαλμού ενώ στο τρίτο και τέταρτο γίνεται αναφορά στην ανατομία του βρογχικού δένδρου, μια εισαγωγή στην ένοια της επεμβατικής πνευμονολογίας καθώς και μια εκτενής ανάλυση για τις μεθόδους βρογχοσκόπισης με ιδιέταιρη έμφαση στην μεθόδο αυτοφθορισμού για την ανίχνευση πρώιμου πνευμονικού καρκίνου. Στο πέμπτο κεφάλαιο γίνεται μια εισαγωγή στην επεξεργασία ψηφιακής εικόνας. Γίνεται μια αναφορά στους τρόπους επεξεργασίας εικόνας, καταλήγοντας στην ειδική μέθοδο επεξεργασίας ψηφιακής εικόνας που είναι η τμηματοποίηση. Στο έκτο κεφάλαιο γίνεται ορισμός της τμηματοποίησης ψηφιακής εικόνας. Οι διάφορες μέθοδοι που αναλύονται εκτενώς είναι : 1. Εφαρμογή κατωφλίου 2. Ανίχνευση ασυνεχειών 3. Region-based τμηματοποίηση 4. Edge linking and boundary detection 5. Μορφολογικά watersheds Τελειώνοντας το έκτο κεφάλαιο γίνεται αναφορά σε εξειδικευμένες εφαρμογές σύγχρονων μεθόδων για οφθαλμιατρικές και εικόνες video-βρογχοσκοπίου. Ελπίζω να έχω αποδώσει σωστά το αντικείμενο της εργασίας ώστε να χρησιμοποιηθεί ως βοήθημα σε όποιον επιθυμεί να εμβαθύνει στους τόμεις που αναφέρομαι. Το πνεύμα της εργασίας είναι να οδηγήσει στην κατανόηση, όχι να διδάξει / The project can introduce us in the field of medical image processing. In the first and the second section there is a detailed reference about the anatomy and fusiology of the retina. In the third and fourth you can find information about bronchous anatomy and general methods for bronchoscopy. In the fifth there are several methods for image processing and especialy the segmentation method. In the sixth section there is an analysis of the segmentation method and finaly there are some examples of the above methods.
109

Εκτίμηση οπτικής ροής χρησιμοποιώντας υπερδειγματοληπτημένες ακολουθίες βίντεο

Κατσένου, Αγγελική 21 May 2008 (has links)
Ένα σημαντικό πρόβλημα στην επεξεργασία ακολουθιών βίντεο είναι η εκτίμηση της κίνησης μεταξύ διαδοχικών πλαισίων βίντεο, που συχνά αναφέρεται και σαν εκτίμηση οπτικής ροής. Η εκτίμηση της κίνησης βρίσκει εφαρμογή σε μια πληθώρα εφαρμογών βίντεο, όπως για παράδειγμα στη συμπίεση (video compression), στην τρισδιάστατη εκτίμηση της δομής επιφανειών (3-D surface structure estimation), στη σύνθεση εικόνων υψηλής ανάλυσης (super-resolution) και στην κατάτμηση βάσει της κίνησης (motion-based segmentation). Οι πρόσφατες εξελίξεις στην τεχνολογία των αισθητήρων επιτρέπoυν τη λήψη πλαισίων βίντεο με υψηλούς ρυθμούς. Στη διεθνή βιβλιογραφία έχουν παρουσιασθεί τεχνικές που εκμεταλλεύονται την ακριβέστερη απεικόνιση της οπτικής ροής στην υπερδειγματοληπτημένη ακολουθία πλαισίων επιτυγχάνοντας με αυτόν τον τρόπο καλύτερη εκτίμηση της κίνησης στους τυπικούς ρυθμούς δειγματοληψίας των 30 πλαισίων/δευτ. Η υπολογιστική πολυπλοκότητα, και επομένως, και η χρησιμότητα των τεχνικών αυτών σε εφαρμογές πραγματικού χρόνου εξαρτώνται άμεσα από την πολυπλοκότητα του αλγορίθμου αντιστοίχισης, που χρησιμοποιείται για την εκτίμηση κίνησης. Στα πλαίσια της εργασίας αυτής θα μελετήθηκαν και υλοποιήθηκαν μερικές από τις πιο πρόσφατες τεχνικές που έχουν προταθεί στη διεθνή βιβλιογραφία και αναπτύχθηκε μια αποδοτικότερη (από άποψη πολυπλοκότητας) τεχνική αντιστοίχησης, η οποία όμως συγχρόνως δεν υστερεί σε ακρίβεια. / A significant problem in video processing is the motion estimation between two adjacent video frames, which is often called optical flow estimation. The motion estimation is applicable for a number of different fields of interest like video compression, 3-D surface structure estimation, super-resolution images and motion based segmentation. Recent evolution of sensors’ technology has allowed the capture of video frames at high rates. Several techniques using these video sequences have been presented in recent scientific and technological publications. These techniques are exploiting the better representation and achieve more accurate optical flow estimation at the standard frame rate (30 frames per second). The computational complexity and the ease-of-use of those techniques is in accordance with the complexity of the matching algorithm used for motion estimation. Some of the state-of-the-art algorithms have been studied and implemented during this diploma thesis. Besides this, a more efficient and accurate matching technique has been proposed.
110

Ισοστάθμιση χρωματικών αποκλίσεων σε ψηφιακή φωτογραφία

Λιολιούσης, Μιχαήλ 19 January 2010 (has links)
Σκοπός αυτής της διπλωματικής εργασίας είναι να παρουσιαστούν μερικές από τις πιο αξιοσημείωτες τεχνικές για την Ισοστάθμιση των Χρωματικών Αποκλίσεων σε ψηφιακή φωτογραφία. Αρχικά δίνονται κάποια γενικά στοιχεία για την ψηφιακή φωτογραφία, τα χρωματικά μοντέλα και συγκεκριμένα το μοντέλο RGB, την ψηφιακή καταγραφή της εικόνας καθώς και οι στοιχειώδεις λειτουργίες της ανθρώπινης όρασης. Στο δεύτερο κεφάλαιο αναλύονται οι βασικές έννοιες της χρωματικής απόκλισης και παραθέτονται με ορισμούς και παραδείγματα τα δυο βασικά είδη χρωματικών αποκλίσεων που είναι η αξονική χρωματική απόκλιση (longitudinal or axial aberration) και η πλευρική χρωματική απόκλιση (transverse or lateral aberration). Το τρίτο κεφάλαιο είναι μια αναλυτική περιγραφή τριών μεθόδων ισοστάθμισης/περιορισμού των χρωματικών αποκλίσεων. Δίνεται η θεωρητική ανάλυση κάθε μιας, η περιγραφή της πειραματικής διαδικασίας που ακολουθείται καθώς επίσης και τα συμπεράσματα που προκύπτουν από την εφαρμογή τους. Τέλος, στο τέταρτο κεφάλαιο δίνονται δυο διαφορετικοί τύποι σχεδιασμού φακού Gauss, που αποβάλλουν αποτελεσματικά την αρχική χρωματική παρέκκλιση χρησιμοποιώντας έναν αποδοτικό γενετικό αλγόριθμο (GA). / Aim of this Diploma Thesis Project is to present the most remarkable techniques of the Compensation of Chromatic Aberrations appeared in digital images. Initially are given certain general elements for the digital photograph, the chromatic models and especially the RGB model, the digital imaging process and the elementary operations of the human sight system. In the second chapter the basic significations of chromatic aberrations are analysed. Also, definitions and examples support the two basic types of chromatic distortions that are the longitudinal or axial aberrations and the transverse or lateral aberrations. The third chapter is a complete description of three methods of the compensation of chromatic distortions. It is given the theoretical analysis for each one, the full description of the experimental process that is followed and the conclusions that result from their application. Finally, in the last chapter, two different types of Gauss lens design, which effectively eliminate primary chromatic aberration, are presented using an efficient genetic algorithm (GA).

Page generated in 0.0472 seconds