• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 184
  • 27
  • 10
  • 10
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 305
  • 305
  • 102
  • 92
  • 73
  • 55
  • 46
  • 45
  • 42
  • 40
  • 39
  • 31
  • 29
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Μέθοδοι βελτίωσης της χωρικής ανάλυσης ψηφιακής εικόνας

Παναγιωτοπούλου, Αντιγόνη 12 April 2010 (has links)
Η αντιμετώπιση της περιορισμένης χωρικής ανάλυσης των εικόνων, η οποία οφείλεται στους φυσικούς περιορισμούς που εμφανίζουν οι αισθητήρες σύλληψης εικόνας, αποτελεί το αντικείμενο μελέτης της παρούσας διδακτορικής διατριβής. Στη διατριβή αυτή αρχικά γίνεται προσπάθεια μοντελοποίησης της λειτουργίας του ψηφιοποιητή εικόνας κατά τη δημιουργία αντίγραφου ενός εγγράφου μέσω απλών μοντέλων. Στην εξομοίωση της λειτουργίας του ψηφιοποιητή, το προτεινόμενο μοντέλο θα πρέπει να προτιμηθεί έναντι των μοντέλων Gaussian και Cauchy, που συναντώνται στη βιβλιογραφία, καθώς είναι ισοδύναμο στην απόδοση, απλούστερο στην υλοποίηση και δεν παρουσιάζει εξάρτηση από συγκεκριμένα χαρακτηριστικά λειτουργίας του ψηφιοποιητή. Έπειτα, μορφοποιούνται νέες μέθοδοι για τη βελτίωση της χωρικής ανάλυσης σε εικόνες. Προτείνεται μέθοδος μη ομοιόμορφης παρεμβολής για ανακατασκευή εικόνας Super-Resolution (SR). Αποδεικνύεται πειραματικά πως η προτεινόμενη μέθοδος η οποία χρησιμοποιεί την παρεμβολή Kriging υπερτερεί της μεθόδου η οποία δημιουργεί το πλέγμα υψηλής ανάλυσης μέσω της σταθμισμένης παρεμβολής κοντινότερου γείτονα που αποτελεί συμβατική τεχνική. Επίσης, παρουσιάζονται τρεις νέες μέθοδοι για στοχαστική ανακατασκευή εικόνας SR regularized. Ο εκτιμητής Tukey σε συνδυασμό με το Bilateral Total Variation (BTV) regularization, ο εκτιμητής Lorentzian σε συνδυασμό με το BTV regularization και ο εκτιμητής Huber συνδυασμένος με το BTV regularization είναι οι τρεις μέθοδοι που προτείνονται. Μία πρόσθετη καινοτομία αποτελεί η απευθείας σύγκριση των τριών εκτιμητών Tukey, Lorentzian και Huber στην ανακατασκευή εικόνας super-resolution, άρα στην απόρριψη outliers. Η απόδοση των προτεινόμενων μεθόδων συγκρίνεται απευθείας με εκείνη μίας τεχνικής SR regularized που υπάρχει στη βιβλιογραφία, η οποία αποδεικνύεται κατώτερη. Σημειώνεται πως τα πειραματικά αποτελέσματα οδηγούν σε επαλήθευση της θεωρίας εύρωστης στατιστικής συμπεριφοράς. Επίσης, εκπονείται μία πρωτότυπη μελέτη σχετικά με την επίδραση που έχει κάθε ένας από τους όρους έκφρασης πιστότητας στα δεδομένα και regularization στη διαμόρφωση του αποτελέσματος της ανακατασκευής εικόνας SR. Τα συμπεράσματα που προκύπτουν βοηθούν στην επιλογή μίας αποτελεσματικής μεθόδου για ανακατασκευή εικόνας SR ανάμεσα σε διάφορες υποψήφιες μεθόδους για κάποια δεδομένη ακολουθία εικόνων χαμηλής ανάλυσης. Τέλος, προτείνεται μία μέθοδος παρεμβολής σε εικόνα μέσω νευρωνικού δικτύου. Χάρη στην προτεινόμενη τεχνική εκπαίδευσης το νευρωνικό δίκτυο μαθαίνει το point spread function του ψηφιοποιητή εικόνας. Τα πειραματικά αποτελέσματα αποδεικνύουν πως η προτεινόμενη μέθοδος υπερτερεί σε σχέση με τους κλασικούς αλγόριθμους δικυβικής παρεμβολής και παρεμβολής spline. Η τεχνική που προτείνεται εξετάζει για πρώτη φορά το ζήτημα της σειράς της παρουσίασης των δεδομένων εκπαίδευσης στην είσοδο του νευρωνικού δικτύου. / Coping with the limited spatial resolution of images, which is caused by the physical limitations of image sensors, is the objective of this thesis. Initially, an effort to model the scanner function when generating a document copy by means of simple models is made. In a task of scanner function simulation the proposed model should be preferred over the Gaussian and Cauchy models met in bibliography as it is equivalent in performance, simpler in implementation and does not present any dependence on certain scanner characteristics. Afterwards, new methods for improving images spatial resolution are formulated. A nonuniform interpolation method for Super-Resolution (SR) image reconstruction is proposed. Experimentation proves that the proposed method employing Kriging interpolation predominates over the method which creates the high-resolution grid by means of the weighted nearest neighbor interpolation that is a conventional interpolation technique. Also, three new methods for stochastic regularized SR image reconstruction are presented. The Tukey error norm in combination with the Bilateral Total Variation (BTV) regularization, the Lorentzian error norm in combination with the BTV regularization and the Huber error norm combined with the BTV regularization are the three proposed methods. An additional novelty is the direct comparison of the three estimators Tukey, Lorentzian and Huber in the task of super-resolution image reconstruction, thus in rejecting outliers. The performance of the proposed methods proves superior to that of a regularized SR technique met in bibliography. Experimental results verify the robust statistics theory. Moreover, a novel study which considers the effect of each one of the data-fidelity and regularization terms on the SR image reconstruction result is carried out. The conclusions reached help to select an effective SR image reconstruction method, among several potential ones, for a given low-resolution sequence of frames. Finally, an image interpolation method employing a neural network is proposed. The presented training procedure results in the network learning the scanner point spread function. Experimental results prove that the proposed technique predominates over the classical algorithms of bicubic and spline interpolation. The proposed method is novel as it treats, for the first time, the issue of the training data presentation order to the neural network input.
92

Αύξηση της χωρικής ανάλυσης για βελτίωση της ποιότητας των εικόνων (super resolution imaging)

Μπακούλιας, Κωνσταντίνος 20 April 2011 (has links)
Η επεξεργασία εικόνας πλέον είναι απαραίτητη σε ένα μεγάλο πεδίο εφαρμογών που χρησιμοποιούν εκατομμύρια χρήστες σε όλο τον κόσμο. Σίγουρα οι αισθητήρες σύλληψης της εικόνας έχουν βελτιωθεί κατά πολύ με την ραγδαία εξέλιξη που έχει ο χώρος των ηλεκτρονικών. Η ελαττωμένη χωρική ανάλυση των εικόνων οφείλεται στους περιορισμούς που εμφανίζουν οι αισθητήρες. Η αύξηση της χωρικής ανάλυσης είναι και το αντικείμενο της παρούσας εργασίας. Στην εργασία αυτή μελετήσαμε διάφορες τεχνικές με τις οποίες προσπαθούμε να αυξήσουμε την χωρική ανάλυση για να βελτιώσουμε την ποιότητα της εικόνας [1]. Η υλοποίηση της έγινε με την βοήθεια των εκτιμητών πυκνότητας πιθανότητας (Kernels). Ως συγκριτική μέθοδος χρησιμοποιήσαμε την συνάρτηση παρεμβολής του matlab (interp2) [8]. Επίσης, το μέσω τετραγωνικό σφάλμα ( Mean Square Error ) και ο μέγιστος λόγος σήματος προς θόρυβο ( Peak Signal to Noise Ratio ) είναι δύο από τους βασικούς τρόπους σύγκρισης της τεχνική μας με την μέθοδο παρεμβολής του matlab. Θα πρέπει να αναφέρουμε ότι τα αποτελέσματά μας αν και χρησιμοποιήσαμε στατιστικά πρώτης τάξης είναι ικανοποιητικά παραπλήσια της μεθόδου παρεμβολής του matlab. Ως σημείο αναφοράς της σύγκριση της τεχνική μας με την μέθοδο παρεμβολής του matlab είναι η αρχική εικόνα. Τέλος, στην προσπάθεια μας να βελτιώσουμε την τεχνική μας, δοκιμάσαμε και άλλες τεχνικές, οι οποίες θα περιγραφούν με λεπτομέρεια στην εργασία αυτή, τα αποτελέσματα των οποίων δεν ήταν τα επιθυμητά. / The image processing is now needed in a wide range of applications used by millions of users around the world. Certainly the design of image sensors have improved greatly with the rapid development that has an area of electronics. The reduced spatial resolution of images due to the limitations inherent in the sensors. Increased spatial resolution is the subject of this work. This thesis reviews various techniques that try to increase the spatial resolution to improve the image quality [1]. Driving done with the help of probability density estimators (Kernels). As a comparative method used the interpolation function of matlab (interp2) [8]. Also, the means square error (Mean Square Error) and the maximum signal to noise ratio (Peak Signal to Noise Ratio) are two basic ways of comparing our technique with the method of interpolation matlab. It should be mentioned that although our results using statistical first order is approaching a satisfactory method of interpolation matlab. As a benchmark comparison of our technique with the method of interpolation matlab is the original image. Finally, in our efforts to improve our technique, testing and other techniques, which will be described in detail in this work, the results of which were not desired.
93

Μέθοδοι σύνθεσης εικόνων υψηλής ανάλυσης από εικόνες χαμηλότερης ανάλυσης

Κλαρούδας, Ευάγγελος 23 May 2011 (has links)
Στα πλαίσια της διπλωματικής αυτής θα μελετηθεί το πρόβλημα της σύνθεσης εικόνας υψηλής ανάλυσης, χρησιμοποιώντας πολλαπλές εικόνες χαμηλότερης ανάλυσης. Η τεχνική αυτή προσφέρει την δυνατότητα μείωσης των αλλοιώσεων που υπεισέρχονται από τους αισθητήρες καταγραφής των εικόνων (θόρυβος,θόλωμα), την αύξηση της χωρικής ανάλυσης καθώς και την αύξηση του δυναμικού εύρους της εικόνας, ώστε να είναι εφικτή η μεγέθυνση της με ικανοποιητική ποιότητα. Υπάρχουν δύο κύριες κατηγορίες μεθόδων που θα μελετηθούν. Στην πρώτη κατηγορία εντάσσονται μεθόδοι που συνθέτουν μία εικόνα τρισδιάστατης φυσικής σκηνής από χαμηλότερες ανάλυσης εικόνες στις οποίες έχει αποτυπωθεί τμήμα της. Ο κύριος στόχος των μεθόδων αυτών είναι να υπολογιστούν οι μετασχηματισμοί ευθυγράμμισης των εικόνων εισόδου. Στην δεύτερη κατηγορία εντάσσονται στατιστικές μέθοδοι, που προσπαθούν να αυξήσουν την χωρική ανάλυση ή να βελτιώσουν το δυναμικό εύρος της εικόνας, με σκοπό την βέλτιστη δυνατή ανάκτηση της φυσικής σκηνής. Ο κύριος στόχος των μεθόδων που ανήκουν στην κατηγορία αυτή, είναι η βέλτιστη εκτίμηση των τιμών των εικονοστοιχείων. / This thesis investigates the inverse problem of Super Resolution. Super Resolution algorithms reduce the effects of noise and blurring and produce an image of superior quality. This quality ensures that when we zoom in the image, the image details are not lost. Super Resolution algorithms are separated into two categories. The first category studies algorithms which combine overlapping images of low resolution to produce a panoramic image of the scene. The second category contains algorithms which produce a high detailed image.
94

Non-Canonical Amino Acids as Minimal Tags for Investigating Protein Organization and Turnover

Gebura-Vreja, Ingrid-Cristiana 14 October 2015 (has links)
No description available.
95

Etude photophysique des protéines fluorescentes photoconvertibles utilisées en microscopie de super-résolution / Photophysical study of photoconvertible fluorescent proteins used as markers in super-resolution microscopy

Berardozzi, Romain 02 December 2016 (has links)
La microscopie de super-résolution PALM (microscopie de localisation après photo-activation) est un outil performant pour l'étude des cellules à l'échelle nanométrique. Dans ses applications avancées, la microscopie PALM permet l'étude quantitative et dynamique des objets et événements biologiques. Ces applications sont cependant limitées par le comportement photophysique complexe des protéines fluorescentes photoconvertibles vert à rouge (PCFPs) utilisées comme marqueurs. En particulier, les transitions répétées et stochastiques des PCFPs entre un état sombre et un état fluorescent (scintillement) ainsi que l'incomplétude de photoconversion compliquent l'extraction d'informations quantitatives.Nos travaux combinant cristallographie aux rayons X des protéines et microscopie de localisation ont permis de mettre en évidence le rôle central d'un acide aminé conservé au sein des PCFPs, l'arginine 66, dans le contrôle du scintillement et du photoblanchiment de la forme rouge de deux PCFPs populaires: mEos2 et Dendra2.D'autre part, des résultats préliminaires suggèrent que dans leur formes vertes et dans les conditions d'illumination classiques PALM, les PCFPs entrent dans un état sombre de long temps de vie ce qui ralentit la photoconversion.Nos résultats ouvrent la porte à la conception raisonnée de nouvelles PCFPs optimisées pour les applications quantitatives et dynamiques du PALM. / Super-resolution PALM microscopy (photoactivated localization microscopy) is a powerful tool to investigate the cells with nanoscopic accuracy. Advanced PALM microscopy allows to quantitatively and dynamically study biological objects and events. These applications are nevertheless limited by the complex photophysical behavior of the green-to-red photoconvertible fluorescent proteins (PCFPs) used as markers. In particular, PCFPs red forms repeated and stochastic transitions between a fluorescent and a dark state (blinking) as well as photoconversion uncompleteness complicate the extraction of quantitative information.Our study, by combining X-ray crystallography and localization microscopy, evidences that a single aminoacid well conserved among PCFPs, the arginine 66, controls the blinking and photobleaching behavior of two popular PCFPs: mEos2 and Dendra2.Preliminary results suggest that in their green forms and under PALM classical illumination conditions, PCFPs switch to a long-lived dark state resulting in a photoconversion slowing down.Our results open the door to future rational engineering of enhanced PCFPs for quantitative and dynamic PALM.
96

Synthetic Aperture Radar Image Formation Via Sparse Decomposition

January 2011 (has links)
abstract: Spotlight mode synthetic aperture radar (SAR) imaging involves a tomo- graphic reconstruction from projections, necessitating acquisition of large amounts of data in order to form a moderately sized image. Since typical SAR sensors are hosted on mobile platforms, it is common to have limitations on SAR data acquisi- tion, storage and communication that can lead to data corruption and a resulting degradation of image quality. It is convenient to consider corrupted samples as missing, creating a sparsely sampled aperture. A sparse aperture would also result from compressive sensing, which is a very attractive concept for data intensive sen- sors such as SAR. Recent developments in sparse decomposition algorithms can be applied to the problem of SAR image formation from a sparsely sampled aperture. Two modified sparse decomposition algorithms are developed, based on well known existing algorithms, modified to be practical in application on modest computa- tional resources. The two algorithms are demonstrated on real-world SAR images. Algorithm performance with respect to super-resolution, noise, coherent speckle and target/clutter decomposition is explored. These algorithms yield more accu- rate image reconstruction from sparsely sampled apertures than classical spectral estimators. At the current state of development, sparse image reconstruction using these two algorithms require about two orders of magnitude greater processing time than classical SAR image formation. / Dissertation/Thesis / M.S. Electrical Engineering 2011
97

Efficient Perceptual Super-Resolution

January 2011 (has links)
abstract: Super-Resolution (SR) techniques are widely developed to increase image resolution by fusing several Low-Resolution (LR) images of the same scene to overcome sensor hardware limitations and reduce media impairments in a cost-effective manner. When choosing a solution for the SR problem, there is always a trade-off between computational efficiency and High-Resolution (HR) image quality. Existing SR approaches suffer from extremely high computational requirements due to the high number of unknowns to be estimated in the solution of the SR inverse problem. This thesis proposes efficient iterative SR techniques based on Visual Attention (VA) and perceptual modeling of the human visual system. In the first part of this thesis, an efficient ATtentive-SELective Perceptual-based (AT-SELP) SR framework is presented, where only a subset of perceptually significant active pixels is selected for processing by the SR algorithm based on a local contrast sensitivity threshold model and a proposed low complexity saliency detector. The proposed saliency detector utilizes a probability of detection rule inspired by concepts of luminance masking and visual attention. The second part of this thesis further enhances on the efficiency of selective SR approaches by presenting an ATtentive (AT) SR framework that is completely driven by VA region detectors. Additionally, different VA techniques that combine several low-level features, such as center-surround differences in intensity and orientation, patch luminance and contrast, bandpass outputs of patch luminance and contrast, and difference of Gaussians of luminance intensity are integrated and analyzed to illustrate the effectiveness of the proposed selective SR frameworks. The proposed AT-SELP SR and AT-SR frameworks proved to be flexible by integrating a Maximum A Posteriori (MAP)-based SR algorithm as well as a fast two-stage Fusion-Restoration (FR) SR estimator. By adopting the proposed selective SR frameworks, simulation results show significant reduction on average in computational complexity with comparable visual quality in terms of quantitative metrics such as PSNR, SNR or MAE gains, and subjective assessment. The third part of this thesis proposes a Perceptually Weighted (WP) SR technique that incorporates unequal weighting parameters in the cost function of iterative SR problems. The proposed approach is inspired by the unequal processing of the Human Visual System (HVS) to different local image features in an image. Simulation results show an enhanced reconstruction quality and faster convergence rates when applied to the MAP-based and FR-based SR schemes. / Dissertation/Thesis / Ph.D. Electrical Engineering 2011
98

Development of Nanobodies to Image Synaptic Proteins in Super-Resolution Microscopy

Maidorn, Manuel 15 November 2017 (has links)
No description available.
99

Inverse problems in medical ultrasound images - applications to image deconvolution, segmentation and super-resolution / Problèmes inverses en imagerie ultrasonore - applications déconvolution image, ségmentation et super résolution

Zhao, Ningning 20 October 2016 (has links)
L'imagerie ultrasonore est une modalité d'acquisition privilégiée en imagerie médicale en raison de son innocuité, sa simplicité d'utilisation et son coût modéré d'utilisation. Néanmoins, la résolution limitée et le faible contraste limitent son utilisation dans certaines d'applications. C'est dans ce contexte que différentes techniques de post-traitement visant à améliorer la qualité de telles images sont proposées dans ce manuscrit. Dans un premier temps, nous proposons d'aborder le problème conjoint de la déconvolution et de la segmentation d'images ultrasonores en exploitant l'interaction entre ces deux problèmes. Le problème, énoncé dans un cadre bayésien, est résolu à l'aide d'un algorithme MCMC en raison de la complexité de la loi a posteriori des paramètres d'intérêt. Dans un second temps, nous proposons une nouvelle méthode rapide de super-résolution fondée sur la résolution analytique d'un problème de minimisation l2-l2. Il convient de remarquer que les deux approches proposées peuvent être appliquées aussi bien à des images ultrasonores qu'à des images naturelles ou constantes par morceaux. Enfin, nous proposons une méthode de déconvolution aveugle basée sur un modèle paramétrique de la réponse impulsionelle de l'instrument ou du noyau de flou. / In the field of medical image analysis, ultrasound is a core imaging modality employed due to its real time and easy-to-use nature, its non-ionizing and low cost characteristics. Ultrasound imaging is used in numerous clinical applications, such as fetus monitoring, diagnosis of cardiac diseases, flow estimation, etc. Classical applications in ultrasound imaging involve tissue characterization, tissue motion estimation or image quality enhancement (contrast, resolution, signal to noise ratio). However, one of the major problems with ultrasound images, is the presence of noise, having the form of a granular pattern, called speckle. The speckle noise in ultrasound images leads to the relative poor image qualities compared with other medical image modalities, which limits the applications of medical ultrasound imaging. In order to better understand and analyze ultrasound images, several device-based techniques have been developed during last 20 years. The object of this PhD thesis is to propose new image processing methods allowing us to improve ultrasound image quality using postprocessing techniques. First, we propose a Bayesian method for joint deconvolution and segmentation of ultrasound images based on their tight relationship. The problem is formulated as an inverse problem that is solved within a Bayesian framework. Due to the intractability of the posterior distribution associated with the proposed Bayesian model, we investigate a Markov chain Monte Carlo (MCMC) technique which generates samples distributed according to the posterior and use these samples to build estimators of the ultrasound image. In a second step, we propose a fast single image super-resolution framework using a new analytical solution to the l2-l2 problems (i.e., $\ell_2$-norm regularized quadratic problems), which is applicable for both medical ultrasound images and piecewise/ natural images. In a third step, blind deconvolution of ultrasound images is studied by considering the following two strategies: i) A Gaussian prior for the PSF is proposed in a Bayesian framework. ii) An alternating optimization method is explored for blind deconvolution of ultrasound.
100

Digital holography and optical contouring

Li, Yan January 2009 (has links)
Digital holography is a technique for the recording of holograms via CCD/CMOS devices and enables their subsequent numerical reconstruction within computers, thus avoiding the photographic processes that are used in optical holography. This thesis investigates the various techniques which have been developed for digital holography. It develops and successfully demonstrates a number of refinements and additions in order to enhance the performance of the method and extend its applicability. The thesis contributes to both the experimental and numerical analysis aspects of digital holography. Regarding experimental work: the thesis includes a comprehensive review and critique of the experimental arrangements used by other workers and actually implements and investigates a number of these in order to compare performance. Enhancements to these existing methods are proposed, and new methods developed, aimed at addressing some of the perceived short-comings of the method. Regarding the experimental aspects, the thesis specifically develops:• Super-resolution methods, introduced in order to restore the spatial frequencies that are lost or degraded during the hologram recording process, a problem which is caused by the limited resolution of CCD/CMOS devices.• Arrangements for combating problems in digital holography such as: dominance of the zero order term, the twin image problem and excessive speckle noise.• Fibre-based systems linked to tunable lasers, including a comprehensive analysis of the effects of: signal attenuation, noise and laser instability within such systems.• Two-source arrangements for contouring, including investigating the limitations on achievable accuracy with such systems. Regarding the numerical processing, the thesis focuses on three main areas. Firstly, the numerical calculation of the Fresnel-Kirchhoff integral, which is of vital importance in performing the numerical reconstruction of digital holograms. The Fresnel approximation and the convolution approach are the two most common methods used to perform numerical reconstruction. The results produced by these two methods for both simulated holograms and real holograms, created using our experimental systems, are presented and discussed. Secondly, the problems of the zero order term, twin image and speckle noise are tackled from a numerical processing point of view, complementing the experimental attack on these problems. A digital filtering method is proposed for use with reflective macroscopic objects, in order to suppress both the zero-order term and the twin image. Thirdly, for the two-source contouring technique, the following issues have been discussed and thoroughly analysed: the effects of the linear factor, the use of noise reduction filters, different phase unwrapping algorithms, the application of the super-resolution method, and errors in the illumination angle. Practical 3D measurement of a real object, of known geometry, is used as a benchmark for the accuracy improvements achievable via the use of these digital signal processing techniques within the numerical reconstruction stage. The thesis closes by seeking to draw practical conclusions from both the experimental and numerical aspects of the investigation, which it is hoped will be of value to those aiming to use digital holography as a metrology tool.

Page generated in 0.1485 seconds