Spelling suggestions: "subject:"super résolution"" "subject:"kuper résolution""
11 |
Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TVAbboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
|
12 |
Enregistrement optique haute densité : étude physique et physico-chimique du phénomène de Super-RésolutionPichon, Joseph 25 September 2008 (has links) (PDF)
Ce travail de thèse s'inscrit dans la thématique du stockage de données sur disques optiques haute densité. Il porte plus précisément sur une technologie visant à accroître la capacité des disques optiques, fondée sur l'emploi de techniques dites de Super-Résolution. Ces disques, qui comprennent des informations théoriquement trop petites pour être détectables, peuvent néanmoins être lus si leurs propriétés optiques varient localement sous l'influence du faisceau laser de lecture. Nous avons mis en évidence ce phénomène dans cette thèse, en insérant unempilements actif de couchesminces au coeur des disques. En particulier, nous avons montré que l'introduction d'une couche mince du matériau semiconducteur InSb permet de doubler la densité des disques optiques au format Blu-Ray, portant ainsi leur capacité à 46 Go. Nous avons également montré, par le biais de caractérisations optiques statiques, que la réflectivité de ce matériau augmente de manière réversible et reproductible sous excitation laser intense. Nous avons évalué l'importance de la thermique dans les mécanismes physiques et physico-chimiques associés à ces variations de propriétés optiques et avons réalisé une modélisation thermo-optique de l'évolution transitoire de la réflectivité des empilements actifs, fondée sur la variation des propriétés optiques de InSb avec la température.
|
13 |
Etude photophysique des protéines fluorescentes photoconvertibles utilisées en microscopie de super-résolution / Photophysical study of photoconvertible fluorescent proteins used as markers in super-resolution microscopyBerardozzi, Romain 02 December 2016 (has links)
La microscopie de super-résolution PALM (microscopie de localisation après photo-activation) est un outil performant pour l'étude des cellules à l'échelle nanométrique. Dans ses applications avancées, la microscopie PALM permet l'étude quantitative et dynamique des objets et événements biologiques. Ces applications sont cependant limitées par le comportement photophysique complexe des protéines fluorescentes photoconvertibles vert à rouge (PCFPs) utilisées comme marqueurs. En particulier, les transitions répétées et stochastiques des PCFPs entre un état sombre et un état fluorescent (scintillement) ainsi que l'incomplétude de photoconversion compliquent l'extraction d'informations quantitatives.Nos travaux combinant cristallographie aux rayons X des protéines et microscopie de localisation ont permis de mettre en évidence le rôle central d'un acide aminé conservé au sein des PCFPs, l'arginine 66, dans le contrôle du scintillement et du photoblanchiment de la forme rouge de deux PCFPs populaires: mEos2 et Dendra2.D'autre part, des résultats préliminaires suggèrent que dans leur formes vertes et dans les conditions d'illumination classiques PALM, les PCFPs entrent dans un état sombre de long temps de vie ce qui ralentit la photoconversion.Nos résultats ouvrent la porte à la conception raisonnée de nouvelles PCFPs optimisées pour les applications quantitatives et dynamiques du PALM. / Super-resolution PALM microscopy (photoactivated localization microscopy) is a powerful tool to investigate the cells with nanoscopic accuracy. Advanced PALM microscopy allows to quantitatively and dynamically study biological objects and events. These applications are nevertheless limited by the complex photophysical behavior of the green-to-red photoconvertible fluorescent proteins (PCFPs) used as markers. In particular, PCFPs red forms repeated and stochastic transitions between a fluorescent and a dark state (blinking) as well as photoconversion uncompleteness complicate the extraction of quantitative information.Our study, by combining X-ray crystallography and localization microscopy, evidences that a single aminoacid well conserved among PCFPs, the arginine 66, controls the blinking and photobleaching behavior of two popular PCFPs: mEos2 and Dendra2.Preliminary results suggest that in their green forms and under PALM classical illumination conditions, PCFPs switch to a long-lived dark state resulting in a photoconversion slowing down.Our results open the door to future rational engineering of enhanced PCFPs for quantitative and dynamic PALM.
|
14 |
Inverse problems in medical ultrasound images - applications to image deconvolution, segmentation and super-resolution / Problèmes inverses en imagerie ultrasonore - applications déconvolution image, ségmentation et super résolutionZhao, Ningning 20 October 2016 (has links)
L'imagerie ultrasonore est une modalité d'acquisition privilégiée en imagerie médicale en raison de son innocuité, sa simplicité d'utilisation et son coût modéré d'utilisation. Néanmoins, la résolution limitée et le faible contraste limitent son utilisation dans certaines d'applications. C'est dans ce contexte que différentes techniques de post-traitement visant à améliorer la qualité de telles images sont proposées dans ce manuscrit. Dans un premier temps, nous proposons d'aborder le problème conjoint de la déconvolution et de la segmentation d'images ultrasonores en exploitant l'interaction entre ces deux problèmes. Le problème, énoncé dans un cadre bayésien, est résolu à l'aide d'un algorithme MCMC en raison de la complexité de la loi a posteriori des paramètres d'intérêt. Dans un second temps, nous proposons une nouvelle méthode rapide de super-résolution fondée sur la résolution analytique d'un problème de minimisation l2-l2. Il convient de remarquer que les deux approches proposées peuvent être appliquées aussi bien à des images ultrasonores qu'à des images naturelles ou constantes par morceaux. Enfin, nous proposons une méthode de déconvolution aveugle basée sur un modèle paramétrique de la réponse impulsionelle de l'instrument ou du noyau de flou. / In the field of medical image analysis, ultrasound is a core imaging modality employed due to its real time and easy-to-use nature, its non-ionizing and low cost characteristics. Ultrasound imaging is used in numerous clinical applications, such as fetus monitoring, diagnosis of cardiac diseases, flow estimation, etc. Classical applications in ultrasound imaging involve tissue characterization, tissue motion estimation or image quality enhancement (contrast, resolution, signal to noise ratio). However, one of the major problems with ultrasound images, is the presence of noise, having the form of a granular pattern, called speckle. The speckle noise in ultrasound images leads to the relative poor image qualities compared with other medical image modalities, which limits the applications of medical ultrasound imaging. In order to better understand and analyze ultrasound images, several device-based techniques have been developed during last 20 years. The object of this PhD thesis is to propose new image processing methods allowing us to improve ultrasound image quality using postprocessing techniques. First, we propose a Bayesian method for joint deconvolution and segmentation of ultrasound images based on their tight relationship. The problem is formulated as an inverse problem that is solved within a Bayesian framework. Due to the intractability of the posterior distribution associated with the proposed Bayesian model, we investigate a Markov chain Monte Carlo (MCMC) technique which generates samples distributed according to the posterior and use these samples to build estimators of the ultrasound image. In a second step, we propose a fast single image super-resolution framework using a new analytical solution to the l2-l2 problems (i.e., $\ell_2$-norm regularized quadratic problems), which is applicable for both medical ultrasound images and piecewise/ natural images. In a third step, blind deconvolution of ultrasound images is studied by considering the following two strategies: i) A Gaussian prior for the PSF is proposed in a Bayesian framework. ii) An alternating optimization method is explored for blind deconvolution of ultrasound.
|
15 |
α-subunit dependent regulation of GlyR function and dynamics by IL-1β and PKA in spinal cord neurons / La régulation de GlyR dépend de la sous-unité alpha fonction et dynamique de IL-1β et PKA dans les neurones de la moelle épinièrePatrizio, Angela 23 September 2016 (has links)
Différentes études précédentes ont démontré que IL-1β et PKA peuvent réduire la transmission synaptique inhibitrice dans la LAMINA II de la moelle épinière, en contribuent de cette manière au développement de douleur chronique de tipe inflammatoire. Au niveau des sites post-synaptiques, les changements dans la transmission synaptique (par exemple suivant le relâchement de IL-1β ou après l’activation de PKA), reflètent donc des changements dans les propriétés et/ou dans le nombre des molécules présentes au niveau de la synapse. Au cours de mon doctorat, j’ai pu profiter des techniques basés sur l’imagerie des molécules uniques afin d’étudier les effets de PKA et IL-1β sur la dynamiques et le nombre absolu de GlyR dans les synapses de la moelle épinière. Mes résultats ont montré que PKA et Il-1β peuvent déplacer les GlyR des sites inhibitoires post-synaptiques ciblent différentes sous-unités α du récepteur de la glycine. Comme les sous-unités GlyRα ne se lient pas directement à la géphyrine, ces effets sont vraisemblablement le résultat d’un changement de conformation du GlyR dépendant de la sous-unité. Pendant mon projet, j’ai utilisé la technique de microscopie de super-résolution PALM pour développer une méthode pour déterminer la stœchiométrie des GlyR et le nombre absolu de récepteurs et des molécules d’échafaudage au niveau des synapse de la moelle épinière. Mes résultats décrivent que les GlyR se composent de 3 sous-unités α et de 2 sous-unités β, et proposent qu’une synapse de la moelle épinière contient en moyenne 80 GlyR et 250 molécules de géphyrine. Ces résultats sont essentiels pour mettre en relation l’ampleur des mécanismes de régulation et de plasticité agissant sur la transmission synaptique, avec les changements en nombre de molécules présentes dans les synapses de la moelle épinière. Sur la base de mes découvertes on pourra maintenant étudier les mécanismes structuraux impliqués dans la régulation de la fonction et la dynamique des GlyR dépendantes des sous-unités α que j’ai démontré. / IL-1β and PKA impair glycine receptor-mediated synaptic transmission in the lamina II of the spinal cord, contributing to the development of inflammatory types of chronic pain. At post-synaptic sites, the strength of synaptic transmission depends on the biophysical properties and on the absolute number of receptors expressed. Consequently, changes in synaptic transmission (i.e. following the release of IL-1β or the activation of PKA), reflect changes in the properties and/or number of molecules present at the synapse. During my PhD I have taken advantage of single-molecule based imaging techniques to study the effects of IL-1β and PKA on the dynamics and absolute numbers of GlyRs at spinal cord synapses.My results show for the first time that both Il-1β and PKA displace GlyRs from inhibitory post-synaptic sites, targeting different α-subunit of GlyRs. Specifically, IL-1β reduces GlyR α-containing receptors at spinal cord synapse, whereas PKA affects GlyR α3L subunit. Given that the GlyR α subunits do not bind to the gephyrin scaffold, these effects likely reflect an α-subunit dependent change in GlyR conformation that decreases the affinity of the GlyR subunits for gephryrin. Glycine receptors are composed of α- and β- subunits that assemble into heteropentameric complexes with an unclear stoichiometry. Using super resolution PALM microscopy I have developed a single-molecule counting approach to determine the stoichiometry of GlyRs and the absolute number of receptor and scaffold molecules at spinal cord synapses. According to my results GlyRs is composed by 3 α and 2 β-subunits, and an average spinal cord synapse contains around 80 GlyRs and 250 scaffold molecules. These data are fundamental to relate the magnitude of regulatory and plasticity mechanisms acting on glycinergic transmission, with quantitative changes in molecule numbers at spinal cord synapses. My research has shown how absolute quantitative approaches can help achieve a more detailed insight into the organization of complex molecular assemblies and their dynamic regulation.
|
16 |
Super résolution de texture pour la reconstruction 3D fine / Texture Super Resolution for 3D ReconstructionBurns, Calum 23 March 2018 (has links)
La reconstruction 3D multi-vue atteint désormais un niveau de maturité industrielle : des utilisateurs non-experts peuvent produire des modèles 3D large-échelle de qualité à l'aide de logiciels commerciaux. Ces reconstructions utilisent des capteurs haut de gamme comme des LIDAR ou des appareils photos de type DSLR, montés sur un trépied et déplacés autour de la scène. Ces protocoles d'acquisition sont mal adaptés à l’inspection d’infrastructures de grande taille, à géométrie complexe. Avec l'évolution rapide des capacités des micro-drones, il devient envisageable de leur confier ce type de tâche. Un tel choix modifie les données d’acquisition : on passe d’un ensemble restreint de photos de qualité, soigneusement acquises par l’opérateur, à une séquence d'images à cadence vidéo, sujette à des variations de qualité image dues, par exemple, au bougé et au défocus.Les données vidéo posent problème aux logiciels de photogrammétrie du fait de la combinatoire élevée engendrée par le grand nombre d’images. Nous proposons d’exploiter l’intégralité des images en deux étapes. Au cours de la première, la reconstruction 3D est obtenue en sous-échantillonnant temporellement la séquence, lors de la seconde, la restitution haute résolution de texture est obtenue en exploitant l'ensemble des images. L'intérêt de la texture est de permettre de visualiser des détails fins du modèle numérisé qui ont été perdus dans le bruit géométrique de la reconstruction. Cette augmentation de qualité se fait via des techniques de Super Résolution (SR).Pour atteindre cet objectif nous avons conçu et réalisé une chaîne algorithmique prenant, en entrée, la séquence vidéo acquise et fournissant, en sortie, un modèle 3D de la scène avec une texture sur-résolue. Cette chaîne est construite autour d’un algorithme de reconstruction 3D multi-vues de l’état de l’art pour la partie géométrique.Une contribution centrale de notre chaîne est la méthode de recalage employée afin d’atteindre la précision sub-pixellique requise pour la SR. Contrairement aux données classiquement utilisées en SR, nos prises de vues sont affectées par un mouvement 3D, face à une scène à géométrie 3D, ce qui entraîne des mouvements image complexes. La précision intrinsèque des méthodes de reconstruction 3D est insuffisante pour effectuer un recalage purement géométrique, ainsi nous appliquons un raffinement supplémentaire par flot optique. Le résultat de cette méthode de restitution de texture SR est d'abord comparée qualitativement à une approche concurrente de l’état de l’art.Ces appréciations qualitatives sont renforcées par une évaluation quantitative de qualité image. Nous avons à cet effet élaboré un protocole d’évaluation quantitatif de techniques de SR appliquées sur des surfaces 3D. Il est fondé sur l'utilisation de mires fractales binaires, initialement proposées par S. Landeau. Nous avons étendu ces idées au contexte de SR sur des surfaces courbes. Cette méthode est employée ici pour valider les choix de notre méthode de SR, mais elle s'applique à l'évaluation de toute texturation de modèle 3D.Enfin, les surfaces spéculaires présentes dans les scènes induisent des artefacts au niveau des résultats de SR en raison de la perte de photoconsistence des pixels au travers des images à fusionner. Pour traiter ce problème nous avons proposé deux méthodes correctives permettant de recaler photométriquement nos images et restaurer la photoconsistence. La première méthode est basée sur une modélisation des phénomènes d’illumination dans un cas d'usage particulier, la seconde repose sur une égalisation photométrique locale. Les deux méthodes testées sur des données polluées par une illumination variable s'avèrent effectivement capables d'éliminer les artefacts. / Multi-view 3D reconstruction techniques have reached industrial level maturity : non-expert users are now able to use commercial software to produce quality, large scale, 3D models. These reconstructions use top of the line sensors such as LIDAR or DSLR cameras, mounted on tripods and moved around the scene. Such protocols are not designed to efficiently inspect large infrastructures with complex geometry. As the capabilities of micro-drones progress at a fast rate, it is becoming possible to delegate such tasks to them. This choice induces changes in the acquired data : rather than a set of carefully acquired images, micro-drones will produce a video sequence with varying image quality, due to such flaws as motion blur and defocus. Processing video data is challenging for photogrammetry software, due to the high combinatorial cost induced by the large number of images. We use the full image sequence in two steps. Firstly, a 3D reconstruction is obtained using a temporal sub-sampling of the data, then a high resolution texture is built from the full sequence. Texture allows the inspector to visualize small details that may be lost in the noise of the geometric reconstruction. We apply Super Resolution techniques to achieve texture quality augmentation. To reach this goal we developed an algorithmic pipeline that processes the video input and outputs a 3D model of the scene with super resolved texture. This pipeline uses a state of the art 3D reconstruction software for the geometric reconstruction step. The main contribution of this pipeline is the image registration method used to achieve the sub-pixel accuracy required for Super Resolution. Unlike the data on which Super Resolution is generally applied, our viewpoints are subject to relative 3D motion and are facing a scene with 3D geometry, which makes the motion field all the more complex. The intrinsic precision of current 3D reconstruction algorithms is insufficient to perform a purely geometric registration. Instead we refine the geometric registration with an optical flow algorithm. This approach is qualitatively to a competing state of the art method. qualitative comparisons are reinforced by a quantitative evaluation of the resulting image quality. For this we developed a quantitative evaluation protocol of Super Resolution techniques applied to 3D surfaces. This method is based on the Binary Fractal Targets proposed by S. Landeau. We extended these ideas to the context of curved surfaces. This method has been used to validate our choice of Super Resolution algorithm. Finally, specularities present on the scene surfaces induce artefacts in our Super Resolution results, due to the loss of photoconsistency among the set of images to be fused. To address this problem we propose two corrective methods designed to achieve photometric registration of our images and restore photoconsistency. The first method is based on a model of the illumination phenomena, valid in a specific setting, the second relies on local photometric equalization among the images. When tested on data polluted by varying illumination, both methods were able to eliminate these artefacts.
|
17 |
Three-dimensional and multicolour approaches in super-resolution fluorescence microscopy for biology / Approches tri-dimensionnelles et multicolores en microscopie de fluorescence super-résolue pour la biologieCabriel, Clément 12 July 2019 (has links)
Pour analyser la structure et la dynamique des échantillons, la biologie cellulaire repose sur l'utilisation d'outils d'imagerie. En particulier, la microscopie de fluorescence offre une grande spécificité et une toxicité réduite. L'émergence récente des méthodes de super-résolution a permis d'outrepasser la limite de diffraction et ouvert de nouvelles perspectives d'études. Les stratégies de molécule unique sont particulièrement adaptées à l'imagerie nanométrique tridimensionnelle, et permettent de nombreux couplages avec des modalités complémentaires ; toutefois, leur manque de reproductibilité entrave leur généralisation.Nous proposons ici de nouvelles méthodes dans le but de remédier à ces problèmes en facilitant leur application en biologie cellulaire, en chimie et en science des matériaux. Tout d'abord, nous présentons des protocoles et échantillons dédiés aux acquisitions de calibration et de mesure de performances. Nous décrivons également plusieurs exemples d'utilisation de super-localisation tridimensionnelle dans le cadre d'études d'adhésion cellulaire et de résistance bactérienne.Ensuite, nous nous concentrons au développement d'une nouvelle méthode de microscopie de localisation de molécules uniques tri-dimensionnelle permettant l'élimination de biais de détection. Ceci est permis par le couplage entre deux stratégies complémentaires: la mise en forme de fonction d'étalement de point, et la détection de la fluorescence d'angle super-critique. L'intercorrélation et la recombinaison des informations latérales et axiales permet l'obtention d'une résolution quasi-isotrope, avec des précisions jusqu'à 15 nanomètres sur une plage de capture d'un micron. Nous mettons en évidence l'insensibilité de la méthode aux biais d'imagerie comme la dérive axiale, l'aberration chromatique et l'inclinaison de l'échantillon, et nous l'illustrons à travers des applications à la neurobiologie et au marquage de bactéries.Pour finir, nous présentons deux nouvelles approches pour le découplage d'acquisitions multi-espèces simultanées. Toutes deux basées entièrement sur le post-traitement des données acquises, elles exploitent respectivement la mesure des tailles des taches et le comportement dynamique du clignotement. Après une preuve de principe, nous évaluons l'impact des différents paramètres susceptibles d'influencer les résultats. Nous concluons en proposant des pistes d'amélioration des performances de découplage, et en suggérant de possibles couplages avec des méthodes complémentaires en imagerie de molécules uniques. / Cell biology relies on imaging tools to provide structural and dynamic information about samples. Among them, fluorescence microscopy offers a compromise between high specificity and low toxicity. Recently, super-resolution methods overcame the diffraction barrier to unlock new fields of investigation. Single molecule approaches prove especially useful for three-dimensional nanoscale imaging, and allow couplings between different detection modalities. Still, their use is hindered by the complexity of the methods as well as the lack of reproducibility between experiments.We propose new methods to render super-localisation microscopy more easily applicable to relevant studies in cell biology, chemistry and material science. First, we introduce dedicated protocols and samples to eliminate sources of error in calibration and performance measurement acquisitions. We also provide examples of uses of three-dimensional super-localisation for state-of-the-art studies in the frameworks of cell adhesion and bacterial resistance to drugs.Then, we focus on the development of a novel optical method that provides unbiased results in three-dimensional single molecule localisation microscopy. This is achieved through the combination of two complementary axial detection strategies: point spread function shaping on the one hand, and supercritical angle fluorescence detection on the other hand. By cross-correlating and merging the lateral and axial positions provided by the different sources, we achieve quasi-isotropic localisation precisions down to 15 nanometres over a 1-micrometre capture range. We demonstrate the insensibility of the method to imaging non-idealities such as axial drift, chromatic aberration and sample tilt, and we propose applications in neurobiology and bacteria labelling.Finally, we introduce two new post-processing approaches for the demixing of simultaneous multi-species acquisitions. They are based respectively on the measurement of the spot sizes, and on the assessment of the dynamic blinking behaviour of molecules. After demonstrating a proof of principle, we assess the impact of the different parameters likely to influence the results. Eventually, we discuss leads to improve the demixing performances, and we discuss the coupling possibilities with complementary single molecule localisation techniques.
|
18 |
Co-conception des systemes optiques avec masques de phase pour l'augmentation de la profondeur du champ : evaluation du performance et contribution de la super-résolution / Co-design of optical systems with phase masks for depth of field extension : performance evaluation and contribution of superresolutionFalcon Maimone, Rafael 19 October 2017 (has links)
Les masques de phase sont des dispositifs réfractifs situés généralement au niveau de la pupille d’un système optique pour en modifier la réponse impulsionnelle (PSF en anglais), par une technique habituellement connue sous le nom de codage de front d’onde. Ces masques peuvent être utilisés pour augmenter la profondeur du champ (DoF en anglais) des systèmes d’imagerie sans diminuer la quantité de lumière qui entre dans le système, en produisant une PSF ayant une plus grande invariance à la défocalisation. Cependant, plus le DoF est grand plus l’image acquise est floue et une opération de déconvolution doit alors lui être appliquée. Par conséquent, la conception des masques de phase doit prendre en compte ce traitement pour atteindre le compromis optimal entre invariance de la PSF à la défocalisation et qualité de la déconvolution.. Cette approche de conception conjointe a été introduite par Cathey et Dowski en 1995 et affinée en 2002 pour des masques de phase continus puis généralisée par Robinson et Stork en 2007 pour la correction d’autres aberrations optiques.Dans cette thèse sont abordés les différents aspects de l’optimisation des masques de phase pour l’augmentation du DoF, tels que les critères de performance et la relation entre ces critères et les paramètres des masques. On utilise la « qualité d’image » (IQ en anglais), une méthode basée sur l’écart quadratique moyen définie par Diaz et al., pour la co-conception des divers masques de phase et pour évaluer leur performance. Nous évaluons ensuite la pertinence de ce critère IQ en comparaison d’autres métriques de conception optique, comme par exemple le rapport de Strehl ou la fonction de transfert de modulation (MTF en anglais). Nous nous concentrons en particulier sur les masques de phase annulaires binaires, l’étude de leur performance pour différents cas comme l’augmentation du DoF, la présence d’aberrations ou l’impact du nombre de paramètres d’optimisation.Nous appliquons ensuite les outils d’analyse exploités pour les masques binaires aux masques de phase continus qui apparaissent communément dans la littérature, comme les masques de phase polynomiaux. Nous avons comparé de manière approfondie ces masques entre eux et aux masques binaires, non seulement pour évaluer leurs avantages, mais aussi parce qu’en analysant leurs différences il est possible de comprendre leurs propriétésLes masques de phase fonctionnent comme des filtres passe-bas sur des systèmes limités par la diffraction, réduisant en pratique les phénomènes de repliement spectral. D’un autre côté, la technique de reconstruction connue sous l’appellation de « superresolution » utilise des images d’une même scène perturbées par du repliement de spectre pour augmenter la résolution du système optique original. Les travaux réalisés durant une période de détachement chez le partenaire industriel de la thèse, KLA-Tencor à Louvain, Belgique, illustrent le propos. A la fin du manuscrit nous étudions la pertinence de la combinaison de cette technique avec l’utilisation de masques de phase pour l’augmentation du DoF. / Phase masks are wavefront encoding devices typically situated at the aperture stop of an optical system to engineer its point spread function (PSF) in a technique commonly known as wavefront coding. These masks can be used to extend the depth of field (DoF) of imaging systems without reducing the light throughput by producing a PSF that becomes more invariant to defocus; however, the larger the DoF the more blurred the acquired raw image so that deconvolution has to be applied on the captured images. Thus, the design of the phase masks has to take into account image processing in order to reach the optimal compromise between invariance of PSF to defocus and capacity to deconvolve the image. This joint design approach has been introduced by Cathey and Dowski in 1995 and refined in 2002 for continuous-phase DoF enhancing masks and generalized by Robinson and Stork in 2007 to correct other optical aberrations.In this thesis we study the different aspects of phase mask optimization for DoF extension, such as the different performance criteria and the relation of these criteria with the different mask parameters. We use the so-called image quality (IQ), a mean-square error based criterion defined by Diaz et al., to co-design different phase masks and evaluate their performance. We then compare the relevance of the IQ criterion against other optical design metrics, such as the Strehl ratio, the modulation transfer function (MTF) and others. We focus in particular on the binary annular phase masks, their performance for various conditions, such as the desired DoF range, the number of optimization parameters, presence of aberrations and others.We use then the analysis tools used for the binary phase masks for continuous-phase masks that appear commonly in the literature, such as the polynomial-phase masks. We extensively compare these masks to each other and the binary masks, not only to assess their benefits, but also because by analyzing their differences we can understand their properties.Phase masks function as a low-pass filter on diffraction limited systems, effectively reducing aliasing. On the other hand, the signal processing technique known as superresolution uses several aliased frames of the same scene to enhance the resolution of the final image beyond the sampling resolution of the original optical system. Practical examples come from the works made during a secondment with the industrial partner KLA-Tencor in Leuven, Belgium. At the end of the manuscript we study the relevance of using such a technique alongside phase masks for DoF extension.
|
19 |
Focalisation et contrôle des ondes en milieux complexes et localement résonantsLemoult, Fabrice 09 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans la continuité des travaux de l'Institut Langevin sur le contrôle spatio-temporel des ondes. Dans ce contexte, nous montrons en premier lieu que les milieux complexes offrent de plus grandes possibilités que l'espace libre. Nous quantifions ces apports en termes de degrés de liberté spatio-temporels qui peuvent être mis à profit grâce à l'utilisation de signaux large bande et de sources d'émission multiples. Nous étudions ensuite des milieux de propagation complexes qui présentent des hétérogénéités résonantes, et faisons le lien entre différents modèles (milieu effectif, polariton, hybridation) pour y décrire la propagation. Lorsque ces milieux sont organisés sur une échelle caractéristique inférieure à la longueur d'onde, nous montrons théoriquement qu'ils supportent des modes propagatifs qui oscillent sur des échelles spatiales inférieures à la longueur d'onde. Nous prouvons qu'il est possible d'exciter et de contrôler ces champs sub-longueur d'onde depuis le champ lointain en exploitant les degrés de liberté spatio-temporels à notre disposition. Des résultats expérimentaux et numériques de focalisation et d'imagerie en-dessous de la limite de la diffraction depuis le champ lointain sont présentés dans trois domaines de la physiques ondulatoire : les ondes micro-ondes, l'acoustique et l'optique. Enfin, nous nous intéressons à une gamme de fréquence, appelée bande interdite, pour laquelle il n'existe pas de solution propagative. En introduisant un défaut localement résonant, nous montrons la possibilité de créer des cavités résonantes ou des guides d'onde dont les dimensions sont bien inférieures à la longueur d'onde.
|
20 |
Évaluation d'un modèle a priori basé sur un seuillage de la TCD en super-résolution et comparaison avec d'autres modèles a prioriSt-Onge, Philippe January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
Page generated in 0.0985 seconds