41 |
Optical diffraction tomography microscopy : towards 3D isotropic super-resolution / Microscopie optique tomographie de diffraction : vers une super-résolution isotrope en 3DGodavarthi, Charankumar 20 September 2016 (has links)
Cette thèse vise à améliorer la résolution en trois dimensions grâce à une technique récente d’imagerie : la microscopie tomographique diffractive (MTD). Son principe est d’éclairer l’objet successivement sous différents angles en lumière cohérente, de détecter le champ diffracté en phase et en amplitude, et de reconstruire la carte 3D de permittivité de l’objet par un algorithme d’inversion. La MTD s’est avérée capable de combiner plusieurs modalités utiles pour la microscopie sans marquage, telles que plein champ, champ sombre, à contraste de phase, confocale, ou encore la microscopie à synthèse d’ouverture 2D ou 3D. Toutes sont basées sur des approximations scalaires et linéaires, ce qui restreint leur domaine d’application pour restituer l’objet de manière quantitative. A l’aide d’une inversion numérique rigoureuse prenant en compte la polarisation du champ et le phénomène de diffusion multiple, nous sommes parvenus à reconstruire la carte 3D de permittivité d’objets avec une résolution de λ/4. Une amélioration supplémentaire la portant à λ/10 a été rendue possible par l’insertion d’information a priori sur l’objet dans l’algorithme d’inversion. Enfin, la résolution axiale est moins bonne du fait de l’asymétrie des schémas d’illumination et de détection dans les microscopes. Pour s’affranchir de cette limitation, une configuration de tomographie assistée par miroir a été implémentée et a mis en évidence un pouvoir de séparation axial meilleur que λ/2. Au final, la MTD s’est illustrée comme un outil de caractérisation puissant pour reconstruire en 3D les objets ainsi que leurs indices optiques, à des résolutions bien supérieures à celles des microscopes conventionnels. / This PhD thesis is devoted to the three-dimensional isotropic resolution improvement using optical tomographic diffraction microscopy (TDM), an emerging optical microscope technique. The principle is to illuminate the sample successively with various angles of coherent light, collect the complex (amplitude and phase) diffracted field and reconstruct the sample 3D permittivity map through an inversion algorithm. A single TDM measurement was shown to combine several popular microscopy techniques such as bright-field microscope, dark-field microscope, phase-contrast microscope, confocal microscope, 2D and 3D synthetic aperture microscopes. All rely on scalar and linear approximations that assume a linear link between the object and the field diffracted by it, which limit their applicability to retrieve the object quantitatively. Thanks to a rigorous numerical inversion of the TDM diffracted field data which takes into account the polarization of the field and the multiple scattering process, we were able to reconstruct the 3D permittivity map of the object with a λ/4 transverse resolution. A further improvement to λ/10 transverse resolution was achieved by providing a priori information about the sample to the non-linear inversion algorithm. Lastly, the poor axial resolution in microscopes is due to the fundamental asymmetry of illumination and detection. To overcome this, a mirror-assisted tomography configuration was implemented, and has demonstrated a sub-λ/2 axial resolution capability. As a result, TDM can be seen as a powerful tool to reconstruct objects in three-dimensions with their optical material properties at resolution far superior to conventional microscopes.
|
42 |
Tomographie par rayons X : correction des artefacts liés à la chaîne d'acquisition / Artefacts correction in X-ray cone-beam computed tomography CBCTWils, Patricia 17 November 2011 (has links)
L'imagerie cone-beam computed tomography (CBCT) est une méthodologie de contrôle non destructif permettant l'obtention d'images volumiques d'un objet. Le système d'acquisition se compose d'un tube à rayons X et d'un détecteur plan numérique. La recherche développée dans ce manuscrit se déroule dans le contexte industriel. L'objet est placé sur une platine de rotation et une séquence d'images 2D est acquise. Un algorithme de reconstruction procure des données volumiques de l'atténuation de l'objet. Ces informations permettent de réaliser une étude métrologique et de valider ou non la conformité de la pièce imagée. La qualité de l'image 3D est dégradée par différents artefacts inhérents à la plateforme d'acquisition. L'objectif de cette thèse est de mettre au point une méthode de correction adaptée à une plateforme de micro-tomographie par rayons X d'objets manufacturés poly-matériaux. Le premier chapitre décrit les bases de la physique et de l'algorithmie propres à la technique d'imagerie CBCT par rayons X ainsi que les différents artefacts nuisant à la qualité de l'image finale. Le travail présenté ici se concentre sur deux types d'artefacts en particulier: les rayonnements secondaires issus de l'objet et du détecteur et le durcissement de faisceau. Le second chapitre présente un état de l'art des méthodes visant à corriger le rayonnement secondaire. Afin de quantifier le rayonnement secondaire, un outil de simulation basé sur des techniques de Monte Carlo hybride est développé. Il permet de caractériser le système d'acquisition installé au laboratoire de façon réaliste. Le troisième chapitre détaille la mise en place et la validation de cet outil. Les calculs Monte Carlo étant particulièrement prohibitifs en terme de temps de calcul, des techniques d'optimisation et d'accélération sont décrites. Le comportement du détecteur est étudié avec attention et il s'avère qu'une représentation 2D suffit pour modéliser le rayonnement secondaire. Le modèle de simulation permet une reproduction fidèle des projections acquises avec le système réel. Enfin, le dernier chapitre présente la méthodologie de correction que nous proposons. Une première reconstruction bruitée de l'objet imagé est segmentée afin d'obtenir un modèle voxélisé en densités et en matériaux. L'environnement de simulation fournit alors les projections associées à ce volume. Le volume est corrigé de façon itérative. Des résultats de correction d'images tomographiques expérimentales sont présentés dans le cas d'un objet mono-matériaux et d'un objet poly-matériaux. Notre routine de correction réduit les artefacts de cupping et améliore la description du volume reconstruit. / Cone-beam computed tomography (CBCT) is a standard nondestructive imaging technique related to the acquisition of three-dimensional data. This methodology interests a wide range of applications. An industrial CBCT system comprises an X-ray source and a flat-panel detector. Radiographic images are acquired during a rotation of the object of interest. A reconstruction algorithm leads to a volumic representation of the object and a post-processing routine assesses its validity. Accurate quantitative reconstruction is needed to perform an efficient diagsnotic. However, it is challenged by the presence of different artefacts coming from the acquisition itself. This thesis aims at analyzing and correcting those artefacts in a context of industrial micro-tomography. After an introduction to the physical and algorithmic background of CBCT, the artefacts are presented. Our study adresses two major artefacts: beam hardening and scatter radiations coming from the object and the detector. The second chapter reports on the state of the art in secondary radiation correction. A simulation model of the CBCT imaging chain is developed in a Monte Carlo environment. This model is designed to be realistic in order to get an accurate insight on the processes contributing to the final image formation. The third chapter focuses on the built and validation of the simulation tool. Monte Carlo methods are exact but prohibitively slow. Consequently, acceleration and optimization techniques are used to speed-up the calculations without loss of accuracy. A layer model of the flat-panel detector gives some insight on its secondary radiation behavior. More specifically, we demonstrate that a 2D description of the detector would be sufficient to compute its contribution. Our projection tool fits well with the real system. Finally, the last chapter describes our iterative correction method. The noisy initial reconstruction is segmented into different materials and densities and fed to the simulation framework. Beam hardening and secondary radiations are corrected via the volume reconstructed from the difference between acquired and simulated projections. This correction method is shown to be effective on both mono-material and poly-material objects.
|
43 |
Sensor-based navigation applied to intelligent electric vehicles / Navigation référencée capteurs appliquée aux véhicules électriques intelligentsAlves de Lima, Danilo 17 June 2015 (has links)
La navigation autonome des voitures robotisées est un domaine largement étudié avec plusieurs techniques et applications dans une démarche coopérative. Elle intègre du contrôle de bas niveau jusqu’à la navigation globale, en passant par la perception de l’environnement, localisation du robot, et autres aspects dans une approche référencée capteurs. Bien qu’il existe des travaux très avancés, ils présentent encore des problèmes et limitations liés aux capteurs utilisés et à l’environnement où la voiture est insérée.Ce travail aborde le problème de navigation des voitures robotisées en utilisant des capteurs à faible coût dans des milieux urbains. Dans cette thèse, nous avons traité le problème concernant le développement d’un système global de navigation autonome référencée capteur appliqué à un véhicule électrique intelligent, équipé avec des caméras et d’autres capteurs. La problématique traitée se décline en trois grands domaines de la navigation robotique : la perception de l’environnement, le contrôle de la navigation locale et la gestion de la navigation globale. Dans la perception de l’environnement, une approche de traitement d’image 2D et 3D a été proposé pour la segmentation de la route et des obstacles. Cette méthode est appliquée pour extraire aussi des caractéristiques visuelles, associées au milieu de la route, pour le contrôle de la navigation locale du véhicule. Avec les données perçues, une nouvelle méthode hybride de navigation référencée capteur et d’évitement d’obstacle a été appliquée pour le suivi de la route. Cette méthode est caractérisée par la validation d’une stratégie d’asservissement visuel (contrôleur délibératif) dans une nouvelle formulation de la méthode “fenêtre dynamique référencée image" (Dynamic Window Approach - DWA, en anglais) (contrôleur réactif). Pour assurer la navigation globale de la voiture, nous proposons l’association des données de cartes numériques afin de gérer la navigation locale dans les points critiques du chemin, comme les intersections de routes. Des essais dans les scénarios difficiles, avec une voiture expérimentale, et aussi en environnement simulé, montrent la viabilité de la méthode proposée. / Autonomous navigation of car-like robots is a large domain with several techniques and applications working in cooperation. It ranges from low-level control to global navigation, passing by environment perception, robot localization, and many others in asensor-based approach. Although there are very advanced works, they still presenting problems and limitations related to the environment where the car is inserted and the sensors used. This work addresses the navigation problem of car-like robots based on low cost sensors in urban environments. For this purpose, an intelligent electric vehicle was equipped with vision cameras and other sensors to be applied in three big areas of robot navigation : the Environment Perception, Local Navigation Control, and Global Navigation Management. In the environment perception, a 2D and 3D image processing approach was proposed to segment the road area and detect the obstacles. This segmentation approach also provides some image features to local navigation control.Based on the previous detected information, a hybrid control approach for vision based navigation with obstacle avoidance was applied to road lane following. It is composed by the validation of a Visual Servoing methodology (deliberative controller) in a new Image-based Dynamic Window Approach (reactive controller). To assure the car’s global navigation, we proposed the association of the data from digital maps in order tomanage the local navigation at critical points, like road intersections. Experiments in a challenging scenario with both simulated and real experimental car show the viabilityof the proposed methodology.
|
44 |
Study of the role of plant nuclear envelope and lamina-like components in nuclear and chromatin organisation using 3D imaging / Analyse du rôle de l'enveloppe nucléaire et des composants de la lamina-like dans l'organisation chromatinienne et nucléaire chez les plantes en utilisant de l'imagerie 3DPoulet, Axel 06 June 2016 (has links)
Le complexe linker of nucleoskeleton and cytoskeleton (LINC) est un complexe protéique conservé au cours de l’évolution, reliant les compartiments cytoplasmiques et nucléaires au travers la membrane nucléaire. Bien que les données récentes montrent une de ce complexe dans la régulation de la morphologie nucléaire et de la méiose, son implication dans l’organisation de la chromatine a été moins étudié chez les plantes. Le premier objectif de ce travail était de développer un plugin NucleusJ ImageJ dédié à la caractérisation de la morphologie nucléaire et de l’organisation de la chromatine en 3D. NucleusJ calcul 15 paramètres, y compris la forme et la taille des noyaux ainsi que des objets intra-nuclaires et leur position dans le noyau. Une documentation pour ce programme est disponible pour son utilisation, ainsi que des qu’un jeu données de noyaux pour tester ce programme. Plusieurs améliorations sont en cours pour développer une nouvelle version de ce plugin. Dans une deuxième partie de ce travail, des méthodes d’imagerie 3D ont été utilisées pour étudier la morphologie nucléaire et l’organisation de la chromatine dans les noyaux interphasiques chez Arabidopsis thaliana dans lequel les domaines d’htrochromatique sont groupés en régions detectable appelés chromocentres. Ces chromocentres forment un environnement répressif contribuant la rpression transcriptionnelle de séquences répétées permettant la stabilité du génome. Des mesures quantitatives de la position 3D de chromocentres dans le noyau montrent que la plupart chromocentres sont situés proximité de la périphérie du noyau, mais que cette distance peut être modifiée par le volume nucléaire ou dans certains mutants affectant le complexe LINC. Ce complexe LINC est proposé pour contribuer l’organisation de la chromatine et à son positionnement, de plus la mutation de ce complexe est associée une dérégulation l’inactivation de la transcription, ainsi qu’a une décompaction des séquences hétérochromatiques. La dernière partie de ce travail tire profit de séquences gnomiques disponibles et les données de RNA-seq pour explorer l’évolution des protines de la NE chez les plantes. Au Final, le travail réalisé durant cette thèse associe la génétique, la biologie moléculaire, la bioinformatique et de l’imagerie afin de mieux comprendre la contribution de l’enveloppe nucléaire dans l’organisation de la morphologie du noyaux et de la chromatine et suggère l’implication fonctionnelle du complexe LINC dans ces processus. / The linker of nucleoskeleton and cytoskeleton (LINC) complex is an evolutionarily well-conserved protein bridge connecting the cytoplasmic and nuclear compartments across the nuclear membrane. While recent data supports its function in nuclear morphology and meiosis, its implication for chromatin organisation has been less studied in plants. The first aim of this work was to develop NucleusJ a simple and user-friendly ImageJ plugin dedicated to the characterisation of nuclear morphology and chromatin organisation in 3D. NucleusJ quantifies 15 parameters including shape and size of nuclei as well as intra-nuclear objects and their position within the nucleus. A step-by-step documentation is available for self-training, together with data sets of nuclei with different nuclear organisation. Several improvements are ongoing to release a new version of this plugin. In a second part of this work, 3D imaging methods have been used to investigate nuclear morphology and chromatin organisation in interphase nuclei of the plant model Arabidopsis thaliana in which heterochromatin domains cluster in conspicuous chromatin regions called chromocentres. Chromocentres form a repressive chromatin environment contributing to the transcriptional silencing of repeated sequences a general mechanism needed for genome stability. Quantitative measurements of 3D position of chromocentres in the nucleus indicate that most chromocentres are situated in close proximity to the periphery of the nucleus but that this distance can be altered according to nuclear volume or in specific mutants affecting the LINC complex. Finally, the LINC complex is proposed to contribute at the proper chromatin organisation and positioning since its alteration is associated with the release of transcriptional silencing as well as decompaction of heterochromatic sequences. The last part of this work takes advantage of available genomic sequences and RNA-seq data to explore the evolution of NE proteins in plants and propose a minimal requirement to built the simplest functional nuclear envelope. Altogether, work achieved in this thesis associate genetics, molecular biology, bioinformatics and imaging to better understand the contribution of the nuclear envelope in nuclear morphology and chromatin organisation and suggests the functional implication of the LINC complex in these processes.
|
45 |
Relation dose-volume effets dans les cancers du col utérin traités par curiethérapie adaptative guidée par l'imagerie 3D. / Dose-volume effects relationships in cervix cancer patients treated with image-guided adaptive brachytherapyMazeron, Renaud 08 December 2015 (has links)
Objectifs : Etablir des corrélations dose-volume effet entre les paramètres dosimétriques proposés par le GEC-ESTRO et la probabilité de survenue d’événements tels que le contrôle tumoral ou une toxicité radio-induite.Matériel et méthodes : Les données cliniques et dosimétriques de cohortes de patientes traitées à Gustave Roussy et dans différents centres ont été confrontées. Dans un premier temps les paramètres dosimétriques de la curiethérapie 3D ont été comparés à ceux de la curiethérapie classique. Dans un second temps, la topographie des zones les plus exposées des organes à risque, ainsi que l’impact des mouvements de la vessie, du rectum, et du colon sigmoïde sur l’évaluation de la dose délivrée, ont été étudiés. Enfin, des analyses dose-volume effets ont été réalisées.Résultats : Les valeurs des paramètres dosimétriques volumétriques (D2cm3) de la vessie et du rectum se sont révélées faiblement corrélées et significativement supérieures aux doses évaluées aux points de l’ICRU ou à un point vésical alternatif. Les zones les plus exposées de la vessie et du rectum sont apparues situées au-dessus des points de l’ICRU. Les mouvements des organes autour de l’implant pendant la délivrance du traitement sont apparus marginaux pour la vessie et sigmoïde, en dehors de variations individuelles. En revanche, la dose délivrée au rectum étaient en moyenne plus élevée que le dose planifiée. Les analyses dose-volume effets ont montré des corrélations significatives entre D0.1cm3 et D2cm3 et la probabilité de survenue d’une morbidité tardive urinaire ou rectale. De la même manière, des corrélations significatives ont été établies entre la D90 des CTV à haut risque et à risque intermédiaire et la probabilité d’obtention du contrôle local. Divers caractéristiques tumorales (largeur au diagnostic, volume du CTV-HR, stade FIGO), impactent ces relations, de même que l’étalement total du traitement.Conclusion : Des corrélations dose-volume effets ont été établies entre les paramètres dosimétriques modernes et la probabilité d’obtenir le contrôle local ou d’entraîner une morbidité tardive. En ce qui concerne le contrôle tumoral, les objectifs de prescription doivent être personnalisés en fonction de critères carcinologiques. Pour les organes à risque, de contraintes de dose basées sur l’expérience de la curiethérapie 3D peuvent être établies, mais doivent être affinées dans de futures études en fonction de cofacteurs tels que les comorbidités. Les points gardent un intérêt en recherche clinique, pour l’étude de la morbidité vésicale ou vaginale.Ce travail a l'objet de 6 publications dans des revues internationales à comité de lecture. La septième est présentée sous forme de manuscrit. / Objectives: To establish dose-volume effects correlations between volumetric dosimetric parameters proposed by the GEC-ESTRO and the probability of occurrence of events such as tumor control or radiation-induced toxicity.Methods: Clinical and dosimetric data of patients treated at Gustave Roussy and in different centers have been reviewed. At first step, dosimetric parameters of image-guided brachytherapy were compared with those of conventional brachytherapy. Secondly, the topography of the most exposed areas of the organs at risk, and the impact of the movements of the bladder, rectum, and sigmoid colon on the assessment of the delivered dose, were studied. Finally, analyzes dose-volume effects were performed.Results: The values of volumetric dosimetric parameters (D2cm3) of the bladder and rectum appeared weakly correlated and significantly higher than the doses evaluated at ICRU points of bladder and rectum , an even in an alternative bladder point. The most exposed areas of the bladder and rectum appeared located above the points of the ICRU. The movements of the organs around the implant during the delivery of the treatment appeared marginal for the bladder and sigmoid, apart from individual variations. However, the mean delivered dose to the rectum was higher than the planned dose. Dose-volume effects correlations showed significant correlations between D0.1cm3 and D2cm3 and the probability of occurrence of urinary or rectal late morbidity. Similarly, significant correlations have been established between the D90 of the high risk, intermediate risk-CTV and the probability of achieving local control. Various tumor characteristics (width, HR-CTV volume, FIGO stage) impact these relationships, as well as the treatment time.Conclusion: Dose-volume effects correlations have been established between modern dosimetric parameters and the probability of achieving local control or cause late morbidity. Regarding tumor control, prescription aims must be customized according to oncologic criteria. For organs at risk, new dose constraints based on 3D brachytherapy experience can be established but should be refined in future studies based on cofactors such as comorbidities. The points retain an interest in clinical research for the study of bladder or vaginal morbidity.
|
46 |
Segmentation, suivi et visualisation d'objets biologiques en microscopie 3D par fluorescence : Approches par modèles déformablesDufour, Alexandre 04 December 2007 (has links) (PDF)
Nous nous intéressons à la détection et au suivi d'objets biologiques divers (cellules, noyaux, etc.) dans des images et séquences tri-dimensionnelles acquises en microscopie par fluorescence. L'observation de phénomènes biologiques in situ étant de plus en plus cruciale pour les experts, il est nécessaire, en plus de l'analyse quantitative, d'effectuer un rendu volumique 3D de la scène et des objets qui y évoluent. De plus, l'automatisation des techniques d'acquisition d'images requiert un haut niveau de reproductibilité des algorithmes et induit souvent des contraintes de temps de calcul que nous nous efforçons de prendre en compte.<br /><br />Les modèles déformables, également connus sous le nom de contours actifs, font actuellement partie des méthodes de pointe en analyse d'images pour la segmentation et le suivi d'objets grâce à leur robustesse, leur flexibilité et leur représentation à haut niveau sémantique des entités recherchées. Afin de les adapter à notre problématique, nous devons faire face à diverses difficultés. Tout d'abord, les méthodes existantes se réfèrent souvent aux variations locales d'intensité (ou gradients) de l'image pour détecter le contour des objets recherchés. Cette approche est inefficace en microscopie tridimensionnelle par fluorescence, où les gradients sont très peu prononcés selon l'axe de profondeur de l'image. Ensuite, nous devons gérer le suivi d'objets multiples susceptibles d'entrer en contact en évitant leur confusion. Enfin, nous devons mettre en place un système permettant de visualiser efficacement les contours durant leur déformation sans altérer les temps de calcul.<br /><br />Dans la première partie de ce travail, nous pallions à ces problèmes en proposant un modèle de segmentation et de suivi multi-objets basé sur le formalisme des lignes de niveaux (ou level sets) et exploitant la fonctionnelle de Mumford et Shah. La méthode obtenue donne des résultats quantitatifs satisfaisants, mais ne se prête pas efficacement au rendu 3D de la scène, pour lequel nous sommes tributaires d'algorithmes dédiés à la reconstruction 3D (e.g. la méthode des "Marching Cubes"), souvent coûteux en mémoire et en temps de calcul. De plus, ces algorithmes peuvent induire des erreurs d'approximation et ainsi entraîner une mauvaise interprétation des résultats.<br /><br />Dans la seconde partie, nous proposons une variation de la méthode précédente en remplaçant le formalisme des lignes de niveaux par celui des maillages triangulaires, très populaire dans le domaine de la conception assistée par ordinateur (CAO) pour leur rendu 3D rapide et précis. Cette nouvelle approche produit des résultats quantitatifs équivalents, en revanche le formalisme des maillages permet d'une part de réduire considérablement la complexité du problème et autorise d'autre part à effectuer un rendu 3D précis de la scène parallèlement au processus de segmentation, réduisant d'autant plus les temps de calculs.<br /><br />Les performances des deux méthodes proposées sont d'abord évaluées puis comparées sur un jeu de données simulées reproduisant le mieux possible les caractéristiques des images réelles. Ensuite, nous nous intéressons plus particulièrement à l'évaluation de la méthode par maillages sur des données réelles, en évaluant la robustesse et la stabilité de quelques descripteurs de forme simples sur des expériences d'imagerie haut-débit. Enfin, nous présentons des applications concrètes de la méthode à des problématiques biologiques réelles, réalisées en collaboration avec d'autres équipes de l'Institut Pasteur de Corée.
|
47 |
Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés / Development of probabilistic graphical models to analyze and remesh 2-manifold triangular meshesVidal, Vincent 09 December 2011 (has links)
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale. / The work in this thesis concerns structural analysis of 2-manifold triangular meshes, and their processing towards quality enhancement (remeshing) or simplification. In existing work, the repositioning of mesh vertices necessary for remeshing is either done locally or globally, but in the latter case without local control on the introduced geometrical error. Therefore, current results are either not globally optimal or introduce unwanted geometrical error. Other promising remeshing and approximation techniques are based on a decomposition into simple geometrical primitives (planes, cylinders, spheres etc.), but they generally fail to find the best decomposition, i.e. the one which jointly optimizes the residual geometrical error as well as the number and type of selected simple primitives. To tackle the weaknesses of existing remeshing approaches, we propose a method based on a global model, namely a probabilistic graphical model integrating soft constraints based on geometry (approximation error), mesh quality and the number of mesh vertices. In the same manner, for segmentation purposes and in order to improve algorithms delivering decompositions into simple primitives, a probabilistic graphical modeling has been chosen. The graphical models used in this work are Markov Random Fields, which allow to find an optimal configuration by a global minimization of an objective function. We have proposed three contributions in this thesis about 2-manifold triangular meshes : (i) a statistically robust method for feature edge extraction for mechanical objects, (ii) an algorithm for the segmentation into regions which are approximated by simple primitives, which is robust to outliers and to the presence of noise in the vertex positions, (iii) and lastly an algorithm for mesh optimization which jointly optimizes triangle quality, the quality of vertex valences, the number of vertices, as well as the geometrical fidelity to the initial surface.
|
48 |
Traitement d’images de microscopie confocale 3D haute résolution du cerveau de la mouche Drosophile / Three-dimensional image analysis of high resolution confocal microscopy data of the Drosophila melanogaster brainMurtin, Chloé Isabelle 20 September 2016 (has links)
La profondeur possible d’imagerie en laser-scanning microscopie est limitée non seulement par la distance de travail des lentilles de objectifs mais également par la dégradation de l’image causée par une atténuation et une diffraction de la lumière passant à travers l’échantillon. Afin d’étendre cette limite, il est possible, soit de retourner le spécimen pour enregistrer les images depuis chaque côté, or couper progressivement la partie supérieure de l’échantillon au fur et à mesure de l‘acquisition. Les différentes images prises de l’une de ces manières doivent ensuite être combinées pour générer un volume unique. Cependant, des mouvements de l’échantillon durant les procédures d’acquisition engendrent un décalage non seulement sur en translation selon les axes x, y et z mais également en rotation autour de ces même axes, rendant la fusion entres ces multiples images difficile. Nous avons développé une nouvelle approche appelée 2D-SIFT-in-3D-Space utilisant les SIFT (scale Invariant Feature Transform) pour atteindre un recalage robuste en trois dimensions de deux images. Notre méthode recale les images en corrigeant séparément les translations et rotations sur les trois axes grâce à l’extraction et l’association de caractéristiques stables de leurs coupes transversales bidimensionnelles. Pour évaluer la qualité du recalage, nous avons également développé un simulateur d’images de laser-scanning microscopie qui génère une paire d’images 3D virtuelle dans laquelle le niveau de bruit et les angles de rotations entre les angles de rotation sont contrôlés avec des paramètres connus. Pour une concaténation précise et naturelle de deux images, nous avons également développé un module permettant une compensation progressive de la luminosité et du contraste en fonction de la distance à la surface de l’échantillon. Ces outils ont été utilisés avec succès pour l’obtention d’images tridimensionnelles de haute résolution du cerveau de la mouche Drosophila melanogaster, particulièrement des neurones dopaminergiques, octopaminergiques et de leurs synapses. Ces neurones monoamines sont particulièrement important pour le fonctionnement du cerveau et une étude de leur réseau et connectivité est nécessaire pour comprendre leurs interactions. Si une évolution de leur connectivité au cours du temps n’a pas pu être démontrée via l’analyse de la répartition des sites synaptiques, l’étude suggère cependant que l’inactivation de l’un de ces types de neurones entraine des changements drastiques dans le réseau neuronal. / Although laser scanning microscopy is a powerful tool for obtaining thin optical sections, the possible depth of imaging is limited by the working distance of the microscope objective but also by the image degradation caused by the attenuation of both excitation laser beam and the light emitted from the fluorescence-labeled objects. Several workaround techniques have been employed to overcome this problem, such as recording the images from both sides of the sample, or by progressively cutting off the sample surface. The different views must then be combined in a unique volume. However, a straightforward concatenation is often not possible, because the small rotations that occur during the acquisition procedure, not only in translation along x, y and z axes but also in rotation around those axis, making the fusion uneasy. To address this problem we implemented a new algorithm called 2D-SIFT-in-3D-Space using SIFT (scale Invariant Feature Transform) to achieve a robust registration of big image stacks. Our method register the images fixing separately rotations and translations around the three axes using the extraction and matching of stable features in 2D cross-sections. In order to evaluate the registration quality, we created a simulator that generates artificial images that mimic laser scanning image stacks to make a mock pair of image stacks one of which is made from the same stack with the other but is rotated arbitrarily with known angles and filtered with a known noise. For a precise and natural-looking concatenation of the two images, we also developed a module progressively correcting the sample brightness and contrast depending on the sample surface. Those tools we successfully used to generate tridimensional high resolution images of the fly Drosophila melanogaster brain, in particular, its octopaminergic and dopaminergic neurons and their synapses. Those monoamine neurons appear to be determinant in the correct operating of the central nervous system and a precise and systematic analysis of their evolution and interaction is necessary to understand its mechanisms. If an evolution over time could not be highlighted through the pre-synaptic sites analysis, our study suggests however that the inactivation of one of these neuron types triggers drastic changes in the neural network.
|
49 |
Développement et applications de la tomographie chimique par spectroscopie EDX / Development and applications of chemical tomography by EDX spectroscopyLepinay, Kevin 27 November 2013 (has links)
Cette thèse porte sur l’évaluation des techniques pour la tomographie chimique par STEM EDX : mise au point des procédures expérimentales, traitement des données, reconstruction des volumes, analyse de la qualité des résultats obtenus et évaluation de la complexité globale. Les performances très limitées de l’analyse STEM EDX font que peu d’études, jusqu’à aujourd’hui, se sont portées sur cette technique. Cependant, les avancées très notables procurées par les nouveaux détecteurs ‘SDD’ ainsi que les sources électroniques X-FEG haute brillance, rendant l’analyse STEM EDX 2D très rapide, ont relancé la possibilité de la tomographie chimique ; la technique demande toutefois à être mise au point et évaluée (performances et complexité). Nous avons travaillé sur un microscope Tecnai Osiris permettant d’acquérir des cartographies chimiques EDX de centaines de milliers de pixels avec une résolution de l’ordre du nanomètre en quelques minutes. Nous avons choisi de préparer par FIB des échantillons en forme de pointe et d’utiliser un porte-objet permettant une exploration angulaire de 180° sans ombrage. Puis, à l’aide d’échantillons modèles (billes de SiO2 dans une résine), nous avons évalué les déformations d’échantillon par l’irradiation du faisceau électronique. Ceci nous a permis de proposer une méthode pour limiter cet effet par déposition d’une couche de 20 nm de chrome. Des simulations d’images ont permis d’évaluer les logiciels et méthodes de reconstruction. La méthodologie de chaque étape d’une analyse de tomographie STEM EDX a ensuite été expliquée, et l’intérêt de la technique démontré grâce à la comparaison de l’analyse 2D et 3D d’un transistor FDSOI 28 nm. La qualité des reconstructions (rapport signal-sur-bruit, résolution spatiale) a été évaluée en fonction des paramètres expérimentaux à l’aide de simulations et d’expériences. Une résolution de 4 nm est démontrée grâce à l’analyse d’une mire et d’un transistor « gate all around ». Pour ce même transistor, la possibilité et l’intérêt d’analyse de défaillance à l’échelle nanométrique est prouvée. Une analyse d’un défaut de grille d’une SRAM ou de trous dans un pilier en cuivre permettent d’expliquer l’intérêt d’une combinaison d’un volume HAADF (morphologie et résolution < 4 nm) et du volume EDX (information chimique). La conclusion est que cette technique, qui reste encore à améliorer du point de vue de sa simplicité, montre déjà son utilité pour l’analyse et la mise au point des technologies avancées (nœud 20 nm et après). / This thesis focuses on the evaluation of the STEM EDX chemical tomography technique: development of experimental procedures, data processing and volumes reconstruction, quality analysis of the results and evaluation of the overall complexity. Until now, STEM EDX analysis performances were very limited, so only few studies about this technique have been realized. However, very significant progress procured by the new SDD detectors as well as by the high brightness electronic sources (X-FEG), making the STEM EDX 2D analysis very fast, have revived the possibility of the chemical tomography, although the technique has to be developed and evaluated (performance and complexity). We have worked on a Tecnai Osiris which acquires EDX chemical mapping of hundreds of thousands of pixels with resolution of one nanometer and in a few minutes. We chose to prepare the rod-shaped samples by FIB and use a sample holder allowing an angle of exploration of 180° without shadowing effects. Then, using model samples (SiO2 balls in resin), we evaluated the sample deformation due to the electron beam irradiation. This allowed us to propose a method to reduce this effect by depositing a 20 nm chromium layer. Images simulations were used to evaluate the software and the reconstruction methods. The methodology of each step of the STEM EDX tomography analysis is then explained and the technique interest is demonstrated by comparing the 2D and the 3D analysis of a transistor 28 nm FDSOI. The quality of the reconstructions (signal-to-noise ratio, spatial resolution) was evaluated, in function of experimental parameters, using simulations and experiments. A resolution of 4 nm is demonstrated through the analysis of a test pattern and a "gate all around” transistor. For the same transistor, the possibility and the interest of a failure analysis at the nanoscale is proven. Analyses of a SRAM gate fail or of the holes in a copper pillar explain the benefits of a combination between a HAADF volume (morphology and resolution < 4 nm) and an EDX volume (chemical information). To conclude, this technique, which still needs to be improved in terms of simplicity, is already showing its usefulness for the analysis and the development of advanced technologies (20nm node and beyond).
|
50 |
Étude et modélisation des performances du radar bistatique EISS conçu et développé pour le sondage profond des sous-sols planétairesBiancheri-Astier, Marc 02 December 2010 (has links) (PDF)
Peu d'informations sont disponibles sur la composition du sous-sol de la planète Mars. La recherche d'éventuels réservoirs, qui pourraient avoir subsisté à des profondeurs kilométriques reste d'actualité. Le sondage EM apparaît comme une des solutions les plus prometteuses. Un radar à pénétration de sol EISS Electromagnetic Investigation of the SubSurface a été développé pour la mission ExoMars et permet le sondage profond du sous-sol en mono et bistatique. Nous présentons des résultats d'études menées sur l'optimisation de l'antenne électrique constituée de deux monopôles chargés et sur l'impact de l'angle entre ces deux monopôles sur les performances de EISS. Le couplage entre l'antenne et le sol a été analysé afin d'estimer la permittivité du sous-sol proche. Différentes techniques d'interprétation des données en termes de détection, localisation en 3D et caractérisation des strates du sous-sol sont proposées et évaluées à partir de données simulées.
|
Page generated in 0.0378 seconds