• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 4
  • Tagged with
  • 23
  • 23
  • 11
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Programmation mathématique en tomographie discrète

Tlig, Ghassen 13 November 2013 (has links) (PDF)
La tomographie est un ensemble de techniques visant à reconstruirel'intérieur d'un objet sans toucher l'objet lui même comme dans le casd'un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l'objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l'objet àpartir d'un ensemble de projections obtenues par mesures expérimentalesautour de l'objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l'objet est défini de façon discrète. Leschamps d'applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l'imageriemédicale. Il existe d'autres applications de la tomographie discrète, commeles problèmes d'emplois du temps.La tomographie discrète peut être considérée comme un problème d'optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d'optimisation combinatoire.L'objectif de cette thèse est d'étudier et d'utiliser les techniques d'optimisationcombinatoire pour résoudre les problèmes de tomographie.
12

Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système

Leroux, Jean-Daniel January 2014 (has links)
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
13

Reconstructions adaptatives pour l'imagerie par résonance magnétique des organes en mouvement / Adaptive Reconstructions for Magnetic Resonance Imaging of Moving Organs

Lohézic, Maélène 11 October 2011 (has links)
L'imagerie par résonance magnétique (IRM) est un outil remarquable pour le diagnostic clinique, aussi bien pour l'imagerie cérébrale que pour l'imagerie cardiaque et abdominale. C'est notamment la seule modalité d'imagerie qui permet de visualiser et de caractériser l'oedème myocardique. Cependant, la gestion du mouvement reste un problème récurrent en IRM cardiaque. Tant le battement cardiaque que la respiration nécessitent une prise en compte attentive lors de l'acquisition des images et limitent la résolution temporelle et spatiale accessible en pratique clinique courante. L'approche adoptée dans ce travail propose d'intégrer ces mouvements physiologiques dans le processus de reconstruction des images et permet ainsi de réaliser des explorations cardiaques en respiration libre. Un algorithme de reconstruction itératif, corrigeant les mouvements estimés par un modèle contraint par les signaux physiologiques, est dans un premier temps appliqué à l'imagerie cardiaque morphologique. Ses performances vis-à-vis d'une méthode semi-automatique de détection de l'oedème sont évaluées. Il a également été utilisé en association avec une méthode d'acquisition adaptative, afin de permettre l'acquisition d'images en télésystole et en respiration libre. Dans un deuxième temps, cette méthode a été étendue à la quantification du temps de relaxation transversale T2. La cartographie T2 du coeur fournit en effet une caractérisation de l'oedème myocardique. La méthode de reconstruction présentée, ARTEMIS, permet de réaliser cette cartographie en respiration libre et sans allongement du temps d'examen. Ces méthodes exploitent des signaux physiologiques afin d'estimer le mouvement ayant eu lieu pendant l'acquisition. Différentes solutions pour obtenir ces informations physiologiques ont donc également été explorées. Parmi elles, les capteurs à base d'accéléromètres permettent de multiplier les points de mesure alors que les informations "embarquées" dans la séquence d'acquisition IRM ("navigateur") facilitent le déploiement de ces techniques puisqu'elles évitent de recourir à des équipements supplémentaires. Ainsi pendant ces travaux, des méthodes de reconstruction adaptatives ont été développées afin de corriger le mouvement et de prendre en compte les spécificités de chaque patient. Ces travaux ouvrent la voie de l'imagerie par résonance magnétique cardiaque en respiration libre dans un contexte clinique / Magnetic resonance imaging (MRI) is a valuable tool for the clinical diagnosis for brain imaging as well as cardiac and abdominal imaging. For instance, MRI is the only modality that enables the visualization and characterization myocardial edema. However, motion remains a challenging problem for cardiac MRI. Breathing as well as cardiac beating have to be carefully handled during patient examination. Moreover they limit the achievable temporal and spatial resolution of the images. In this work an approach that takes these physiological motions into account during image reconstruction process has been proposed. It allows performing cardiac examination while breathing freely. First, an iterative reconstruction algorithm, that compensates motion estimated from a motion model constrained by physiological signals, is applied to morphological cardiac imaging. A semi-automatic method for edema detection has been tested on reconstructed images. It has also been associated with an adaptive acquisition strategy which enables free-breathing end-systolic imaging. This reconstruction has then been extended to the assessment of transverse relaxation times T2, which is used for myocardial edema characterization. The proposed method, ARTEMIS, enables free-breathing T2 mapping without additional acquisition time. The proposed free breathing approaches take advantage of physiological signals to estimate the motion that occurs during MR acquisitions. Several solutions have been tested to measure this information. Among them, accelerometer-based external sensors allow local measurements at several locations. Another approach consists in the use of k-space based measurements, which are "embedded" inside the MRI pulse sequence (navigator) and prevent from the requirement of additional recording hardware. Hence, several adaptive reconstruction algorithms were developed to obtain diagnostic information from free breathing acquisitions. These works allow performing efficient and accurate free breathing cardiac MRI
14

Algorithmes rapides d'optimisation convexe. Applications à la reconstruction d'images et à la détection de changements.

Weiss, Pierre 21 November 2008 (has links) (PDF)
Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dûs à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des images synthétiques et des images Quickbird réelles.
15

Analyse d'acquisitions multiples anisotropes en Angiographie par Résonance Magnétique 3D : modélisation et reconstruction régularisée pour l'amélioration de la résolution spatiale

Roullot, Elodie 20 December 2001 (has links) (PDF)
En raison de ses nombreux avantages par rapport à l'angiographie conventionnelle par rayons X (ARX), l'angiographie par résonance magnétique (ARM) est appelée à devenir à court terme la modalité de référence pour l'imagerie des vaisseaux sanguins. Cependant, l'ARM est limitée par sa faible résolution spatiale par rapport à celle de l'ARX : en effet, cette modalité est caractérisée par un compromis intrinsèque entre le temps d'acquisition et la résolution spatiale. Or, les temps d'acquisition sont soumis à des contraintes importantes (par exemple la durée d'une apnée du patient ou la durée de l'injection du produit de contraste), et ce, aux dépens de la résolution spatiale. <br />Pour contourner ce compromis, nous proposons une méthode de reconstruction d'images de résonance magnétique 3D à partir de plusieurs (deux ou trois) images 3D de résolutions complémentaires, permettant à temps égal d'améliorer la résolution spatiale et le rapport signal sur bruit. <br />La première étape de ce travail concerne la modélisation mathématique du problème direct, qui intègre les résultats de l'étude détaillée des sous-échantillonnages mis en oeuvre dans le processus d'acquisition. <br />Dans une deuxième étape, nous nous sommes intéressés à la résolution du problème inverse, à savoir la reconstruction à partir des acquisitions sous-échantillonnées d'un volume unique de haute résolution. <br />La méthode proposée se place dans le contexte de la restauration d'images avec préservation des discontinuités, et consiste à minimiser une fonction d'énergie adéquatement choisie, laquelle intègre le modèle développé précédemment. Deux méthodes de minimisation du même critère sont proposées : la première utilise l'algorithme du gradient conjugué pour minimiser directement la fonction d'énergie. La seconde, quant à elle, s'appuie sur la théorie de la régularisation semi-quadratique ; nous montrons comment l'exploitation conjointe des propriétés du modèle dans le domaine spectral et de celles des algorithmes de régularisation semi-quadratique permet le développement d'un algorithme de reconstruction élégant et plus performant, performance corroborée par une évaluation comparative détaillée.<br />La méthode a été évaluée sur des images synthétiques, puis appliquée à des images réelles d'aortes et de carotides, fournissant des résultats prometteurs. L'application à des images d'artères rénales a permis de mettre en évidence des limites à la méthode, qui sont abordées dans un dernier chapitre, parmi d'autres perspectives cliniques.
16

Validation de la plate-forme de simulation GATE en Tomographie d'Emission Monophotonique et application au développement d'un algorithme de reconstruction 3D complète

Lazaro, Delphine 30 October 2003 (has links) (PDF)
Les simulations Monte-Carlo représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de corrections des effets physiques. Parmi les nombreux simulateurs disponibles aujourd'hui, aucun n'est considéré comme standard en imagerie nucléaire, ce qui a motivé le développement d'une nouvelle plate-forme de simulation Monte-Carlo générique (GATE), basée sur GEANT4 et dédiée aux applications SPECT/PET. Au cours de cette thèse, nous avons participé au développement de la plate-forme GATE dans le cadre d'une collaboration internationale. Nous avons validé GATE en SPECT en modélisant deux gamma-caméras de conception différente, l'une dédiée à l'imagerie du petit animal et l'autre utilisée en routine clinique (Philips AXIS), et en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances des deux gamma-caméras mesurées. La plate-forme GATE a ensuite été employée pour développer une nouvelle méthode de reconstruction 3D (F3DMC), consistant à calculer par simulation Monte-Carlo la matrice de transition utilisée dans un algorithme de reconstruction itératif (ici, ML-EM), en y incluant les principaux effets physiques perturbant le processus de formation de l'image. Les résultats de F3DMC sont comparés aux résultats obtenus avec trois autres méthodes de reconstruction plus classiques (FBP, MLEM, MLEMC) pour différents fantômes simulés. Les résultats de cette étude montrent que F3DMC permet d'améliorer l'efficacité de reconstruction, la résolution spatiale et le rapport signal-sur-bruit avec une quantification satisfaisante des images. Ces résultats devront être confirmés par des études cliniques et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
17

Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plate forme de simulation GATE

El Bitar, Z. 05 December 2006 (has links) (PDF)
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale.<br />Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully 3D Monte Carlo) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilisé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, régions hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP, ML-EM, ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel. Les résultats de cette étude montrent que la méthode F3DMC ainsi que ses variantes permettent d'améliorer la restauration des rapports d'activité et le rapport signal sur bruit. L'utilisation de la grille de calcul EGEE a permis d'obtenir un gain de l'ordre de 300 en temps de calcul. Dans la suite, ces résultats doivent être confirmés par des études sur des fantômes complexes et des patients et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
18

Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse / Detection and characterization of exoplanets in high contrast images by the inverse problem approach

Cantalloube, Faustine 30 September 2016 (has links)
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles. / Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data.
19

Méthodes d'illumination et de détection innovantes pour l'amélioration du contraste et de la résolution en imagerie moléculaire de fluorescence en rétrodiffusion / Innovative illumination and detection schemes for the enhancement of contrast and resolution of fluorescence reflectance imaging

Fantoni, Frédéric 05 December 2014 (has links)
Depuis quelques années, les techniques d'imagerie de fluorescence font l'objet d'une attention particulière, celles-ci permettant d'étudier de manière non invasive un nombre important de processus cellulaires. En particulier, les techniques de fluorescence en rétrodiffusion (FRI pour Fluorescence Reflectance Imaging) présentent plusieurs avantages en termes de facilité de mise en oeuvre, de rapidité et de coût, mais elles sont aussi sujettes à des limites fortes : la pénétration des tissus reste relativement faible (quelques millimètres seulement), et il est impossible d'avoir une information quantitative du fait de la diffusion des photons. L'objectif de cette thèse a été de réduire les effets des signaux parasites afin d'améliorer les performances de la FRI aussi bien au niveau du contraste que de la résolution. Pour ce faire nous avons décidé d'utiliser de nouvelles techniques d'illumination et de détection. Contrairement aux systèmes classiques qui utilisent une illumination et une détection large champ, nous balayons l'objet d'étude avec une ligne laser, des images étant acquises à chaque position de la ligne. On a alors accès à une pile d'images contenant un nombre d'informations bien plus important que dans le cas classique. Trois axes ont été suivis pour l'exploitation de ces informations. Les méthodes développées ont été testées en simulation avec le logiciel NIRFAST et un algorithme de Monte-Carlo mais aussi expérimentalement. Les validations expérimentales ont été réalisées sur fantômes optiques et en in vivo sur petit animal en les comparant à une illumination uniforme plus classique. En améliorant à la fois le contraste et la résolution, ces différentes méthodes nous permettent d'obtenir de l'information exploitable plus loin en profondeur en réduisant les effets néfastes des signaux parasites et de la diffusion. / Intraoperative fluorescence imaging in reflectance geometry is an attractive imaging modality to noninvasively monitor fluorescence-targeted tumors. However, in some situations, this kind of imaging suffers from a lack of depth penetration and a poor resolution due to the diffusive nature of photons in tissue. The objective of the thesis was to tackle these limitations. Rather than using a wide-field illumination like usual systems, the technique developed relies on the scanning of the medium with a laser line illumination and the acquisition of images at each position of excitation. Several detection schemes are proposed to take advantage of the stack of images acquired to enhance the resolution and the contrast of the final image. These detection techniques were tested both in simulation with the NIRFAST software and a Monte-Carlo algorithm and experimentally. The experimental validation was performed on tissue-like phantoms and in vivo with a preliminary testing. The results are compared to those obtained with a classical wide-field illumination. As they enhance both the contrast and the resolution, these methods allow us to image deeper targets by reducing the negative effects of parasite signals and diffusion.
20

Plus loin avec la mission spatiale Gaia grâce à l'analyse des objets étendus

Garcez de Oliveira Krone Martins, Alberto 18 March 2011 (has links)
Ce travail a comme objectif principal de vérifier s’il est possible de faire de la science avec les observations d’objets étendus qui seront réalisées par la mission spatiale Gaia. Cette mission, l’un des plus ambitieux projets de l’Astronomie moderne,observera plus d’un milliard d’objets dans tout le ciel avec des précisions inédites, fournissant des données astrométriques, photométriques et spectroscopiques. Naturellement, en fonction de sa priorité astrométrique, Gaia a été optimisé pour l’étude d’objets ponctuels. Néanmoins, diverses sources associées à des émissions étendues seront observées. Ces émissions peuvent avoir une origine intrinsèque, telles que les galaxies, ou extrinsèque, telles que les projections d’objets distincts sur la même ligne de visée, et présenteront probablement de solutions astrométriques moins bonnes.Pour étudier ces émissions, leurs images bidimensionnelles doivent être analysées.Néanmoins, comme Gaia ne produit pas de telles données, nous avons commencé ce travail en vérifiant si à partir de ses observations unidimensionnelles il serait possible de reconstruire des images 2D d’objets dans tout le ciel.Nous avons ainsi estimé la quantité de cas sujets à la présence d’émissions étendues extrinsèques, et nous avons présenté une méthode que nous avons développée pour analyser leurs images reconstruites. Nous avons montré que l’utilisation de cette méthode permettra d’étendre le catalogue final de façon fiable à des millions de sources ponctuelles dont beaucoup dépasseront la magnitude limite de l’instrument.D’un autre coté, dans le cas d’émissions intrinsèques, nous avons premièrement obtenu une estimation supérieure du nombre de cas que Gaia pourra observer. Nous avons alors vérifié qu’après les reconstructions d’images, les codes que nous avons développés permettront de classifier morphologiquement des millions de galaxies dans les types précoce/tardif et elliptique/spirale/irrégulière. Nous avons de plus présenté une méthode que nous avons développée pour réaliser la décomposition bulbe/disque directement à partir des observations unidimensionnelles de Gaia de façon complètement automatique.Finalement nous avons conclu qu’il est possible d’utiliser beaucoup de ces données qui pourraient être ignorées pour faire de la science. Et que le fait de les exploiter permettra aussi bien la détection de millions d’objets qui dépassent la limite de magnitude de Gaia, que de mener des études sur la morphologie de millions de galaxies dont les structures ne peuvent être révélées qu’à partir de l’espace ou au moyen d’optique adaptative, augmentant un peu plus les horizons de cette mission déjà immense. / The main objective of this work is to determine whether it is possible to do science from the observations of extended objects that will be performed by the Gaia space mission. One of the most ambitious projects of modern Astronomy, this mission will observe more than one billion objects through out the sky, thus providing astrometric, photometric and spectroscopic data with unprecedented precision. Naturally, Gaia has been optimized for the study of point-like sources due to its astrometrical priority. Nevertheless, many sources associated with extended emission will be observed. The origins of these extended sources can be either intrinsic, such as galaxies, or extrinsic, such as projections of objects in the same line of sight. In both cases, these sources will have less than optimal astrometric solutions.In order to study those emissions, their two-dimensional images will be analyzed. Nonetheless, since Gaia will not acquire such images, we begin this work by checking whether it will be possible to reconstruct images anywhere in the sky from the satellite’s one-dimensional observations.Consequently, we, on the one hand, estimate the number of cases which will be subjected to the extrinsic extended emissions, present a method which we developed to analyze the reconstructed images by segregating the different sources and show that the adoption of this method will allow extending the catalogue reliably by millions of point sources, many of which are beyond the limiting magnitude of the instrument. On the other hand, regarding intrinsic extended emissions, we first obtain an upper limit estimate for the number of cases which Gaia will be able to observe ; then,we verify that the combination of image reconstructions and the use of the codes introduced here in will allow performing the morphological classification of millions of galaxies in early/late types and elliptical/spiral/irregular classes. Afterward,we present a method which we developed to decompose those galaxies into their bulge/disk components directly from the one-dimensional Gaia data in a completely automatic way. Finally, we conclude that it is possible to harness the data of many of the observations that might other wise be ignored to do science. Saving these data will allow the detection of millions of objects beyond Gaia’s limiting magnitude and the study of the morphology of millions of galaxies whose structures can only be probed from space or through the adoption of adaptive optics, thus somewhat expanding the horizons of this already comprehensive mission.

Page generated in 0.5127 seconds