91 |
Détection de petits objets dans une image en utilisant les techniques de super-résolutionHumblot, Fabrice 06 December 2005 (has links) (PDF)
Cette thèse concerne la détection de petits objets dans une image en utilisant les techniques de super-résolution (SR). La reconstruction d'une image par une méthode de SR consiste à produire une image de haute résolution (HR), à partir de plusieurs images de basse résolution (BR) obtenues par l'intermédiaire de différentes caméras, ou à partir d'une séquence vidéo acquise avec une seule caméra. Obtenir une image HR nécessite deux étapes : le recalage des images BR dans un repère commun, et la construction de l'image HR par leur fusion.<br /><br />Ce mémoire présente donc deux parties. La première est consacrée à la détection et aux méthodes de recalage d'images, et la seconde aux techniques de restauration d'images par SR. Concernant la première partie, plusieurs méthodes ont été évaluées : une méthode fréquentielle de recalage utilisant le principe de corrélation de phase d'une part, et une méthode de détection de petits points basée sur un estimateur MAP dans le formalisme bayésien d'autre part. Dans la seconde partie, une nouvelle méthode de SR utilisant une modélisation markovienne hiérarchique de l'image HR dans le cadre de l'estimation bayésienne est proposée. Cette nouvelle approche, qui est basée sur l'idée que l'image HR est constituée de zones homogènes, permet d'obtenir non seulement une image de bonne qualité, mais également un résultat de segmentation de la scène HR.
|
92 |
Recalage et planification du traitement en radiothérapie et protonthérapieBaussé, Jérôme 07 October 2010 (has links) (PDF)
Dans le cadre d'un important et ambitieux projet de renouvellement de son centre, l'ICPO (Institut Curie - Centre de Protonthérapie d'Orsay) renouvelle ses logiciels dédiés au traitement des patients par protonthérapie, technique de radiothérapie utilisant des faisceaux de protons. Les hautes énergies utilisées durant les traitements, ainsi que la précision offerte par les caractéristiques des particules de proton, nécessitent une mise en place du patient plus précise qu'en radiothérapie classique. Le sujet de cette thèse est né de ces problématiques, puisqu'il vise à utiliser les informations RX intrinsèques aux images, et renouveler l'offre logicielle liée à la planification de la dose. Aujourd'hui, le deuxième objectif est parfaitement rempli, puisque le logiciel Isogray est utilisé en routine clinique, et les premiers patients planifiés avec son aide ont d'ores et déjà été traités. Le premier objectif quant à lui, même s'il a pu progresser de manière significative, n'a pas pu aboutir dans le temps imparti pour la thèse, des mises au point ainsi que des tests cliniques étant encore nécessaires. Cependant, les premiers résultats obtenus sont encourageants et ont permis de soulever les premiers problèmes à résoudre, Cette thèse s'inscrit dans le cadre d'un partenariat entre l'ICPO et la société DOSIsoft, leader européen des logiciels de planification de traitement, fournissant les logiciels dernière génération utilisés à l'ICPO. Le savoir faire du laboratoire TSI (Traitement du Signal et de l'Image) de Télécom ParisTech vient s'ajouter à ce partenariat, apportant une plus-value scientifique conséquente.
|
93 |
Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriquesCachier, Pascal 29 January 2002 (has links) (PDF)
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
|
94 |
Contributions aux méthodes directes d'estimation et de commande basées sur la visionSilveira Filho, Geraldo 29 October 2008 (has links) (PDF)
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
|
95 |
Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobilesRidene, Taha 09 July 2010 (has links) (PDF)
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®...). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données.
|
96 |
Segmentation par contours actifs en imagerie médicale dynamique : application en cardiologie nucléaireDebreuve, Eric 27 October 2000 (has links) (PDF)
En imagerie d'émission, la médecine nucléaire fournit une information fonctionnelle sur l'organe étudié. En imagerie de transmission, elle fournit une information anatomique, destinée par exemple à corriger certains facteurs de dégradation des images d'émission. Qu'il s'agisse d'une image d'émission ou de transmission, il est utile de savoir extraire de façon automatique ou semi-automatique les éléments pertinents : le ou les organes d'intérêt et le pourtour du patient lorsque le champ d'acquisition est large. Voilà le but des méthodes de segmentation. Nous avons développé deux méthodes de segmentation par contours actifs, le point crucial étant la définition de leur vitesse d'évolution. Elles ont été mises en œuvre par les ensembles de niveaux. En premier lieu, nous nous sommes intéressés à l'imagerie statique de transmission de la région thoracique. La vitesse d'évolution, définie heuristiquement, fait directement intervenir les projections acquises. La carte de transmission segmentée, obtenue ainsi sans reconstruction, doit servir à améliorer la correction de l'atténuation photonique subie par les images cardiaques d'émission. Puis nous avons étudié la segmentation des séquences cardiaques -- d'émission -- synchronisées par électrocardiogramme. La méthode de segmentation spatio-temporelle développée résulte de la minimisation d'un critère variationnel exploitant d'un bloc l'ensemble de la séquence. La segmentation obtenue doit servir au calcul de paramètres physiologiques. Nous l'avons illustré en calculant la fraction d'éjection. Pour terminer, nous avons exploité les propriétés des ensembles de niveaux afin de développer une méthode géométrique de recalage, non rigide et non paramétrique. Nous l'avons appliquée à la compensation cinétique des images des séquences cardiaques synchronisées. Les images recalées ont alors été ajoutées de sorte à produire une image dont le niveau de bruit est comparable à celui d'une image cardiaque statique sans toutefois souffrir de flou cinétique.
|
97 |
Diffusion Tensor Imaging of the Human Skeletal Muscle : Contributions and ApplicationsNeji, Radhouène 09 March 2010 (has links) (PDF)
Cette thèse propose des techniques pour le traitement d'images IRM de diffusion. Les méthodes proposées concernent l'estimation et la régularisation, le groupement et la segmentation ainsi que le recalage. Le cadre variationnel proposé dans cette thèse pour l'estimation d'un champ de tenseurs de diffusion à partir d'observations bruitées exploite le fait que les données de diffusion représentent des populations de fibres et que chaque tenseur peut être reconstruit à partir d'une combinaison pondérée de tenseurs dans son voisinage. La méthode de segmentation traite aussi bien les voxels que les fibres. Elle est basée sur l'utilisation de noyaux défini-positifs sur des probabilités gaussiennes de diffusion afin de modéliser la similarité entre tenseurs et les interactions spatiales. Ceci permet de définir des métriques entre fibres qui combinent les informations de localisation spatiale et de tenseurs de diffusion. Plusieurs approches de groupement peuvent être appliquées par la suite pour segmenter des champs de tenseurs et des trajectoires de fibres. Un cadre de groupement supervisé est proposé pour étendre cette technique. L'algorithme de recalage utilise les noyaux sur probabilités pour recaler une image source et une image cible. La régularité de la déformation est évaluée en utilisant la distortion induite sur les distances entre probabilités spatialement voisines. La minimisation de la fonctionnelle de recalage est faite dans un cadre discret. La validation expérimentale est faite sur des images du muscle du mollet pour des sujets sains et pour des patients atteints de myopathies. Les résultats des techniques développées dans cette thèse sont encourageants.
|
98 |
Identification des propriétés mécaniques des tissus constitutifs du mollet pour l'étude mécanique de la contentionBouten, L. 06 March 2009 (has links) (PDF)
La contention, c'est-a-dire une action mécanique appliquée sur un membre humain dans le but d'aider le sang à refluer vers le coeur, est de plus en plus répandue et pénètre le marché du grand public. Notamment, la contention progressive telle que proposée par BVSport® pour les membres inférieurs est actuellement utilisée lors d'efforts musculaires prolongés ou lors de la récupération musculaire après l'effort. Des essais cliniques ont aussi montré son efficacité dans le cas d'insuffisances veineuses légères à modérées. Les développements récents vont maintenant vers une personnalisation de la prescription et une adaptation de la contention aux différents degrés d'insuffisance veineuse. Cependant, actuellement, aucun moyen de mesure ne permet de déterminer la pression qui est réellement appliquée sur un patient donné par l'article de contention présent, encore moins la pression transmise au système vasculaire profond. L'apport majeur de ce travail réside dans la mise en oeuvre d'une méthodologie qui permet de répondre à ces deux problématiques.Cependant, actuellement, aucun moyen de mesure ne permet de déterminer la pression qui est réellement appliquée sur un patient donné par l'article de contention présent, encore moins la pression transmise au système vasculaire profond. L'apport majeur de ce travail réside dans la mise en oeuvre d'une méthodologie qui permet de répondre à ces deux problématiques. Pour cela, il est d'abord nécessaire d'identifier de manière atraumatique et non-invasive les propriétés mécaniques in vivo des tissus biologiques de la jambe. Les caractérisations in vivo des tissus mous biologiques sont rares dans la littérature (elles concernent principalement la peau), car aucune méthode de mesure atraumatique de la déformation des tissus internes n'a été validée jusqu'à présent. Dans ce travail, la contention progressive est utilisée comme chargement mécanique. Des images IRM de la jambe sont prises sous différents niveaux de contention et un modèle EF 2D du mollet sous contention a été développé en déformations planes. Le modèle est soumis a une pression qui tient compte du rayon de courbure de la jambe (lot de Laplace) et cette pression est déduite de la réponse du tricot aux essais de traction spécifiques mis en place. L'identification des paramètres mécaniques du modèle est réalisée en optimisant la mesure de similarité entre les images de la jambe comprimée et les images déformées par le modèle. Finalement, une fois l'identification réalisée, le modèle numérique 2D permet alors un calcul biofidèle et personnalisé des pressions internes au mollet engendrées par le port d'un tricot de contention donné. Cela permet d'une part de déterminer la répartition spatiale des pressions à l'intérieur du mollet et d'autre part de comparer les pressions appliquées sur le mollet à celles prescrites. On montre ainsi que l'effet de la contention progressive dépend de manière non négligeable de la morphologie des tissus sous-jacents (muscles et graisse sous-cutanée). La méthodologie développée dans ce travail doit maintenant être appliquée sur un nombre de patients significatif pour pouvoir dégager les principales tendances de distributions des pressions internes en fonction des différents morphotypes.
|
99 |
Quantification des anomalies neurologiques métaboliques et imagerie de sources électriquesPerson, Christophe 19 June 2012 (has links) (PDF)
Un traitement possible de l'épilepsie partielle pharmaco-résistante consiste en l'exérèse de la région cérébrale responsable des crises. La difficulté est de localiser cette zone et d'en définir l'étendue. L'objectif de cette thèse est d'apporter des données permettant de préciser la localisation et le volume des régions pathologiques, en exploitant deux modalités : l'imagerie TEP (Tomographie par Emission de Positons) et l'EEGHR (EEG Haute Résolution : signaux cérébraux recueillis sur le scalp avec un nombre important d'électrodes et une fréquence d'échantillonnage élevée). En imagerie TEP, il s'agit de segmenter les zones d'hypométabolisme qui sont liées aux régions responsables des crises. Des méthodes de comparaisons statistiques à l'aide d'outils de type SPM (Statistical ParametricMapping) entre les images TEP de sujets pathologiques et de sujets sains ont été appliquées, en effectuant des tests d'hypothèse voxel à voxel entre les différentes images. Pour pouvoir être comparées à une population de référence, les différentes images ont subi des transformations non linéaires afin que chaque voxel corresponde à la même région anatomique chez tous les sujets. Deux algorithmes ont été appliqués : une méthode SPM classique et une méthode Block-Matching. Les résultats sont comparés par analyse subjective clinique et également sur des données simulées. En ce qui concerne l'EEG-HR, la localisation spatiale et temporelle de sources d'événements intercritiques (pointes et ondes lentes) a été réalisée par résolution du problème inverse. Ceci a permis de localiser les sources électriques intracérébrales d'intérêt qui sont à l'origine des signaux acquis sur le scalp. Enfin, une représentation des données multimodales (images TEP et signaux EEG-HR) dans un même référentiel a permis d'accroître les connaissances sur les relations existant entre les activités électriques et métaboliques et ainsi de mieux définir les régions épileptogènes.
|
100 |
Mise en Correspondance Tridimensionnelle d'Images Multimodales<br /><br />Application aux Systèmes d'Imageries Projective et Tomographique d'Angiographie CérébraleVermandel, Maximilien 16 October 2002 (has links) (PDF)
La mise en correspondance d'images multimodales est devenue un axe de recherche essentiel en traitement d'images quels que soient les domaines d'applications. Dans le cadre médical, de nombreuses modalités d'imagerie permettent d'explorer l'organisme mais la grande diversité des phénomènes physiques mis en jeu implique que les organes seront analysés selon des points de vue très différents, spécifiques à chacune des modalités. La fusion d'images multimodales permet de palier cette difficulté en exploitant la complémentarité des différentes modalités pour extraire des données nouvelles par la juxtaposition des données initiales et faisant ainsi de la mise en correspondance un élément d'analyse incontournable. La présente étude est orientée sur la recalage et la mise en correspondance de données issues de systèmes d'imageries projective et tomographique d'angiographie cérébrale. L'angiographie par rayons X (2D) est la référence actuelle pour l'étude des vaisseaux intracrâniens mais elle souffre d'un manque de flexibilité et d'absence d'informations tridimensionnelles. Le recalage et la mise en correspondance de cette modalité avec l'Imagerie par Résonance Magnétique permet, d'une part de compléter les données de l'image radiologique et, d'autre part, de valider les innovations technologiques apportées aux dernières générations d'imageurs. La méthode proposée se base sur un recalage automatique et rigide entre les deux modalités. L'originalité de l'approche réside en l'absence de marqueurs ou référentiels externes, basant ainsi le recalage uniquement sur les caractéristiques anatomiques individuelles. Les retombées médicales de ce travail sont multiples tant dans le domaine diagnostique que thérapeutique. A titres d'exemples, une information fine et précise de la vascularisation peut se révéler être décisive dans un cadre neurochirurgical et la mise en correspondance d'images acquises à des instants différents permet un suivi plus objectif d'une pathologie.
|
Page generated in 0.0209 seconds