• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 126
  • 20
  • Tagged with
  • 326
  • 326
  • 191
  • 178
  • 96
  • 83
  • 71
  • 70
  • 69
  • 64
  • 60
  • 58
  • 54
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition / Une contribution à la segmentation structurale d’une image de la bouche par reconnaissance gestuelle automatique

Gómez-Mendoza, Juan Bernardo 15 May 2012 (has links)
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison. / This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.
212

Fourier-based reconstruction of ultrafast sectorial images in ultrasound / Reconstruction dans le domaine de Fourier des images sectorielles ultrarapides par ultrasons

Zhang, Miaomiao 16 December 2016 (has links)
L'échocardiographie est une modalité d'imagerie sûre, non-invasive, qui est utilisée pour évaluer la fonction et l'anatomie cardiaque en routine clinique. Mais la cadence maximale d’imagerie atteinte est limitée en raison de la vitesse limitée du son. Afin d’augmenter la fréquence d'image, l'utilisation d’ondes planes ou d’ondes divergentes en transmissinon a été proposée afin de réduire le nombre de tirs nécessaires à la reconstruction d'une image. L'objectif de cette thèse consiste à développer un procédé d'imagerie par ultrasons ultra-rapide en échocardiographie 2/3D basé sur une insonification par ondes divergentes et réalisant une reconstruction dans le domaine de Fourier. Les contributions principales obtenues au cours de la thèse sont décrites ci-dessous. La première contribution de cette thèse concerne un schéma de transmission dichotomique pour l'acquisition linéaire en analysant mathématiquement la pression générée. Nous avons ensuite montré que ce système de transmission peut améliorer la qualité des images reconstruites pour une cadence constante en utilisant les algorithmes de reconstruction conventionnels. La qualité des images reconstruites a été évaluée en termes de résolution et de contraste au moyen de simulations et acquisitions expérimentales réalisées sur des fantômes. La deuxième contribution concerne le développement d'une nouvelle méthode d'imagerie 2D en ondes plane opérant dans le domaine de Fourier et basée sur le théorème de la coupe centrale. Les résultats que nous avons obtenus montrent que l'approche proposée fournit des résultats très proches de ceux fournit par les méthodes classiques en termes de résolution latérale et contraste de l'image. La troisième contribution concerne le développement d'une transformation spatiale explicite permettant d'étendre les méthodes 2D opérant dans le domaine de Fourier d'une acquisition en géométrie linéaire avec des ondes planes à la géométrie sectorielle avec des ondes divergente en transmission. Les résultats que nous avons obtenus à partir de simulations et d'acquisitions expérimentales in vivo montrent que l'application de cette extension à la méthode de Lu permet d'obtenir la même qualité d’image que la méthode spatiale de Papadacci basée sur des ondes divergentes, mais avec une complexité de calcul plus faible. Finalement, la formulation proposée en 2D pour les méthodes ultra-rapides opérant dans le domaine de Fourier ont été étendues en 3D. L'approche proposée donne des résultats compétitifs associés à une complexité de calcul beaucoup plus faible par rapport à la technique de retard et somme conventionnelle. / Three-dimensional echocardiography is one of the most widely used modality in real time heart imaging thanks to its noninvasive and low cost. However, the real-time property is limited because of the limited speed of sound. To increase the frame rate, plane wave and diverging wave in transmission have been proposed to drastically reduce the number of transmissions to reconstruct one image. In this thesis, starting with the 2D plane wave imaging methods, the reconstruction of 2D/3D echocardiographic sequences in Fourier domain using diverging waves is addressed. The main contributions are as follows: The first contribution concerns the study of the influence of transmission scheme in the context of 2D plane wave imaging. A dichotomous transmission scheme was proposed. Results show that the proposed scheme allows the improvement of the quality of the reconstructed B-mode images at a constant frame rate. Then we proposed an alternative Fourier-based plane wave imaging method (i.e. Ultrasound Fourier Slice Beamforming). The proposed method was assessed using numerical simulations and experiments. Results revealed that the method produces very competitive image quality compared to the state-of-the-art methods. The third contribution concerns the extension of Fourier-based plane wave imaging methods to sectorial imaging in 2D. We derived an explicit spatial transformation which allows the extension of the current Fourier-based plane wave imaging techniques to the reconstruction of sectorial scan using diverging waves. Results obtained from simulations and experiments show that the derived methods produce competitive results with lower computational complexity when compared to the conventional delay and sum (DAS) technique. Finally, the 2D Fourier-based diverging wave imaging methods are extended to 3D. Numerical simulations were performed to evaluate the proposed method. Results show that the proposed approach provides competitive scores in terms of image quality compared to the DAS technique, but with a much lower computational complexity.
213

Traitement et simulation d’images d’IRM de perfusion pour la prédiction de l’évolution de la lésion ischémique dans l’accident vasculaire cérébral / Image processing and simulation of perfusion MRI images for the prediction of the ischemic lesion evolution in stroke

Giacalone, Mathilde 05 October 2017 (has links)
L'Accident Vasculaire Cérébral (AVC) - pathologie résultant d'une perturbation de l'apport sanguin dans le cerveau - est un problème de santé publique majeur, représentant la troisième cause de mortalité dans les pays industrialisés. Afin d'améliorer la prise en charge des patients atteints d'un AVC, il est important de posséder des méthodes efficaces pour l'identification des patients éligibles aux différentes thérapies et pour l'évaluation du rapport bénéfice/risque associé à ces thérapies. Dans ce contexte, l'Imagerie par Résonance Magnétique (IRM) dynamique de perfusion par contraste de susceptibilité, une modalité d'imagerie utile pour apprécier l'état de la perfusion cérébrale, peut aider à identifier les tissus à risque de s'infarcir. Cependant, l'intégralité de la chaîne de traitement, de l'acquisition à l'analyse et l'interprétation de l'IRM de perfusion demeure complexe et plusieurs limitations restent encore à surmonter. Durant ces travaux de thèse, nous contribuons à l'amélioration de la chaîne de traitement de l'IRM de perfusion, avec comme objectif final, l'obtention d'une meilleure prédiction de l'évolution de la lésion ischémique dans l'AVC. Dans une première partie, nous travaillons principalement sur l'étape de déconvolution des signaux temporels, une des étapes clefs à l'amélioration de l'IRM de perfusion. Cette étape consiste en la résolution d'un problème inverse mal-posé, et permet le calcul de paramètres hémodynamiques qui sont des biomarqueurs importants pour la classification de l'état final des tissus dans l'AVC. Afin de comparer de façon objective les performances des différents algorithmes de déconvolution existants et d'en valider des nouveaux, il est nécessaire d'avoir accès à une information sur la vérité terrain après déconvolution. Dans ce but, nous avons développé un simulateur numérique pour l'IRM de perfusion, avec une vérité terrain générée automatiquement. Ce simulateur est utilisé pour démontrer la faisabilité d'une automatisation du réglage des paramètres de régularisation, et établir la robustesse d'un algorithme de déconvolution avec régularisation spatio-temporelle d'introduction récente. Nous proposons également un nouvel algorithme de déconvolution globalement convergent. Enfin, la première partie de ces travaux se termine avec une discussion sur une autre étape de la chaîne de traitement en IRM de perfusion, à savoir, la normalisation des cartes de paramètres hémodynamiques extraites des images déconvoluées / Stroke – a neurological deficit resulting from blood supply perturbations in the brain – is a major public health issue, representing the third cause of death in industrialized countries. There is a need to improve the identification of patients eligible to the different therapies, as well as the evaluation of the benefit-risk ratio for the patients. In this context, perfusion Dynamic Susceptibility Contrast (DSC)-MRI, a prominent imaging modality for the assessment of cerebral perfusion, can help to identify the tissues at risk of infarction from the benign oligaemia. However, the entire pipeline from the acquisition to the analysis and interpretation of a DSC-MRI remains complex and some limitations are still to be overcome. During this PhD work, we contribute to improving the DSC-MRI processing pipeline with the ultimate objective of ameliorating the prediction of the ischemic lesion evolution in stroke. In a first part, we primarily work on the step of temporal signal deconvolution, one of the steps key to the improvement of DSC-MRI. This step consists in the resolution of an inverse ill-posed problem and allows the computation of hemodynamic parameters which are important biomarkers for tissue fate classification in stroke. In order to compare objectively the performances of existing deconvolution algorithms and to validate new ones, it is necessary to have access to information on the ground truth after deconvolution. To this end, we developed a numerical simulator of DSC MRI with automatically generated ground truth. This simulator is used to demonstrate the feasability of a full automation of regularization parameters tuning and to establish the robustness of a recent deconvolution algorithm with spatio-temporal regularization. We then propose a new globally convergent deconvolution algorithm. Then, this first part ends with a discussion on another processing step in the DSC-MRI pipeline, the normalisation of the hemodynamic parameters maps extracted from the deconvolved images. In a second part, we work on the prediction of the evolution of the tissue state from longitudinal MRI data. We first demonstrate the interest of modeling longitudinal MRI studies in stroke as a communication channel where information theory provides useful tools to identify the hemodynamic parameters maps carrying the highest predictive information, determine the spatial observation scales providing the optimal predictivity for tissue classification as well as estimate the impact of noise in prediction studies. We then demonstrate the interest of injecting shape descriptors of the ischemic lesion in acute stage in a linear regression model for the prediction of the final infarct volume. We finally propose a classifier of tissue fate based on local binary pattern for the encoding of the spatio-temporal evolution of the perfusion MRI signals
214

Quantification du mouvement et de la déformation cardiaques à partir d'IRM marquée tridimensionnelle sur des données acquises par des imageurs Philips / Quantification of cardiac motion and deformation from 3D tagged MRI acquired by Philips imaging devices

Zhou, Yitian 03 July 2017 (has links)
Les maladies cardiovasculaires sont parmi les principales causes de mortalité à l’échelle mondiale. Un certain nombre de maladies cardiaques peuvent être identifiées et localisées par l’analyse du mouvement et de la déformation cardiaques à partir de l’imagerie médicale. Cependant, l’utilisation de ces techniques en routine clinique est freinée par le manque d’outils de quantification efficaces et fiables. Dans cette thèse, nous introduisons un algorithme de quantification appliqué aux images IRM marquées. Nous présentons ensuite un pipeline de simulation qui génère des séquences cardiaques synthétiques (US et IRM). Les principales contributions sont décrites ci-dessous. Tout d’abord, nous avons proposé une nouvelle extension 3D de la méthode de la phase harmonique. Le suivi de flux optique en utilisant la phase a été combiné avec un modèle de régularisation anatomique afin d’estimer les mouvements cardiaques à partir des images IRM marquées. En particulier, des efforts ont été faits pour assurer une estimation précise de la déformation radiale en imposant l’incompressibilité du myocarde. L’algorithme (dénommé HarpAR) a ensuite été évalué sur des volontaires sains et des patients ayant différents niveaux d’ischémie. HarpAR a obtenu la précision de suivi comparable à quatre autres algorithmes de l’état de l’art. Sur les données cliniques, la dispersion des déformations est corrélée avec le degré de fibroses. De plus, les segments ischémiques sont distingués des segments sains en analysant les courbes de déformation. Deuxièmement, nous avons proposé un nouveau pipeline de simulation pour générer des séquences synthétiques US et IRM pour le même patient virtuel. Les séquences réelles, un modèle électromécanique (E/M) et les simulateurs physiques sont combinés dans un cadre unifié pour générer des images synthétiques. Au total, nous avons simulé 18 patients virtuels, chacun avec des séquences synthétiques IRM cine, IRM marquée et US 3D. Les images synthétiques ont été évaluées qualitativement et quantitativement. Elles ont des textures d’images réalistes qui sont similaires aux acquisitions réelles. De plus, nous avons également évalué les propriétés mécaniques des simulations. Les valeurs de la fraction d’éjection et de la déformation locale sont cohérentes avec les valeurs de référence publiées dans la littérature. Enfin, nous avons montré une étude préliminaire de benchmarking en utilisant les images synthétiques. L'algorithme générique gHarpAR a été comparé avec un autre algorithme générique SparseDemons en termes de précision sur le mouvement et la déformation. Les résultats montrent que SparseDemons surclasse gHarpAR en IRM cine et US. En IRM marquée, les deux méthodes ont obtenu des précisions similaires sur le mouvement et deux composants de déformations (circonférentielle et longitudinale). Toutefois, gHarpAR estime la déformation radiale de manière plus précise, grâce à la contrainte d’incompressibilité du myocarde. / Cardiovascular disease is one of the major causes of death worldwide. A number of heart diseases can be diagnosed through the analysis of cardiac images after quantifying shape and function. However, the application of these deformation quantification algorithms in clinical routine is somewhat held back by the lack of a solid validation. In this thesis, we mainly introduce a fast 3D tagged MR quantification algorithm, as well as a novel pipeline for generating synthetic cardiac US and MR image sequences for validation purposes. The main contributions are described below. First, we proposed a novel 3D extension of the well-known harmonic phase tracking method. The point-wise phase-based optical flow tracking was combined with an anatomical regularization model in order to estimate anatomically coherent myocardial motions. In particular, special efforts were made to ensure a reasonable radial strain estimation by enforcing myocardial incompressibility through the divergence theorem. The proposed HarpAR algorithm was evaluated on both healthy volunteers and patients having different levels of ischemia. On volunteer data, the tracking accuracy was found to be as accurate as the best candidates of a recent benchmark. On patient data, strain dispersion was shown to correlate with the extent of transmural fibrosis. Besides, the ischemic segments were distinguished from healthy ones from the strain curves. Second, we proposed a simulation pipeline for generating realistic synthetic cardiac US, cine and tagged MR sequences from the same virtual subject. Template sequences, a state-of-the-art electro-mechanical (E/M) model and physical simulators were combined in a unified framework for generating image data. In total, we simulated 18 virtual patients (3 healthy, 3 dyssynchrony and 12 ischemia), each with synthetic sequences of 3D cine MR, US and tagged MR. The synthetic images were assessed both qualitatively and quantitatively. They showed realistic image textures similar to real acquisitions. Besides, both the ejection fraction and regional strain values are in agreement with reference values published in the literature. Finally, we showed a preliminary benchmarking study using the synthetic database. We performed a comparison between gHarpAR and another tracking algorithm SparseDemons using the virtual patients. The results showed that SparseDemons outperformed gHarpAR in processing cine MR and US images. Regarding tagged MR, both methods obtained similar accuracies on motion and two strain components (circumferential and longitudinal). However, gHarpAR quantified radial strains more accurately, thanks to the myocardial incompressibility constraint. We conclude that motion quantification solutions can be improved by designing them according to the image characteristics of the modality and that a solid evaluation framework can be a key asset in comparing different algorithmic options.
215

Recalage de groupes d’images médicales 3D par extraction de points d’intérêt / 3D medical images groupwise registration by interest points extraction

Agier, Rémi 23 October 2017 (has links)
Les imageurs des hôpitaux produisent de plus en plus d'images 3D et il y a un nombre croissant d'études de cohortes. Afin d'ouvrir la voie à des méthodes utilisant de larges bases de données, il est nécessaire de développer des approches permettant de rendre ces bases cohérentes en recalant les images. Les principales méthodes actuelles de recalage de groupes utilisent des données denses (voxels) et sélectionnent une référence pour mettre en correspondance l'ensemble des images. Nous proposons une approche de recalage par groupes, sans image de référence, en utilisant seulement des points d'intérêt (Surf3D), applicable à des bases de plusieurs centaines d'images médicales. Nous formulons un problème global fondé sur l'appariement de points d'intérêt. La variabilité inter-individu étant grande, le taux de faux positifs (paires aberrantes) peut être très important (70\%). Une attention particulière est portée sur l'élimination des appariements erronés. Une première contribution effectue le recalage rigide de groupes d'images. Nous calculons les recalages de toutes les paires d'images. En s'appuyant sur le graphe complet de ces recalages, nous formulons le problème global en utilisant l'opérateur laplacien. Des expérimentations avec 400 images scanner CT 3D hétérogènes illustrent la robustesse de notre méthode et sa vitesse d'exécution. Une seconde contribution calcule le recalage déformable de groupes d'images. Nous utilisons des demi-transformations, paramétrées par des pyramides de B-splines, entre chaque image et un espace commun. Des comparaisons sur un jeu de données de référence montrent que notre approche est compétitive avec la littérature tout en étant beaucoup plus rapide. Ces résultats montrent le potentiel des approches basées sur des points d'intérêt pour la mise en correspondance de grandes bases d'images. Nous illustrons les perspectives de notre approche par deux applications : la segmentation multi-atlas et l'anthropologie. / The ever-increasing amount of medical images stored in hospitals offers a great opportunity for big data analysis. In order to pave the way for huge image groups screening, we need to develop methods able to make images databases consistent by group registering those images. Currently, group registration methods generally use dense, voxel-based, representations for images and often pick a reference to register images. We propose a group registration framework, without reference image, by using only interest points (Surf3D), able to register hundreds of medical images. We formulate a global problem based on interest point matching. The inter-patient variability is high, and the outliers ratio can be large (70\%). We pay a particular attention on inhibiting outliers contribution. Our first contribution is a two-step rigid groupwise registration. In the first step, we compute the pairwise rigid registration of each image pair. In a second step, a complete graph of those registrations allows us to formulate a global problem using the laplacian operator. We show experimental results for groups of up to 400 CT-scanner 3D heterogeneous images highlighting the robustness and speed of our approach. In our second contribution, we compute a non-rigid groupwise registration. Our approach involves half-transforms, parametrized by a b-spline pyramid, between each image and a common space. A reference dataset shows that our algorithm provides competitive results while being much faster than previous methods. Those results show the potential of our interest point based registration method for huge datasets of 3D medical images. We also provide to promising perspectives: multi-atlas based segmentation and anthropology.
216

Evaluation de la fiabilité d'un générateur à rayons X pour application médicale / Reliability assessment of an X-rays generator in medical application

Sow, Amadou Tidiane 13 June 2014 (has links)
Les systèmes d’imagerie médicale, principalement les systèmes à rayons X, sont devenus incontournables dans le diagnostic et le traitement des maladies complexes. Le générateur à rayons X fait partie des sous-systèmes critiques d’un système à rayons X. La technologie des générateurs à rayons X se complexifie et les contraintes vues par les composants augmentent. L’évaluation de la fiabilité du générateur à rayons X est par conséquent nécessaire afin d’optimiser la durée de vie de ce dernier. Dans ces travaux de thèse, une méthodologie d’évaluation de la fiabilité d’un générateur à rayons X est proposée. La méthodologie repose sur l’évaluation de la fiabilité allant du composant au système. Des essais de vieillissement sont d’abord réalisés au niveau des composants critiques du générateur afin d’identifier les mécanismes de défaillance et de construire les courbes de durée de vie permettant d’effectuer une prévision de fiabilité. Les paramètres du recueil de fiabilité FIDES ont aussi été utilisés pour construire les courbes de durée de vie des composants critiques. Une méthode de prévision de la fiabilité basée sur l’hypothèse du dommage cumulé avec la règle de Miner est proposée pour évaluer la durée de vie des composants critiques sous contraintes thermomécaniques. Cette méthode utilise les règles de comptage rainflow pour obtenir une distribution des différences de température vues par les composants critiques. Une association de fiabilité permet enfin d’estimer la durée de vie de chaque sous système du générateur à rayons X à travers ses composants critiques. / Medical imaging systems, mainly X-rays imaging systems, have become essential in the diagnosis and treatment of complex diseases. X-rays generator is one of the critical subsystems of a medical system. Its technology became more complex and constraints seen by the components increase. An assessment of X-rays generator reliability is therefore necessary to optimize its lifetime. In this thesis, a reliability assessment method of an X-rays generator is proposed. The methodology is based on the assessment of the reliability from component to system. Aging tests are first performed for X-rays generator critical components in order to identify failure mechanisms and build lifetime curves for performing reliability prediction. FIDES guide parameters were also used to construct critical components lifetime curves. A reliability prediction method based on the assumption of cumulative damage with Miner's rule is proposed to evaluate critical components lifetime under thermomechanical stresses. This method uses rainflow counting rules for the temperature cycles distribution of critical components. A reliability block diagram is finally used to estimate the lifetime of each X-ray generator subsystem through its critical components.
217

Adéquation Algorithme Architecture pour la reconstruction 3D en imagerie médicale TEP

Gac, Nicolas 17 July 2008 (has links) (PDF)
L'amélioration constante de la résolution dynamique et temporelle des scanners et des méthodes de reconstruction en imagerie médicale, s'accompagne d'un besoin croissant en puissance de calcul. Les accélérations logicielles, algorithmiques et matérielles sont ainsi appelées à réduire le fossé technologique existant entre les systèmes d'acquisition et ceux de reconstruction.<br />Dans ce contexte, une architecture matérielle de rétroprojection 3D en Tomographie à Emission de Positons (TEP) est proposée. Afin de lever le verrou technologique constitué par la forte latence des mémoires externes de type SDRAM, la meilleure Adéquation Algorithme Architecture a été recherchée. Cette architecture a été implémentée sur un SoPC (System on Programmable Chip) et ses performances comparées à celles d'un PC, d'un serveur de calcul et d'une carte graphique. Associée à un module matériel de projection 3D, cette architecture permet de définir une paire matérielle de projection/rétroprojection et de constituer ainsi un système de reconstruction complet.
218

Visualisation Scientifique en médecine.<br />Application à la visualisation de l'anatomie et à la visualisation en épileptologie clinique

Dillenseger, Jean-Louis 17 June 2003 (has links) (PDF)
En médecine, le rôle de l'image est primordial. Depuis la renaissance, l'image a été un des vecteurs principaux de la transmission du savoir. Plus récemment, l'essor des techniques d'imageries tridimensionnelles n'a fait qu'étendre l'importance de l'image à la plupart des disciplines et des procédures médicales. Tout naturellement donc, la médecine a représenté un des domaines d'application privilégiés de la visualisation scientifique. Mes travaux de recherche s'inscrivent directement dans cette discipline de la visualisation scientifique et se présentent sous la forme de solutions de représentations originales apportées et associées à certaines problématiques médicales.<br />Pour cela, une réflexion sur l'outil de visualisation a été menée afin de proposer un cadre bien défini qui puisse guider l'élaboration d'un outil de représentation répondant à une discipline et à une problématique particulière. Le point le plus original de cette réflexion concerne un essai de formalisation de l'évaluation de la performance des outils de visualisation.<br />Deux grands domaines d'application ont justement permis de démontrer la pertinence de ce cadre général de la visualisation :<br />- La visualisation générale de l'anatomie avec, dans un premier temps, la conception d'un outil générique de visualisation de données médicale, le lancer de rayons multifonctions. Cet outil a été ensuite étendu selon deux axes de recherche, d'une part l'intégration de modèles de connaissances dans la procédure de synthèse d'images et d'autre part, l'imagerie interventionnelle et plus particulièrement des applications en urologie.<br />- Les apports de la visualisation pour l'interprétation des données recueillies sur le patient épileptique et plus particulièrement l'élaboration d'outils complémentaires permettant une analyse progressive des mécanismes et structures impliqués dans la crise.
219

Modèle électromécanique du coeur pour l'analyse d'image et la simulation

Sermesant, Maxime 26 May 2003 (has links) (PDF)
Ce manuscrit présente un modèle dynamique de l'activité électromécanique du coeur pour l'analyse de séquences temporelles d'images et la simulation médicale. Tout d'abord, un processus de construction de modèles biomécaniques volumiques du myocarde à l'aide de maillages tétraédriques est mis en place. Puis la propagation du potentiel d'action dans le myocarde est simulée, en se fondant sur des équations aux dérivées partielles de réaction-diffusion de type FitzHugh-Nagumo, qui permettent l'inclusion de pathologies et la simulation d interventions. Ensuite, la contraction du myocarde est modélisée sur un cycle cardiaque grace à une loi de comportement incluant un couplage électromécanique et des conditions limites intégrant l'interaction avec le sang. Ce modéle est ainsi validé à travers certains paramètres globaux et locaux de la fonction ventriculaire cardiaque. Une fois ce modèle électromécanique mis en place, il est utilisé dans une méthode de segmentation par modèle déformable de séquences d'images médicales, afin d'en extraire des paramètres quantitatifs de la fonction cardiaque. Cette nouvelle génération de modéles déformables pro-actifs permet d'intègrer de l'information à priori non seulement sur l'anatomie et le comportement mécanique mais aussi sur l'activité électrique et le mouvement. Le couplage au sein d'un meme modéle d'informations anatomiques, biomécaniques et physiologiques contribué à ameliorer la robustesse et la précision face à des données bruitées et éparses comme les images médicales et ouvre des possibilités supplémentaires en simulation médicale.
220

Modèles statistiques d'apparence non gaussiens. Application à la création d'un atlas probabiliste de perfusion cérébrale en imagerie médicale

Vik, Torbjorn 21 September 2004 (has links) (PDF)
La tomoscintigraphie par émission mono-photonique (TEMP) est une méthode d'imagerie fonctionnelle 3D qui apporte des informations sur le débit sanguin cérébral (également appelé perfusion cérébrale). Cette méthode d'imagerie, par la détection visuelle d'anomalies de perfusion caractérisées par des zones hypo- ou hyper-intenses, est utilisée pour le diagnostic chez des patients atteints d'accidents vasculaires cérébraux, de démence, d'épilepsie ou d'autres pathologies cérébrales. La détection d'anomalies focalisées observées chez les patients ayant une attaque cérébrale est relativement aisée, alors que les anomalies diffuses, observées en début de démence, lors d'un accident entraînant une oxygénation insuffisante du cerveau ou suite à une exposition à une substance toxique, sont plus difficilement observables. Dans ces cas, une analyse quantitative des images, utilisant un atlas et des outils statistiques s'appuyant sur une base d'images de cas normaux, peut apporter une aide précieuse au diagnostic. Le travail présenté dans cette thèse est centré sur la problématique de la construction et de l'évaluation d'un atlas probabiliste de perfusion cérébrale à partir des images TEMP de sujets dits normaux. Les objectifs d'un tel atlas sont doubles : (1) création d'une cartographie statistique de la perfusion cérébrale d'une population normale, décrite de manière compacte, et (2) identification des différences de perfusion cérébrale qui sont statistiquement significatives entre une image TEMP d'un individu et l'atlas probabiliste. L'utilisation d'un atlas devrait avoir un impact important sur les applications cliniques où l'analyse qualitative d'images TEMP est pratique courante. Afin d'atteindre ces objectifs, trois points ont été abordés : le développement de modèles statistiques qui décrivent de façon fidèle la perfusion cérébrale, les outils de traitement d'images utilisés pour rendre les cerveaux "comparables", et enfin, l'évaluation expérimentale de l'atlas.

Page generated in 0.0249 seconds