• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 126
  • 20
  • Tagged with
  • 326
  • 326
  • 191
  • 178
  • 96
  • 83
  • 71
  • 70
  • 69
  • 64
  • 60
  • 58
  • 54
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Automatic multimodal real-time tracking for image plane alignment in interventional Magnetic Resonance Imaging

Neumann, Markus 25 February 2014 (has links) (PDF)
Interventional magnetic resonance imaging (MRI) aims at performing minimally invasive percutaneous interventions, such as tumor ablations and biopsies, under MRI guidance. During such interventions, the acquired MR image planes are typically aligned to the surgical instrument (needle) axis and to surrounding anatomical structures of interest in order to efficiently monitor the advancement in real-time of the instrument inside the patient's body. Object tracking inside the MRI is expected to facilitate and accelerate MR-guided interventions by allowing to automatically align the image planes to the surgical instrument. In this PhD thesis, an image-based workflow is proposed and refined for automatic image plane alignment. An automatic tracking workflow was developed, performing detection and tracking of a passive marker directly in clinical real-time images. This tracking workflow is designed for fully automated image plane alignment, with minimization of tracking-dedicated time. Its main drawback is its inherent dependence on the slow clinical MRI update rate. First, the addition of motion estimation and prediction with a Kalman filter was investigated and improved the workflow tracking performance. Second, a complementary optical sensor was used for multi-sensor tracking in order to decouple the tracking update rate from the MR image acquisition rate. Performance of the workflow was evaluated with both computer simulations and experiments using an MR compatible testbed. Results show a high robustness of the multi-sensor tracking approach for dynamic image plane alignment, due to the combination of the individual strengths of each sensor.
232

Contributions and perspectives to computer vision, image processing and EEG/MEG data analysis

Papadopoulo, Théodore 09 May 2011 (has links) (PDF)
Dans une première partie, j'illustrerai quelques uns de mes travaux en visio n par ordinateur et traitement d'images. Ceux-ci portent notamment sur la géométrie multi-vues, l'utilisation du raisonnement géométrique pour intégrer des contraintes sur la scène, l'appariement et la segmentation d'images. Sans forcément rentrer dans les détails, j'exposerai les idées fondamentales qui sous-tendent ces travaux qui ont maintenant quelques années et proposerai quelques perspectives sur des extensions possibles. Une deuxième partie abordera certains problèmes liés à l'électro- et la magnéto-encéphalographie M/EEG, sujet auquel je me suis intéressé plus récemment. Je décrirai en particulier un algorithme de détection d'événements d'intérêts en essai par essai ainsi que certaines techniques que nous avons développé pour la modélisation du problème direct M/EEG. Comme pour la première partie, je tenterai de proposer quelques unes des évolutions possibles autour de cette thématique.
233

Estimation and Processing of Ensemble Average Propagator and Its Features in Diffusion MRI

Cheng, Jian 30 May 2012 (has links) (PDF)
L'IRM de diffusion est a ce jour la seule technique a meme d'observer in vivo et de fac¸on non-invasive les structures fines de la mati'ere blanche, en modelisant la diffusion des molecules d'eau. Le propagateur moyen (EAP pour Ensemble average Propagator en anglais) et la fonction de distribution d'orientation (ODF pour Orientation Distribution Function en anglais) sont les deux fonctions de probabilites d'int'erˆet pour caracteriser la diffusion des molecules d'eau. Le probleme central en IRM de diffusion est la reconstruction et le traitement de ces fonctions (EAP et ODF); c'est aussi le point de depart pour la tractographie des fibres de la mati'ere blanche. Le formalisme du tenseur de diffusion (DTI pour Diffusion Tensor Imaging en anglais) est le modele le plus couramment utilise, et se base sur une hypothese de diffusion gaussienne. Il existe un cadre riemannien qui permet d'estimer et de traiter correctement les images de tenseur de diffusion. Cependant, l'hypothese d'une diffusion gaussienne est une simplification, qui ne permet pas de d'écrire les cas ou la structure microscopique sous-jacente est complexe, tels que les croisements de faisceaux de fibres. L'imagerie 'a haute resolution angulaire (HARDI pour High Angular Resolution Diffusion Imaging en anglais) est un ensemble de methodes qui permettent de contourner les limites du modele tensoriel. La plupart des m'ethodes HARDI 'a ce jour, telles que l'imagerie spherique de l'espace de Fourier (QBI pour Q-Ball Imaging en anglais) se basent sur des hypoth'eses reductrices, et prennent en compte des acquisitions qui ne se font que sur une seule sphere dans l'espace de Fourier (sHARDI pour single-shell HARDI en anglais), c'est-a-dire une seule valeur du coefficient de ponderation b. Cependant, avec le developpement des scanners IRM et des techniques d'acquisition, il devient plus facile d'acquerir des donn'ees sur plusieurs sph'eres concentriques. Cette th'ese porte sur les methodes d'estimation et de traitement de donnees sur plusieurs spheres (mHARDI pour multiple-shell HARDI en anglais), et de facon generale sur les methodes de reconstruction independantes du schema d'echantillonnage. Cette these presente plusieurs contributions originales. En premier lieu, nous developpons l'imagerie par transformee de Fourier en coordonnees spheriques (SPFI pour Spherical Polar Fourier Imaging en anglais), qui se base sur une representation du signal dans une base de fonctions a parties radiale et angulaire separables (SPF basis pour Spherical Polar Fourier en anglais). Nous obtenons, de fac¸on analytique et par transformations lineaires, l'EAP ainsi que ses caracteristiques importantes : l'ODF, et des indices scalaires tels que l'anisotropie fractionnelle generalisee (GFA pour Generalized Fractional Anisotropy en anglais). En ce qui concerne l'implementation de SPFI, nous presentons deux methodes pour determiner le facteur d'echelle, et nous prenons en compte le fait que E(0) = 1 dans l'estimation. En second lieu, nous presentons un nouveau cadre pour une transformee de Fourier analytique en coordonnees spheriques (AFT-SC pour Analytical Fourier Transform in Spherical Coordinate en anglais), ce qui permet de considerer aussi bien les methodes mHARDI que sHARDI, d'explorer les relations entre ces methodes, et de developper de nouvelles techniques d'estimation de l'EAP et de l'ODF. Nous presentons en troisieme lieu d'importants crit'eres de comparaison des differentes methodes HARDI, ce qui permet de mettre en lumiere leurs avantages et leurs limites. Dans une quatrieme partie, nous proposons un nouveau cadre riemannien invariant par diffeomorphisme pour le traitement de l'EAP et de l'ODF. Ce cadre est une generalisation de la m'ethode riemannienne precedemment appliquee au tenseur de diffusion. Il peut etre utilise pour l'estimation d'une fonction de probabilite representee par sa racine carree, appelee fonction d'onde, dans une base de fonctions orthonormale. Dans ce cadre riemannien, les applications exponentielle et logarithmique, ainsi que les geodesiques ont une forme analytique. La moyenne riemannienne ponderee ainsi que la mediane existent et sont uniques, et peuvent etre calculees de facon efficace par descente de gradient. Nous developpons egalement un cadre log-euclidien et un cadre affine-euclidien pour un traitement rapide des donnees. En cinquieme partie, nous comparons, theoriquement et sur un plan exp'erimental, les metriques euclidiennes et riemanniennes pour les tenseurs, l'ODF et l'EAP. Finalement, nous proposons l'anisotropie geodesique (GA pour Geodesic Anisotropy en anglais) pour mesurer l'anisotropie de l'EAP; une parametrisation par la racine carrée (SRPE pour Square-Root Parameterized Estimation en anglais) pour l'estimation d'un EAP et d'une ODF positifs; la mediane et la moyenne riemanniennes ponderees pour l'interpolation, le lissage et la construction d'atlas bas'es sur l'ODF et de l'EAP. Nous introduisons la notion de valeur moyenne raisonnable pour l'interpolation de fonction de probabilites en general.
234

Opérations et Algorithmes pour la Segmentation Topologique d'Images 3D

Dupas, Alexandre 25 November 2009 (has links) (PDF)
Une carte topologique 3D est un modèle servant à représenter la partition en régions d'une image 3D pour le traitement d'images. Dans ce travail, nous développons des outils permettant de modifier la partition représentée par une carte topologique, puis nous utilisons ces outils afin de proposer des algorithmes de segmentation intégrant des critères topologiques. Dans une première partie, nous proposons trois opérations. La fusion de régions est définie avec une approche locale adaptée à une utilisation interactive et une approche globale pour une utilisation automatisée comme lors d'une segmentation. La division de régions est proposée avec une méthode d'éclatement en voxels et la division à l'aide d'un guide. Enfin, la déformation de la partition est basée sur la définition de points ML-Simples : des voxels pouvant changer de région sans modifier la topologie de la partition. À l'aide de ces opérations, nous mettons en œuvre dans une seconde partie des algorithmes de segmentation d'images utilisant les cartes topologiques. Notre première approche adapte au modèle des cartes topologiques un algorithme existant qui utilise un critère basé sur la notion de contraste. Nous proposons ensuite des méthodes de calcul d'invariants topologiques sur les régions : les nombres de Betti. Grâce à eux, nous développons un critère topologique de segmentation permettant de contrôler le nombre de tunnels et de cavités des régions. Enfin, nous illustrons les possibilités de tous nos outils en mettant en place une chaîne de traitement pour la segmentation de tumeurs cérébrales dans des images médicales.
235

Propagation de fronts et p-laplacien normalisé sur graphes : algorithmes et applications au traitement d'images et de données.

Desquesnes, Xavier 07 December 2012 (has links) (PDF)
Cette thèse s'intéresse à la transcription d'équations aux dérivées partielles vers des domaines discrets en exploitant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Dans une première partie, nous proposons une transcription de l'opérateur p-laplacien normalisé au domaine des graphes comme une combinaison linéaire entre le laplacien infini non-local et le laplacien normalisé (ces deux opérateurs étant discrets). Cette adaptation peut être considérée comme une nouvelle classe d'opérateurs p-laplaciens sur graphes, qui interpolent entre le laplacien infini non-local et le laplacien normalisé. Dans une seconde partie, nous nous intéressons aux équations de propagation de fronts sur des graphes de topologie arbitraire. Ces équations sont obtenues par la transcription de la méthode des ensembles de niveaux, définie en continu, vers une formulation discrète définie sur le domaine des graphes. Au delà de la transcription en elle-même, nous proposons une formulation générale et des algorithmes efficaces pour la propagation simultanées de plusieurs fronts évoluant sur un graphe. Les approches proposées dans ces deux premières parties donnent lieu à de nombreuses applications en segmentation d'images et classification de données que nous illustrons dans ce manuscrit. Enfin, dans une troisième partie, nous présentons une application à l'aide au diagnostic informatisé concrétisant l'emploi des différents outils proposés dans les deux premières parties. Nous présentons également le logiciel Antarctic développé au cours de cette thèse.
236

Pyramides irrégulières descendantes pour la segmentation de grandes images histologiques

Goffe, Romain 14 September 2011 (has links) (PDF)
Différents modes d'acquisition permettent d'obtenir des images de plusieurs gigaoctets. L'analyse de ces grandes images doit faire face à deux problèmes majeurs. Premièrement, le volume de données à traiter ne permet pas une analyse globale de l'image, d'où la difficulté d'en construire une partition. Deuxièmement, une approche multi-résolution est nécessaire pour distinguer les structures globales à faible résolution. Par exemple, dans le cadre des images d'histologie, les récentes améliorations des scanners permettent d'observer les structures cellulaires sur l'ensemble de la lame. En contrepartie, les images produites représentent jusqu'à 18 Go de données. De plus, l'agencement de ces cellules en tissus correspond à une information globale qui ne peut être observée qu'à faible résolution. Ces images combinent donc un aspect multi-échelle et multi-résolution. Dans ce manuscrit, nous définissons un modèle topologique et hiérarchique adapté à la segmentation de grandes images. Nos travaux sont fondés sur les modèles existants de carte topologique et de pyramide combinatoire. Nous présentons le modèle de carte tuilée pour la représentation de grandes partitions ainsi qu'une extension hiérarchique, la pyramide descendante tuilée, qui représente la dualité des informations multi-échelle et multi-résolution. Enfin, nous utilisons notre modèle pour la segmentation de grandes images en histologie.
237

Une exploration des problèmes inverses par les représentations parcimonieuses et l'optimisation non lisse

Fadili, Jalal M. 26 March 2010 (has links) (PDF)
Ce mémoire résume mon parcours de recherche lors des dix dernières années. Ces travaux de recherche se trouvent à la croisée des chemins entre les mathématiques appliquées et le traitement du signal et des images. Ils s'articulent autour du triptyque: (i) modélisation stochastique-estimation statistique; (ii) analyse harmonique computationnelle-représentations parcimonieuses; (iii) optimisation. Ces trois piliers constituent le socle théorique de mes activités pour développer des approches originales capables de résoudre des problèmes classiques en traitement d'images comme les problèmes inverses en restauration et reconstruction, la séparation de sources, la segmentation, la détection, ou encore la théorie de l'échantillonnage compressé (compressed sensing). Ces travaux ont été appliqués à plusieurs modalités d'imagerie comme l'imagerie médicale et biomédicale (IRM fonctionnelle, échographie, microscopie confocale), le contrôle non destructif et l'imagerie astronomique.
238

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille de calcul légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les Simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc.). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (CIMENT Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP
239

Méthodes d'analyse d'images pour l'anatomie numérique cérébrale

Rousseau, François 20 June 2014 (has links) (PDF)
Ce document présente une synthèse des travaux réalisés depuis une dizaine d'années au sein de l'University of California, San Francisco (UCSF) puis au Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT) et au laboratoire ICube à Strasbourg. Ces activités se situent au confluent de l'informatique, des mathématiques appliqués et des neurosciences. Ce domaine de recherche, appelé neuro-informatique, concerne la conception et la réalisation de méthodes d'analyse, la constitution de base de données et des outils associés dont l'objectif est la compréhension du cerveau. Nos travaux se sont plus particulièrement focalisés sur le traitement et l'analyse de données IRM cérébrales, conduisant à aborder différentes problématiques telles que la reconstruction d'images, l'extraction d'information, la mise en correspondance ou la détection de changements. Les activités de recherche en neuro-informatique soulignent l'apport essentiel des méthodes de traitement de l'information afin de comprendre au travers de grandes masses de données le fonctionnement de systèmes complexes tels que le cerveau.
240

Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging

Ion, Valentina 26 September 2013 (has links) (PDF)
The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.

Page generated in 0.0321 seconds