• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 64
  • 6
  • Tagged with
  • 152
  • 83
  • 63
  • 46
  • 36
  • 35
  • 33
  • 33
  • 31
  • 25
  • 22
  • 20
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

IRM de diffusion à haute résolution angulaire: estimation locale, segmentation et suivi de fibres

Descoteaux, Maxime 05 February 2008 (has links) (PDF)
La résolution actuelle des IRM pondérées en diffusion suggère qu'il y a entre un et deux tiers des voxels de la matière blanche qui contiennent plusieurs faisceaux de fibres qui se croisent. L'IRM par tenseur de diffusion (DTI) classique est intrinsèquement limitée à ces endroits par son hypothèse de base qu'un seul faisceau traverse chaque voxel de l'image. Le but de cette thèse est donc de développer des techniques d'IRM à haute résolution angulaire (HARDI) pour pouvoir retrouver une ou plusieurs fibres et surmonter aux limites DTI. L'imagerie par q-ball (QBI) est une technique récente qui permet d'estimer la distribution d'orientation des fibres (ODF). La technique de QBI ainsi que l'ODF de diffusion des fibres permettent de retrouver plusieurs directions de fibres en chaque voxel de l'image. Ceux-ci joueront donc un rôle important tout au long de ce document. Cette thèse propose plusieurs contributions originales. D'abord, nous développons l'estimation robuste du signal HARDI en utilisant une base modifiée d'harmoniques sphériques et un terme de régularisation. Ensuite, nous proposons la modélisation du coefficient de diffusion apparent (ADC) pour étudier les mesures d'anisotropie HARDI et faire la classification des voxels contenant une distribution isotrope, une distribution d'une seule population de fibres et une distribution de plusieurs faisceaux fibres. Nous proposons de plus, le développement d'une solution analytique pour estimer l'ODF de diffusion en QBI ainsi qu'un nouvel algorithme de segmentation de ces images d'ODF obtenues par le QBI. Nous présentons également le calcul de l'ODF de fibres avec une nouvelle méthode de déconvolution sphérique à partir des données QBI. Enfin, nous développons de nouveaux algorithmes de suivi de fibres (tracking) déterministes et probabilistes à partir de l'ODF du q-ball et l'ODF de fibres. Finalement, tous ces nouveaux algorithmes sont testés et appliqués sur des données HARDI simulées, sur un fantôme biologique et sur des données réelles de plusieurs sujets dans des régions complexes avec plusieurs faisceaux qui se croisent.Nos résultats illustrent clairement la valeur ajoutée de nos méthodes HARDI sur la plupart des méthodes courantes en DTI qui négligent ces faisceaux complexes, ce qui peut amener à une mauvaise analyse et interprétation de l'anatomie et des fonctions cérébrales.
32

Espaces non-euclidiens et analyse d'image : modèles déformables riemanniens et discrets, topologie et géométrie discrète

Lachaud, Jacques-Olivier 06 December 2006 (has links) (PDF)
Les travaux présentés dans ce mémoire d'habilitation correspondent à des recherches effectuées depuis mon arrivée à Bordeaux en septembre 1999. J'ai choisi d'y présenter celles qui ont trait aux approches non-euclidiennes pour l'analyse d'image, la clé de voûte en étant la segmentation par modèle déformable. D'autres travaux plus amonts comme la topologie des espaces subdivisés et les invariants topologiques ou plus avals comme la reconstruction de colonne vertébrale en imagerie radiographique ne seront qu'évoqués. Ce choix, s'il peut sembler restrictif par rapport à une synthèse exhaustive de mes travaux, présente néanmoins une plus grande cohérence, à la fois dans les résultats et dans la démarche suivie. Ce mémoire montre notamment que l'utilisation d'autres géométries que la géométrie euclidienne classique, les géométries riemannienne et discrète, présente un intérêt certain en analyse d'images. Les modèles déformables constituent une technique classique de segmentation et de reconstruction en analyse d'image. Dans ce cadre, le problème de la segmentation est exprimé sous forme variationnelle, où la solution est idéalement le minimum d'une fonctionnelle. Pendant ma thèse, je m'étais déjà intéressé aux modèles hautement déformables, qui ont la double caractéristique de se baser uniquement sur l'information image pour repérer ses composantes et de pouvoir extraire des formes de complexité arbitraire. Pour assurer l'initialisation du modèle déformable, j'avais aussi mis en évidence les liens entre surfaces discrètes et triangulations d'isosurfaces. Ces premiers travaux expliquent le cheminement que j'ai suivi depuis dans mes recherches. En voulant attaquer deux problématiques fondamentales des modèles déformables (la minimisation du nombre de paramètres et de la complexité, la recherche d'une solution plus proche de l'optimale), j'ai été amené à changer l'espace de travail classique : l'espace euclidien. Le Chapitre 1 résume les approches classiques des modèles déformables, leurs différentes formulations, ainsi que les problématiques spécifiques auxquelles je me suis intéressé. Il montre enfin en quoi la formulation des modèles déformables dans des espaces non-euclidiens ouvre des pistes intéressantes pour les résoudre. La première voie explorée et résumée dans le Chapitre 2 est d'introduire une métrique riemannienne, variable dans l'espace et dépendante de l'information image locale. L'utilisation d'une autre métrique permet de déformer virtuellement l'espace afin de concentrer l'effort de calcul sur les zones d'intérêt de l'image. Une métrique judicieusement choisie permet d'adapter le nombre de paramètres du modèle déformable à la géométrie de la forme recherchée. Le modèle pourra ainsi se déplacer très vite sur les zones homogènes, extraire les parties droites, planes ou peu courbées avec très peu de paramètres, et conserver une grande précision sur les contours significatifs très courbés. Une telle approche conserve voire améliore la qualité et la robustesse de la segmentation, et minimise à la fois la complexité en temps et le nombre d'itérations avant convergence. La deuxième voie explorée parallèlement est le remplacement de l'espace euclidien continu par la grille cellulaire discrète. L'espace des formes possibles est alors fini tout en restant adapté à l'échantillonnage de l'image. D'autres techniques d'optimisation sont dès lors envisageables, la solution est bien définie et les problèmes numériques liés à la convergence d'un processus ne sont plus présents. Le Chapitre 3 décrit le principe suivi pour discrétiser le modèle déformable sur la grille cellulaire Z^n. Il présente les premiers résultats obtenus avec un algorithme de segmentation a posteriori. Il met aussi en évidence les problématiques soulevées par le passage au discret, problématiques qui se sont révélées être des voies de recherche par elles-mêmes. D'une part, il faut mettre au point des structures de données et des outils pour représenter les surfaces discrètes, pour mesurer leurs paramètres géométriques, et pour les faire évoluer. Le Chapitre 4 synthétise les travaux menés en ce sens. Cela nous conduit à proposer un nouveau formalisme algébrique pour représenter ces surfaces en dimension quelconque. Une étude précise des estimateurs géométriques discrets de tangente, de normale, de longueur et de courbure est ensuite conduite. Nous avons notamment évalué quantitativement leurs performances à basse échelle et proposé de nouveaux estimateurs pour les améliorer. Leurs propriétés asymptotiques lorsque la discrétisation est de plus en plus fine sont enfin discutées. D'autre part, le modèle déformable discret doit approcher au mieux le comportement du modèle déformable euclidien à résolution donnée mais aussi simuler de plus en plus exactement ce comportement lorsque la résolution augmente asymptotiquement. Les estimateurs géométriques discrets se doivent dès lors d'être convergents. En analysant finement la décomposition des courbes discrètes en segments discrets maximaux, nous avons obtenu des théorèmes de convergence ou de non-convergence de certains estimateurs. Le Chapitre 5 résume cette étude de la géométrie des courbes discrètes 2D et des propriétés géométriques asymptotiques du bord d'une discrétisation. Le mémoire se conclut par une synthèse des principaux résultats obtenus et montre les perspectives de recherche ouvertes par ces travaux.
33

MODÉLISATION NUMÉRIQUE DU COMPORTEMENT D'UNE PARTICULE SOUS CHAMP ÉLECTRIQUE DANS LES MICROSYSTEMES : DE LA DÉFORMATION AU DÉPLACEMENT

Benselama, Adel Mustapha 25 November 2005 (has links) (PDF)
Un nouvel outil numérique pour prédire le mouvement et la déformation de particules sous champ électrique dans les microsystèmes biologiques est proposé. Ce moyen permettra à terme l'optimisation de labopuces dans les premières phases de conception. Le phénomène utilisé pour manipuler les particules est la diélectrophorèse associée au mouvement dû à la polarisation des diélectriques sous champ électrique non uniforme. L'outil numérique utilisé pour le suivi des interfaces mobiles sous champ électrique est la Méthode Intégrale aux Frontières (MIF). Les écoulements sont supposés irrotationnels. Par cet outil, nous avons réussi à retrouver les résultats de Taylor sur l'instabilité des gouttes sous champ uniforme. Les résultats du déplacement des gouttes sous champ non uniforme montrent un bon accord également entre les simulations et des modèles analytiques approchés. L'état de développement de l'outil MIF nous permet d'envisager son extension vers des problèmes électrohydrodynamiques encore plus riches.
34

Tenseur d'impulsion-énergie et géométrie spinorielle extrinsèque

Morel, Bertrand 17 September 2002 (has links) (PDF)
La principale motivation des travaux de cette thèse est de mieux comprendre le rôle du tenseur d'impulsion-énergie en géométrie spinorielle. On s'intéresse dans un premier temps à la géométrie spinorielle extrinsèque. On relie les restrictions à une sous-variété riemannienne d'objets spinoriels aux objets définis de manière intrinsèque. En particulier, on donne des estimations pour la première valeur propre d'un opérateur de Dirac défini sur les sous-variétés riemanniennes spinorielles compactes. Il apparaît alors que le cadre des hypersurfaces est un cadre naturel pour l'étude du tenseur d'impulsion-énergie associé à un champ de spineurs. On construit un produit tordu généralisé permettant de voir ce dernier comme la seconde forme fondamentale d'une immersion isométrique. On caractérise enfin les surfaces de S^3 et H^3 en terme de sections spéciales du fibré des spineurs, ainsi que les hypersurfaces parallèles de R^4.
35

Détection et suivi longitudinal des anomalies de la substance blanche et de la substance grise dans la sclérose en plaques par des approches régionales et statistiques d'IRM de tenseur de diffusion

Hannoun, Salem 16 February 2011 (has links) (PDF)
Si l'imagerie par résonance magnétique (IRM) montre la charge lésionnelle qui reflète le caractère inflammatoire de la sclérose en plaques (SEP), il n'existe pas de marqueur permettant de prédire son évolution ou de caractériser les phénomènes de neurodégénérescence. Par conséquent, cette étude a pour objectif premièrement d'identifier des marqueurs de l'intégrité tissulaire par IRM de tenseur de diffusion (DTI), permettant de détecter les dommages tissulaires de type inflammatoire et/ou dégénératif, et deuxièmement de caractériser leur évolution par une analyse longitudinale, chez des patients de différentes formes cliniques. A cette fin, nous avons proposé une première approche régionale des substances blanche (SB) et grise (SG) sous-corticale et une deuxième approche statistique globale analysant par TBSS les variations d'anisotropie de la SB et par VBM la densité de la SG. Les résultats obtenus dans la SB montrent des variations de la fraction d'anisotropie (FA), et des diffusivités radiales et axiales reflétant respectivement une atteinte myélinique et une atteinte axonale alors que la SG présente une augmentation de la FA suggérant une atteinte dendritique neuronale. L'analyse par TBSS et VBM montre des anomalies touchant plutôt les régions sous-corticales chez les patients rémittents qui s'étendent aux régions corticales chez les patients de forme progressive. Longitudinalement, on retrouve essentiellement des changements de FA dans la SB et d'atrophie de la SG chez les patients rémittents. Ces travaux montrent que la DTI constitue une méthode sensible pour une meilleure détection et compréhension des altérations cérébrales et de leur évolution dans la SEP.
36

Réalisation d'un logiciel de calcul des intégrales moléculaires impliquées dans le tenseur d'écran magnétique nucléaire sur orbitales atomiques de Slater

Berlu, Lilian 06 November 2003 (has links) (PDF)
Le but ultime de ce travail est la réalisation d'un logiciel de calcul de chimie quantique ab initio utilisant une base d'orbitales atomiques de Slater et capable d'évaluer les déplacements chimiques de RMN. Pour traiter le cas compliqué des intégrales multicentriques, nous avons utilisé la méthode de la transformée de Fourier des fonctions B. Un développement original des termes d'ordres non-nuls est présenté. Les expressions obtenues impliquent des intégrales semi-infinies dont l'intégrande est très oscillante. Dans ce travail, nous avons mis au point de nouveaux algorithmes récursifs de la (permittivité) de Wynn, du (u )de Levin et de la transformation non-linéaire SD, extrêmement rapides et qui garantissent la précision du résultat final. Les tableaux de résultats montrent l'efficacité de ces approches et plus particulièrement de SD pour accélérer la convergence des intégrales semi-finies. Les résultats obtenus permettent d'envisager la programmation d'un logiciel ab initio utilisant nos algorthimes.
37

Comparaison de l'Anatomie et de la Fonction Cardiaque : Statistiques sur l'Architecture des Fibres et Recalage d'Images 4D CT

Peyrat, Jean-Marc 27 November 2009 (has links) (PDF)
Ce travail de thèse s'est consacré à la comparaison de l'anatomie et de la fonction cardiaques à partir d'images médicales. Une première partie se concentre sur l'anatomie cardiaque avec une étude statistique de l'architecture des bres musculaires du c÷ur à partir d'IRM de tenseur de di usion. Dans la deuxième partie est proposée une comparaison la fonction cardiaque de di érents patients ou du même patient a di érents instants par le recalage spatiotemporel de séquences 4D CT. La complexe organisation des bres musculaires cardiaques a un rôle très important dans le comportement électrique et mécanique du c÷ur. Pour étudier cette architecture des bres, nous avons proposé de nouveaux outils algorithmiques d'analyse statistique d'IRM de tenseurs de di usion. La nouveauté de cette approche est de réaliser cette analyse statistique directement sur les tenseurs de di usion l'a où la plupart des études statistiques se font sur des vecteurs ou angles d'orientation décrivant les directions des bres et des feuillets. La variabilité de l'orientation des bres et des feuillets est ensuite directement donnée par la matrice de covariance des tenseurs de di usion de laquelle sont extraites les variabilités des vecteurs propres. L'application de ces outils a une base de données d'IRM de tenseur de di usion de c÷urs de chiens acquis ex vivo a permis d'obtenir un atlas de l'architecture des bres mais aussi de révééler une cohérence de l'orientation des bres et une plus grande variabilité de l'orientation des feuillets. Ensuite, nous avons comparé l'atlas de c÷urs de chien à un c÷ur humain et un modèle synthétique couramment utilisé pour des simulations électromé- caniques ou l'analyse d'images cardiaques. Le c÷ur humain s'est révélé plus proche des c÷urs de chien au niveau de l'orientation des bres que de celle des feuillets. Le modèle synthétique quant à lui s'est montré trop simple pour décrire en détails la complexité de l'architecture des bres. L'acquisition de séquences d'images cardiaques permet d'observer le mouvement cardiaque et donc sa fonction. Nous avons proposé un nouvel algorithme de recalage nonlin éaire spatiotemporel de séquences d'images qui permet de comparer cette fonction cardiaque. Le recalage temporel assure la mise en correspondance d'instants physiologiques similaires. Le recalage spatial quant à lui doit assure une cohérence entre le mouvement des points physiques intra-séquence et leur mise en correspondance inter-séquence. Cette cohérence est assurée par les contraintes de trajectoires liant les transformations intras équences décrivant le mouvement cardiaque aux transformations inter-séquences décrivant les di érences anatomiques au cours du temps. Sous ces contraintes de trajectoires, le recalage spatial 4D est simpli é en un recalage multicanal 3D résolu avec une nouvelle version des Demons Di eomorphes Multicanaux. Cette méthode de recalage spatiotemporel est appliquée au recalage inter-sujet de séquences 4D CT pour évaluation. Comparée a d'autres techniques existantes, cette technique de recalage s'est révélée le meilleur compromis en terme de précision, de régularité spatiale et temporelle, mais aussi de temps de calcul. Un exemple d'application possible du recalage spatiotemporal est proposé avec la comparaison de l'anatomie et de la fonction cardiaques avant et après thérapie.
38

Diffusion Tensor Imaging of the Human Skeletal Muscle : Contributions and Applications

Neji, Radhouène 09 March 2010 (has links) (PDF)
Cette thèse propose des techniques pour le traitement d'images IRM de diffusion. Les méthodes proposées concernent l'estimation et la régularisation, le groupement et la segmentation ainsi que le recalage. Le cadre variationnel proposé dans cette thèse pour l'estimation d'un champ de tenseurs de diffusion à partir d'observations bruitées exploite le fait que les données de diffusion représentent des populations de fibres et que chaque tenseur peut être reconstruit à partir d'une combinaison pondérée de tenseurs dans son voisinage. La méthode de segmentation traite aussi bien les voxels que les fibres. Elle est basée sur l'utilisation de noyaux défini-positifs sur des probabilités gaussiennes de diffusion afin de modéliser la similarité entre tenseurs et les interactions spatiales. Ceci permet de définir des métriques entre fibres qui combinent les informations de localisation spatiale et de tenseurs de diffusion. Plusieurs approches de groupement peuvent être appliquées par la suite pour segmenter des champs de tenseurs et des trajectoires de fibres. Un cadre de groupement supervisé est proposé pour étendre cette technique. L'algorithme de recalage utilise les noyaux sur probabilités pour recaler une image source et une image cible. La régularité de la déformation est évaluée en utilisant la distortion induite sur les distances entre probabilités spatialement voisines. La minimisation de la fonctionnelle de recalage est faite dans un cadre discret. La validation expérimentale est faite sur des images du muscle du mollet pour des sujets sains et pour des patients atteints de myopathies. Les résultats des techniques développées dans cette thèse sont encourageants.
39

Imagerie par résonance magnétique du tenseur de diffusion (IRM-TD) en imagerie cardiaque humaine : traitements et premi`eres interprétations

Frindel, Carole 04 December 2009 (has links) (PDF)
Cette thèse a pour cadre l'étude de l'organisation spatiale des fibres du muscle cardiaque à partir de séries d'images tridimensionnelles acquises par IRM du Tenseur de Diffusion (IRMTD). Cette organisation constitue une propriété fondamentale du coeur sous-tendant la fonction contractile. Néanmoins elle est très complexe à obtenir au vu des difficultés inhérentes au mouvements cardiaque et respiratoire. Notre objectif consiste à développer de nouvelles approches, basées sur la prise en compte du mouvement du coeur et de la sensibilité au bruit de l'acquisition, pour l'estimation, l'analyse et la visualisation des fibres du myocarde. Dans ce cadre, mes travaux se déclinent selon trois axes principaux. Le premier compare, dans le contexte d'études cliniques ex vivo, les principales approches de régularisation opérant soit sur les images pondérées en diffusion soit sur les champs de tenseurs de diffusion. Les différences sont suffisamment faibles pour conclure que la qualité de nos données IRMTD est suffisante pour considérer toutes les méthodes de régularisation comme équivalentes. Partant de ce constat, une méthode de régularisation simple et rapide apparaî satisfaisante. Le second concerne la mise en place d'une méthode de tractographie spécialement conçue pour la spécificité cardiaque. Celle-ci est guidée par une fonctionnelle de coût globale qui permet l'estimation automatique des fibres cardiaques en une seule fois pour l'ensemble des données, et ce sans l'utilisation de points d'initialisation. Le dernier axe consiste en la distinction d'une population de fibres cardiaques en sous-groupes. Celle-ci s'appuie sur la comparaison de méthodes de classification de type géométrique et de type topologique exploitant toutes trois modes différents de représentation des fibres. Les résultats établissent que la classification pourrait permettre l'identification automatique de régions spécialisées dans le myocarde, ce qui pourrait grandement faciliter l'analyse et la comparaison des données IRMTD cardiaques pour la conception de thérapies patient-spécifiques.
40

Approche numérique de la dynamique et de l'évolution stellaires appliquées à la fusion galactique

Fleck, Jean-Julien 31 July 2007 (has links) (PDF)
Cette thèse étudie l'influence des échelles stellaires et galactiques sur l'observation de jeunes amas stellaires. Une étude complète du phénomène de ségrégation de masse est faite pour en déduire l'erreur systématique induite lors de l'estimation de la masse de ces amas jeunes à partir des observations (lumineuses) et du théorème du viriel. Cette étude a été rendue possible par le développement de bibliothèques ruby permettant d'interfacer évolution stellaire et banque spectrale avec l'analyse. L'influence des échelles galactiques est explorée via la reproduction du système des Antennes et la récupération du tenseur de marée correspondant le long de l'orbite d'un amas dans ce système. Les implications de ce concept sont discutées, notamment l'apparition de zones complètement compressives possiblement à l'origine de la formation d'une partie des amas observés ou de leur survie primordiale. Son inclusion dans un code à sommation directe a été effectuée.

Page generated in 0.047 seconds