• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 162
  • 82
  • 17
  • Tagged with
  • 261
  • 108
  • 83
  • 74
  • 67
  • 64
  • 57
  • 55
  • 53
  • 47
  • 43
  • 41
  • 39
  • 32
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Recalage déformable à base de graphes : mise en correspondance coupe-vers-volume et méthodes contextuelles / Graph-based deformable registration : slice-to-volume mapping and context specific methods

Ferrante, Enzo 03 May 2016 (has links)
Les méthodes de recalage d’images, qui ont pour but l’alignement de deux ou plusieurs images dans un même système de coordonnées, sont parmi les algorithmes les plus anciens et les plus utilisés en vision par ordinateur. Les méthodes de recalage servent à établir des correspondances entre des images (prises à des moments différents, par différents senseurs ou avec différentes perspectives), lesquelles ne sont pas évidentes pour l’œil humain. Un type particulier d’algorithme de recalage, connu comme « les méthodes de recalage déformables à l’aide de modèles graphiques » est devenu de plus en plus populaire ces dernières années, grâce à sa robustesse, sa scalabilité, son efficacité et sa simplicité théorique. La gamme des problèmes auxquels ce type d’algorithme peut être adapté est particulièrement vaste. Dans ce travail de thèse, nous proposons plusieurs extensions à la théorie de recalage déformable à l’aide de modèles graphiques, en explorant de nouvelles applications et en développant des contributions méthodologiques originales.Notre première contribution est une extension du cadre du recalage à l’aide de graphes, en abordant le problème très complexe du recalage d’une tranche avec un volume. Le recalage d’une tranche avec un volume est le recalage 2D dans un volume 3D, comme par exemple le mapping d’une tranche tomographique dans un système de coordonnées 3D d’un volume en particulier. Nos avons proposé une formulation scalable, modulaire et flexible pour accommoder des termes d'ordre élevé et de rang bas, qui peut sélectionner le plan et estimer la déformation dans le plan de manière simultanée par une seule approche d'optimisation. Le cadre proposé est instancié en différentes variantes, basés sur différentes topologies du graph, définitions de l'espace des étiquettes et constructions de l'énergie. Le potentiel de notre méthode a été démontré sur des données réelles ainsi que des données simulées dans le cadre d’une résonance magnétique d’ultrason (où le cadre d’installation et les stratégies d’optimisation ont été considérés).Les deux autres contributions inclues dans ce travail de thèse, sont liées au problème de l’intégration de l’information sémantique dans la procédure de recalage (indépendamment de la dimensionnalité des images). Actuellement, la plupart des méthodes comprennent une seule fonction métrique pour expliquer la similarité entre l’image source et l’image cible. Nous soutenons que l'intégration des informations sémantiques pour guider la procédure de recalage pourra encore améliorer la précision des résultats, en particulier en présence d'étiquettes sémantiques faisant du recalage un problème spécifique adapté à chaque domaine.Nous considérons un premier scénario en proposant un classificateur pour inférer des cartes de probabilité pour les différentes structures anatomiques dans les images d'entrée. Notre méthode vise à recaler et segmenter un ensemble d'images d'entrée simultanément, en intégrant cette information dans la formulation de l'énergie. L'idée principale est d'utiliser ces cartes estimées des étiquettes sémantiques (fournie par un classificateur arbitraire) comme un substitut pour les données non-étiquettées, et les combiner avec le recalage déformable pour améliorer l'alignement ainsi que la segmentation.Notre dernière contribution vise également à intégrer l'information sémantique pour la procédure de recalage, mais dans un scénario différent. Dans ce cas, au lieu de supposer que nous avons des classificateurs arbitraires pré-entraînés à notre disposition, nous considérons un ensemble d’annotations précis (vérité terrain) pour une variété de structures anatomiques. Nous présentons une contribution méthodologique qui vise à l'apprentissage des critères correspondants au contexte spécifique comme une agrégation des mesures de similarité standard à partir des données annotées, en utilisant une adaptation de l’algorithme « Latent Structured Support Vector Machine ». / Image registration methods, which aim at aligning two or more images into one coordinate system, are among the oldest and most widely used algorithms in computer vision. Registration methods serve to establish correspondence relationships among images (captured at different times, from different sensors or from different viewpoints) which are not obvious for the human eye. A particular type of registration algorithm, known as graph-based deformable registration methods, has become popular during the last decade given its robustness, scalability, efficiency and theoretical simplicity. The range of problems to which it can be adapted is particularly broad. In this thesis, we propose several extensions to the graph-based deformable registration theory, by exploring new application scenarios and developing novel methodological contributions.Our first contribution is an extension of the graph-based deformable registration framework, dealing with the challenging slice-to-volume registration problem. Slice-to-volume registration aims at registering a 2D image within a 3D volume, i.e. we seek a mapping function which optimally maps a tomographic slice to the 3D coordinate space of a given volume. We introduce a scalable, modular and flexible formulation accommodating low-rank and high order terms, which simultaneously selects the plane and estimates the in-plane deformation through a single shot optimization approach. The proposed framework is instantiated into different variants based on different graph topology, label space definition and energy construction. Simulated and real-data in the context of ultrasound and magnetic resonance registration (where both framework instantiations as well as different optimization strategies are considered) demonstrate the potentials of our method.The other two contributions included in this thesis are related to how semantic information can be encompassed within the registration process (independently of the dimensionality of the images). Currently, most of the methods rely on a single metric function explaining the similarity between the source and target images. We argue that incorporating semantic information to guide the registration process will further improve the accuracy of the results, particularly in the presence of semantic labels making the registration a domain specific problem.We consider a first scenario where we are given a classifier inferring probability maps for different anatomical structures in the input images. Our method seeks to simultaneously register and segment a set of input images, incorporating this information within the energy formulation. The main idea is to use these estimated maps of semantic labels (provided by an arbitrary classifier) as a surrogate for unlabeled data, and combine them with population deformable registration to improve both alignment and segmentation.Our last contribution also aims at incorporating semantic information to the registration process, but in a different scenario. In this case, instead of supposing that we have pre-trained arbitrary classifiers at our disposal, we are given a set of accurate ground truth annotations for a variety of anatomical structures. We present a methodological contribution that aims at learning context specific matching criteria as an aggregation of standard similarity measures from the aforementioned annotated data, using an adapted version of the latent structured support vector machine (LSSVM) framework.
32

Mise à jour numérique d'un modèle de pont par éléments finis basée sur une analyse modale expérimentale

Turcotte, Nicolas January 2016 (has links)
L’étude présentée s’inscrit dans un programme de recherche mené par l’Université de Sherbrooke (UdeS) pour le ministère des Transports du Québec (MTQ) sur la détection de l’endommagement par des mesures de vibrations ambiantes sur un pont routier en service. La méthode s’appuie sur la mise à jour automatique des propriétés physiques d’un modèle numérique d’un pont de façon à reproduire les fréquences et modes propres de la structure mesurés expérimentalement. Pour cette étude, le logiciel commercial FEMtools a été utilisé. L’ouvrage ciblé est le pont Est de la Rivière-aux-Mulets situé à Sainte-Adèle (Qc) sur l’autoroute des Laurentides (autoroute 15) sur lequel des essais d’analyse modale ont été effectués sous vibrations ambiantes en novembre 2013. L’étude présentée porte essentiellement sur la phase d’ingénierie la plus délicate du processus de détection d’endommagement par mise à jour d’un modèle numérique, soit la définition et le recalage du modèle initial. Pour cela, un modèle du pont par éléments finis a été développé sous le logiciel Abaqus, puis a été exporté vers FEMtools selon une procédure qui a été établie. Avant d’utiliser le logiciel FEMtools pour le recalage automatique du modèle, une brève étude de vérification des capacités du logiciel à recaler un modèle et à détecter de l’endommagement est effectuée à partir d’un cas d’étude connu étudié antérieurement à l’UdeS (cadre de deux étages en béton armé endommagé sismiquement). Puisque les algorithmes de recalage automatique de modèles par éléments finis sont très sensibles à plusieurs variables et choix définis par l’utilisateur et que le problème de recalage est fortement sous-déterminé, le risque d’obtenir des résultats incohérents est grand si on ne suit pas une démarche rigoureuse. Une méthodologie en cinq étapes adaptée aux problématiques de pont est donc proposée et appliquée au cas du pont de la Rivière-aux-Mulets. Les résultats du recalage en termes de réductions de rigidité des sections de béton par rapport aux rigidités initiales supposées sont cohérents avec les comportements statique et dynamique attendus d’un pont routier en service. Pour en arriver à ce résultat, plusieurs tentatives de recalage ont été effectuées. Un échantillon de ces cas d’études est présenté, montrant notamment l’influence dans le processus de la définition et du nombre des paramètres de recalage, de leurs valeurs initiales, de la complexité des modes expérimentaux et du critère de convergence utilisé. Il est aussi montré que des résultats de recalage manifestement erronés permettent parfois d’identifier des erreurs majeures de modélisation, ce qui est un atout important de la méthode. Finalement, plusieurs scénarios d’endommagement fictifs imposés numériquement sont étudiés pour évaluer brièvement la capacité de FEMtools à détecter de l’endommagement sur le pont. Les résultats montrent notamment que la précision de la détection est grandement améliorée par l’utilisation d’un nombre croissant de modes expérimentaux.
33

Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle

Chevaillier, Béatrice 09 March 2010 (has links) (PDF)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
34

Atlas numérique tridimensionnel pour le dépistage des chirurgies laser de la cornée humaine

Mriss, Khalid January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
35

Reconstruction de solides à partir d'acquisitions surfaciques

Synave, Rémi 08 December 2009 (has links)
Le scanner laser est un périphérique permettant d'analyser un objet réel et d'extraire des informations de sa surface. Grâce à cet outil, il est possible d'obtenir la représentation numérique de tout ou partie de la surface frontière d'un objet réel. Les scanners laser sont livrés avec un logiciel permettant de faire l'acquisition des données brutes, le recalage des différentes parties acquises et la reconstruction de la surface. Cette suite d'opérations permet de construire le modèle numérique et est communément appelée pipeline 3D d'acquisition. Dans cette thèse, nous développons notre pipeline, que nous nommons A2RI, et y ajoutons une étape d'impression. Ce pipeline permet la reproduction d'un objet à partir de son acquisition au scanner laser. Nous veillons particulièrement à quantifier et maîtriser l'erreur commise dans chaque maillon de la chaîne grâce à des mesures euclidiennes et géodésiques sur l'objet réel et le modèle numérique. / Abstract
36

Suivi des structures osseuses par échographie : application à l'arthroplastie totale de la hanche / Ultrasound based femur implant navigation : total hip arthroplasty

Haddad, Oussama 21 March 2017 (has links)
L’objectif principal d’une Arthroplastie Totale de Hanche (ATH) est de réduire la douleur en reproduisant les propriétés mécaniques de l’articulation de la hanche à l'aide d'implants artificiels, qui assurent également une fonctionnalité optimale. Ce travail traite de la navigation de l’ATH, à base d’échographie, en mettant l'accent sur la navigation de l'implant fémoral. La conception d'un système de navigation pour l’ATH, basé sur l’échographie peropératoire et CT préopératoire et focalisant sur l’implant fémoral, est proposée. Il fournit un feed back visuel et quantitatif sur l'insertion de l'implant. Le pipeline de navigation proposé inclut : la calibration de la sonde, la segmentation tenant compte de la géométrie d’acquisition, et le recalage profitant de la forme quasi symétrique du fémur. La précision est évaluée en termes cliniques.Les temps d'exécution et la précision obtenus sont encourageants et rendent le pipeline proposé valable pour être évalué en utilisant des données réelles des patients. Une fois notre étude réussie le défi peropératoire, d’autres applications telles que l'arthroplastie totale de l'épaule et l'ablation du cancer osseux peuvent en profiter. / The principal aim of a Total Hip Arthroplasty (THA) is to reduce pain by reproducing the hip joint mechanical properties using artificial implants. This work addresses the ultrasound based navigation of THA, with a focus on the femoral implant. Using a calibrated 3D ultrasound probe, the aim is to image and recognize the femur after implant insertion, then to provide quantitative and visual navigation instructions for optimal implant placement. US bone interfaces are estimated per line of sight, then mapped to CT model profiting from the femur symmetry. The inaccuracy of the proposed navigation system is quantified in clinical terms. The obtained runtimes and accuracies make the proposed pipeline worthy to be tested in the OR. Once the proposed pipeline succeeds the intraoperative challenge, navigated bone tumor ablation and total shoulder arthroplasty can profit from our work.
37

Acquisition 3D des gestes par vision artificielle et restitution virtuelle / 3D motion capture by computer vision and virtual rendering

Gomez Jauregui, David Antonio 04 May 2011 (has links)
Les environnements virtuels collaboratifs permettent à plusieurs utilisateurs d’interagir à distance par Internet. Ils peuvent partager une impression de téléprésence en animant à distance un avatar qui les représente. Toutefois, le contrôle de cet avatar peut être difficile et mal restituer les gestes de l’utilisateur. Ce travail vise à animer l’avatar à partir d’une acquisition 3D des gestes de l’utilisateur par vision monoculaire en temps réel, et à rendre la téléprésence virtuelle possible au moyen d’un PC grand public équipé d’une webcam. L’approche suivie consiste à recaler un modèle 3D articulé de la partie supérieure du corps humain sur une séquence vidéo. Ceci est réalisé en cherchant itérativement la meilleure correspondance entre des primitives extraites du modèle 3D d’une part et de l’image d’autre part. Le recalage en deux étapes peut procéder sur les régions, puis sur les contours. La première contribution de cette thèse est une méthode de répartition des itérations de calcul qui optimise la robustesse et la précision sous la contrainte du temps-réel. La difficulté majeure pour le suivi 3D à partir d’images monoculaires provient des ambiguïtés 3D/2D et de l’absence d’information de profondeur. Le filtrage particulaire est désormais une approche classique pour la propagation d’hypothèses multiples entre les images. La deuxième contribution de cette thèse est une amélioration du filtrage particulaire pour le recalage 3D/2D en un temps de calcul limité par des heuristiques, dont la contribution est démontée expérimentalement. Un paramétrage de l’attitude des bras par l’extrémité de leur chaîne cinématique est proposé qui permet de mieux modéliser l’incertitude sur la profondeur. Enfin, l’évaluation est accélérée par calcul sur GPU. En conclusion, l’algorithme proposé permet un suivi 3D robuste en temps-réel à partir d’une webcam pour une grande variété des gestes impliquant des occlusions partielles et des mouvements dans la direction de la profondeur. / Networked 3D virtual environments allow multiple users to interact with each other over the Internet. Users can share some sense of telepresence by remotely animating an avatar that represents them. However, avatar control may be tedious and still render user gestures poorly. This work aims at animating a user’s avatar from real time 3D motion capture by monoscopic computer vision, thus allowing virtual telepresence to anyone using a personal computer with a webcam. The approach followed consists of registering a 3D articulated upper-body model to a video sequence. This involves searching iteratively for the best match between features extracted from the 3D model and from the image. A two-step registration process matches regions and then edges. The first contribution of this thesis is a method of allocating computing iterations under real-time constrain that achieves optimal robustness and accuracy. The major issue for robust 3D tracking from monocular images is the 3D/2D ambiguities that result from the lack of depth information. Particle filtering has become a popular framework for propagating multiple hypotheses between frames. As a second contribution, this thesis enhances particle filtering for 3D/2D registration under limited computation constrains with a number of heuristics, the contribution of which is demonstrated experimentally. A parameterization of the arm pose based on their end-effector is proposed to better model uncertainty in the depth direction. Finally, evaluation is accelerated by computation on GPU. In conclusion, the proposed algorithm is demonstrated to provide robust real-time 3D body tracking from a single webcam for a large variety of gestures including partial occlusions and motion in the depth direction.
38

Fusion TEMP-TDM en imagerie cardiaque : vers une sectorisation spécifique de la perfusion myocardique

Chauvet, Cindy 07 July 2011 (has links)
La tomoscintigraphie myocardique (TMS) et la coronarographie par tomodensitométrie àmultidétecteurs (coro-TDM) sont deux techniques d’imagerie utilisées pour l'évaluation noninvasive de la maladie coronarienne. La TMS fournit une représentation 3D de la perfusionmyocardique. Le coro-TDM apporte des informations anatomiques liées à l’arbre artériel etpermet de détecter la présence de sténoses coronaires. La combinaison des informationscomplémentaires fournies par ces deux modalités permet aux médecins nucléaires debénéficier de repères anatomiques et d'isoler la sténose responsable de la souffrance et del'insuffisance coronaire du patient.La segmentation des artères coronaires est une étape préliminaire importante pour lavisualisation de l'anatomie des vaisseaux avec la perfusion myocardique. Nous proposons uneméthode de segmentation des vaisseaux sans détection de la ligne médiane fondée sur lamorphologie mathématique et la croissance de région. Cette méthode s'avère être un boncompromis entre temps de calcul et précision.La seconde partie de ces travaux concerne le recalage des images TSM et coro-TDM. Cetteétape nécessite la mise en place de méthodes adaptées aux modalités anatomiques etfonctionnelles mises en jeu. Notre méthode repose sur un formalisme d'information mutuelleexploitant un modèle non paramétrique de densité par noyaux de Parzen, rendu robuste grâceà l'estimation des matrices de largeurs de bande de rang plein, et sur un schéma d'optimisationstochastique fondé sur le filtrage particulaire.La TSM et les artères coronaires sont projetées et fusionnées sur un bull's eye pour permettreune analyse conjointe de la localisation des sténoses et des anomalies de la perfusionmyocardique. La nouvelle quantification proposée intègre la fusion des informationsanatomiques et fonctionnelles : chacun des 17 segments du ventricule gauche est affecté demanière spécifique à l'artère coronaire dont la distance géodésique à la surface du myocardeest la plus faible.L'application proposée est adaptée pour une utilisation en routine clinique en cardiologienucléaire. L'absence de gold standard pour l'évaluation du recalage en imagerie cardiaquenous a conduit à utiliser une base de données d'IRM de cerveau. Puis, l'approche a été testéesur un fantôme cardiaque et des données cliniques. Les artères coronaires peuvent êtresegmentées jusqu'à 1 mm de diamètre. La précision de la méthode de recalage est de l'ordrede la résolution de la TSM. L'étude de faisabilité de la quantification spécifique patient de laperfusion myocardique a montré une meilleure discrimination entre les territoires coronaires. / No abstract available
39

Reconnaissance automatique des sillons corticaux

Perrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
40

Apport du filtrage particulaire au recalage altimétrique dans un contexte de navigation hybridée

Flament, Mathieu 02 December 2009 (has links) (PDF)
Un système de navigation hybridée associe plusieurs moyens de positionnement afin d'augmenter la précision, la disponibilité, et la fiabilité de l'information délivrée. Cette thèse se focalise sur l'association d'une centrale inertielle et de mesures radio-altimétriques pour la navigation des aéronefs (drones, missiles). La problématique consiste à fusionner de manière optimale les informations inertielles et les mesures du radio-altimètre. Ce problème se formule comme une opération de filtrage non-linéaire, la non-linéarité résultant du profil arbitraire du terrain survolé. On se propose dans le cadre de la thèse d'évaluer les performances de l'algorithme de filtrage particulaire. Cet algorithme, bien qu'encore très peu utilisé pour des applications industrielles à cause de la lourdeur des calculs qu'il engendre, suscite un intérêt croissant avec l'augmentation constante des capacités de calcul des processeurs. Cette étude s'est concentrée à la fois sur le contexte applicatif (principe de la navigation inertielle, modélisation des imperfections des senseurs inertiels, description des algorithmes actuellement utilisés, principe de la mesure radio-altimétrique) et sur la théorie du filtrage particulaire. Ceci a permis de préciser les apports potentiels du filtrage particulaire par rapport aux autres algorithmes plus classiques (filtre à grille, filtre de Kalman étendu, unscented Kalman filter). L'expérience acquise sur les différentes variantes du filtre particulaire a permis de proposer des solutions satisfaisant au mieux le cahier des charges imposé par le contexte applicatif.

Page generated in 0.0628 seconds