• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 162
  • 82
  • 17
  • Tagged with
  • 261
  • 108
  • 83
  • 74
  • 67
  • 64
  • 57
  • 55
  • 53
  • 47
  • 43
  • 41
  • 39
  • 32
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Scanneur de profilométrie laser tridimensionnelle adapté au LabPET

Dao-Phan, Tri Van Nicolas January 2015 (has links)
L'imagerie préclinique regroupe les méthodes d'imagerie permettant de faire une étude des processus biologiques in vivo et de manière non-invasive sur animaux de laboratoire. La tomographie d'émission par positrons (TEP) est une de ces méthodes. Elle utilise des molécules marquées par des émetteurs de positrons afin de pouvoir mesurer la biodistribution in vivo de ces molécules. Cependant, l'imagerie TEP est limitée à la détection de molécules marquées dans un organisme et n'offre pas toujours de référentiel suffisamment précis pour indiquer leur position exacte relativement aux organes et aux tissus internes. Le but du scanneur de profilométrie tridimensionnel (SPT) est donc de fournir un modèle 3D du contour de l'organisme qui sera superposé aux images TEP. Ce mémoire porte sur le développement de l'appareil et son installation sur le LabPET, un appareil d'imagerie TEP pour souris et rats de laboratoire développé au le Centre d'imagerie moléculaire de Sherbrooke. Ce mémoire détaille la méthodologie, le développement du matériel de mesure et les algorithmes utilisés pour la conception et la réalisation du SPT ainsi que les résultats obtenus. Une emphase est placée sur l'utilisation d'une bipyramide à base triangulaire afin d'obtenir une méthode de calibrage flexible permettant de calibrer simultanément les multiples systèmes d'acquisition du SPT et leur fournir un même référentiel unique.
12

Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle / Analysis of renal dynamic contrast-enhanced sequences using vector quantization algorithms

Chevaillier, Béatrice 09 March 2010 (has links)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité / Dynamic-Contrast-Enhanced Magnetic Resonance Imaging has a great potential for renal function assessment but has to be evaluated on a large scale before its clinical application. Registration of image sequences and segmentation of internal renal structures is mandatory in order to exploit acquisitions. We propose a reliable and user-friendly tool to partially automate these two operations. Statistical registration methods based on mutual information are tested on real data. Segmentation of cortex, medulla and cavities is performed using time-intensity curves of renal voxels in a two step process. Classifiers are first built with pixels of the slice that contains the largest proportion of renal tissue : two vector quantization algorithms, namely the K-means and the Growing Neural Gas with targeting, are used here. These classifiers are first tested on synthetic data. For real data, as no ground truth is available for result evaluation, a manual anatomical segmentation is considered as a reference. Some discrepancy criteria like overlap, extra pixels and similarity index are computed between this segmentation and functional one. The same criteria are also evaluated between the referencee and another manual segmentation. Results are comparable for the two types of comparisons. Voxels of other slices are then sorted with the optimal classifier. Generalization theory allows to bound classification error for this extension. The main advantages of functional methods are the following : considerable time-saving, easy manual intervention, good robustness and reproductibility
13

Echographie 3D dynamique pour le suivi d'une structure osseuse en orthopédie

Schers, Jonathan 03 December 2009 (has links) (PDF)
Dans le cadre des applications thérapeutique et diagnostique en orthopédie assistées par ordinateur, il est essentiel de pouvoir connaître avec précision la position et l'orientation d'une structure osseuse. Selon le domaine d'application, la localisation est obtenue soit par l'implantation d'un corps rigide localisé soit par l'utilisation de marqueurs externes collés sur la peau. Le premier dispositif est relativement précis mais il est assez invasif. Le second est non invasif mais il est peu précis. Nous proposons une solution alternative à ces approches par la mise en œuvre d'un suivi par échographie 3D. Une difficulté vient bien évidemment de la spécificité des ultrasons vis-à-vis des structures osseuses. Nous avons développé un algorithme de recalage iconique rigide utilisant une mesure de similarité hybride calculée sur les images originales et des images de régions. Diverses expérimentations ont été menées pour évaluer notre approche. Les résultats obtenus sont assez prometteurs.
14

Segmentation Automatique des Structures Cérébrales s'appuyant sur des Connaissances Explicites

Pitiot, Alain 11 1900 (has links) (PDF)
Nous proposons avec cette thèse un système de segmentation automatique pour les images cérébrales (en particulier les IRM in vivo). Nous avons mis l'accent sur la conception d'une méthodologie de segmentation qui s'appuie au maximum sur l'expertise médicale a priori. Nous appréhendons le problème de la recherche des contours des structures cibles sous l'angle du processus d'appariement d'un groupe de patrons déformables (maillages simplexes) aux frontières des structures. Ces patrons évoluent en parallèle, sous la supervision d'un ensemble de règles dérivées à la fois de l'analyse de la dynamique des patrons et de l'expertise médicale. Nous soumettons les patrons à une variété de contraintes,concues à partir d'informations a priori sur la texture, la forme et les propriétes histologiques des tissus sous-jacents aux structures. L'information texturale est extraite par un classificateur linéaire/non-linéaire qui prend la forme d'un réseau de neurones à 2 étages. Cette architecture hybride, liée à une phase d'apprentissage dynamique, permet de produire de meilleures cartes de classification et donc de meilleures contraintes. Une approche originale, par apprentissage, du problème de l'appariement dense d'objets n-D permet l'introduction de connaissances a priori dans l'élaboration des modèles de forme des structures cibles. Nous présentons également un nouveau descripteur de forme, le descripteur "observed transport", dont la robustesse au bruit et le pouvoir de discrémination accru en font un bon candidat pour notre stratégie d'appariement. Enfin, un modèle plus fidèle des transformations induites par les processus histologiques, l'approche affine par morceau, permet la conception d'un algorithme de recalage biomédical mieux adapté à la reconstruction de volumes histologiques 3-D.
15

Segmentation de structures anatomiques du bas abdomen à l'aide de surfaces déformables 3D

Costa, Maria Jimena 14 March 2008 (has links) (PDF)
Le principal objectif de cette thèse est la conception et la production d'outils à destination des radiologues pour la délinéation des organes à risque dans le cadre du traitement par radiothérapie du cancer de la prostate. Les images passées entrées sont des images CT. Elles sont d'abord placées dans un repère commun à l'aide d'un recalage log-euclidien concentré sur les structures osseuses du pubis. Une suite progressive de traitements est ensuite appliquée: dans un premier temps, la vessie est segmentée, puis la prostate est ensuite localisée paralellement à la vessie, pour finir avec l'intégration de la délinéation du rectum. Compte tenu de l'hétérogénéité des images de la base de données sur laquelle nous avons travaillé, notre contribution principale est la flexibilité. La vessie est une structure à forte variabilité en termes de forme et d'intensité, notamment à cause du degré de remplissage et la présence ou l'absence d'un produit de contraste. La méthode proposée s'adapte non seulement aux formes très différentes des vessies de notre base de donnée, mais aussi au degré de replissage donnant lieu, dans le cas ou un produit de contraste a été administré, une h'etérogénéité notable dans la structure à segmenter. Le contraste de la prostate avec les tissus environnants est quasi-nul; son interface avec la vessie est souvent très difficile à distinguer, même par les experts médicaux. L'incorporation d'informations anatomiques sur la forme et d'informations images, couplée à une nouvelle contrainte d'interaction entre deux maillages, permet d'obtenir une bonne segmentation de la prostate et d'éliminer les ambiguités au niveau de l'interface entre les deux structures. L'incorportation du rectum est l'étape la plus délicate: les différences entre les protocoles d'acquisition de la base de données utilisée interdisent toute modélisation de l'intérieur du rectum: présence de matières fécales, insuflation d'air, présence d'un produit de contraste, présence d'une sonde etc. Les hypotheses faites sur les tissus connexes au rectum ainsi qu'une nouvelle contrainte tubulaire couplée a une pré-segmentation du squelette du rectum permettent d'obtenir un résultat probant. La chaîne de traitement qui a conduit a l'élaboration de cette thèse est en cours d'incorporation dans le logiciel Isogray produit par DOSIsoft, ce qui permet une validation plus approfondie dans des conditions cliniques.
16

Méthodes de réduction pour le recalage. Application au cas d'Ariane 5

Bobillot, Adrien 05 December 2002 (has links) (PDF)
Cette thèse s'intéresse au recalage de modèles dynamiques, processus d'optimisation au cours duquel on corrige des paramètres du modèle de manière à minimiser une distance calcul-essai. A chaque itération, de nombreuses quantités doivent être déterminées (modes de la structure, sensibilités, localisation d'erreur, etc.). Ainsi le recalage fait intervenir des calculs particulièrement coûteux. C'est pourquoi on développe dans un premier temps une méthode de résolution approchée, applicable à divers problèmes rencontrés en analyse modale et plus particulièrement dans le recalage. Cette méthode, dénommée "méthode d'itération sur les résidus", est ainsi appliquée au calcul de modes (de structures élastiques ou amorties, couplées ou non avec un fluide), à la résolution d'une méthode d'expansion ou encore au calcul de sensibilités. Des comparaisons avec des méthodes existantes montrent, sur des modèles industriels, des performances extrêmement intéressantes tout en gardant une méthodologie unifiée, simple de mise en oeuvre. Dans un deuxième temps, on expose les divers outils utilisés pour le recalage. Sur ce sujet, les contributions principales de cette thèse sont l'introduction d'une démarche systématique pour la détermination de la visibilité d'erreurs, ainsi qu'une méthode de placement de capteurs pour localiser un défaut donné. Finalement, ces outils sont appliqués au recalage des modèles de l'étage principal cryotechnique et de l'étage supérieur cryotechnique d'Ariane 5.
17

Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM / Multi-modal automatic registration : A parallel multi-resolution approach applied to PET-MRI

Bernier, Michaël January 2012 (has links)
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.
18

Intégration d'un mélange multibande à un algorithme de recalage panoramique par flux optique

Coiffec-Pennec, Mikael January 2013 (has links)
Les images panoramiques sont des vues en largeur d'un espace physique. Ces larges images, en plus d'être intéressantes par leur aspect esthétique, sont un support essentiel pour de nombreuses applications comme par exemple l'orientation automatique d'un robot dans son environnement ou la création de cartes satellites. Pour obtenir un panorama, deux approches sont possibles : une approche matérielle et une approche logicielle. Dans l'approche logicielle, il y a deux problématiques : le recalage des images entre elles et le mélange des valeurs radiométriques des sections se recoupant. Ce mémoire s'intéresse à la problématique de mélange. En effet, les images à regrouper peuvent présenter des différences d'intensité pour diverses raisons. Il faut alors effectuer un mélange afin de faire disparaître ces différences et pouvoir ainsi produire un panorama sans transition visible. Plus précisément, nous travaillons sur l'amélioration de l'algorithme de construction panoramique par recalage à l'aide du flux optique présenté par Rebière et Toffa. Cette méthode de positionnement très efficace repose sur le recalage de chaque pixel, à l'aide du flux optique. Malheureusement l'algorithme de Rebière et Toffa ne gère pas les différences d'intensité qui peuvent exister entre les images. Dans ces conditions, les panoramas produits ne sont pas de qualité satisfaisante. Pour régler ce problème, nous intégrons donc la méthode de mélange multibande présentée par Brown et Lowe. Nous adaptons ainsi le mélange multibande à l'algorithme de recalage par flux optique afin de le rendre robuste aux différences d'intensité.
19

Inspection géométrique des pièces flexibles sans gabarit de conformation / Fixtureless 3D Geometrical Inspection of Flexible Mechanical Parts

Babanezhad, Kaveh 15 March 2018 (has links)
Les pièces mécaniques fabriquées tel que les feuilles de métal et les pièces à paroi mince, ont souvent des différences géométriques significatives par rapport à leurs modèles CAD nominaux car ils ont une forme considérablement différente dans une condition d’état libre en raison de la gravité et/ou la tension résiduelle. Par conséquence, les fixtures de conformation coûteux sont traditionnellement utilisés pendant les opérations d’inspection géométriques à la phase de contrôle de qualité. L’objective de cette étude est de développer les méthodes d’inspection géométriques automatisées des pièces flexibles qui ne nécessiteraient pas d’utilisation des fixtures. / In manufacturing, quality control (QC) is an essential phase of a product’s lifecycle management (PLM) as it ensures customers receive parts within permissible tolerance ranges and free from defects. Given that all manufactured parts often have geometrical differences compared to their nominal computer-aided design (CAD) models, performing geometrical inspections becomes critical during the QC phase. Nowadays, actual measurements and defect identification during geometrical inspections have been semi-automated through the use of computer-aided inspection (CAI) software. Such software can simplify the inspection into a data acquisition task (contact-based probing or non-contact scanning of the part) followed by semi-automated procedures in a software environment. Despite their growing popularity and practicality, currently available CAI software assume the input acquired data are from a rigid part. This assumption is a major limitation given that not all manufactured parts are rigid, and in some sectors such as the aeronautical industries a considerable percentage of all manufactured components (35 to 40 percent) possess some nonrigid behavior. In other words, CAI software can only be used when a part maintains its shape in both free-state and state-of-use positions. Free-state shape is that which a part has without inspection fixture support and/or before assembly, whilst state-of-use shape is that which is defined in the nominal CAD. Although free-state and state-of-use positions are the same for rigid parts, some mechanical parts such as sheet metals and skins (thin-wall featured parts) often have significantly large geometric deviations in a free-state position compared to their nominal CAD models due to the effects of gravity and residual stress. Referring to such parts as flexible, the aforementioned deviations force the QC technicians to traditionally use a variety of inspection fixtures and conformation jigs in order to maintain flexible parts in their state-of-use position before using conventional CAI software. Without fixation, the free-state elastic geometric deviation of flexible parts would be mistaken by CAI software as plastic deformations and as a result identified as defects. With fixation, the aforementioned free-state deviations are removed before data acquisition, and whatever deviations remain can be inspected as potential defects. However, multiple disadvantages exist in using fixtures including: time consuming set-up process (e.g. 60+ hours for a skin panel in the aerospace industry), considerable purchase and operating expenses, limitations of standard fixture kits in some scenarios, big errors in CAI analysis if fixation has not been conducted correctly, etc. Such disadvantages have recently led researchers to:1) try to circumvent use of fixtures by digitally deforming (or better called registering) the acquired free-state pointcloud/mesh data of a flexible part until it superimposes onto the part’s corresponding nominal CAD model, thereby elastically deforming the data to obtain an optimal state-of-use shape whilst avoiding neutralization of any existing manufacturing defects2) and to try to introduce dedicated defect identification modules with higher degrees of automation (compared to conventional semi-automated CAI tools)In this thesis the same two goals are pursued. A bi-criterion registration method (and two algorithms/demos based upon it) is proposed to achieve the first goal, thereby enabling defect identification of flexible parts in conventional CAI software without the use of fixtures. This is followed by introducing an automated method for fast approximation of defect amplitudes (and an algorithm/demo based upon it) to achieve the second goal. Validation was conducted against a number of virtual (simulated) and experimental industrial case studies. Obtained satisfactory results reflect the effectiveness and utility of the proposed methods.
20

Modélisation de la perfusion abdominale sur des séquences dynamiques d'images tomodensitométriques avec injection de produit de constraste / Modeling of abdominal perfusion on CT image sequences with contrast product injection

Romain, Blandine 16 January 2014 (has links)
L'objectif général du travail de cette thèse est de proposer des méthodes robustes pour permettre d’obtenir des critères sur l’évolution de la pathologie tumorale à partir d’études dynamiques. Actuellement, l’appréciation de l’efficacité d’un traitement antiangiogénique (destruction des vaisseaux alimentant la tumeur) repose principalement sur l’imagerie fonctionnelle dont l’objectif est de quantifier la microcirculation tumorale à partir d’acquisitions dynamiques de perfusion. Cependant, différentes limites concernant le suivi de la réponse précoce des lésions par imagerie existent (mauvaise maîtrise des mouvements respiratoires, pas de consensus sur les paramètres permettant de quantifier la microcirculation tumorale, estimation paramétrique faite à partir de données extrêmement bruitées et pour un grand nombre de zones - une estimation par voxel de la séquence dynamique d’images). Dans un contexte clinique extrêmement contraignant, nous avons mis en place un cadre rigoureux comprenant l’ensemble des étapes nécessaires pour une caractérisation plus fiable de la microcirculation tumorale à partir de séquences d’images acquises sous perfusion de produit de contraste : les contributions principales de cette thèse couvrent ainsi l’optimisation des paramètres de reconstruction, le développement d’une méthode de recalage adaptée à nos données, la sélection argumentée d’un modèle de perfusion et enfin le développement d’une méthode robuste d’estimation des paramètres. Ces travaux permettent d’envisager l’utilisation des modèles de perfusion pour la caractérisation et la prédiction de la réponse d’un patient à différents traitements antitumoraux. / The main objective is to propose robust methods to allow estimation of functional markers reflecting the tumor evolution from dynamic studies. Currently, in this domain, assessing of the efficiency evaluation of an anti-angiogenic therapy (destruction of vessels which feed the tumor) is mainly based on the functional imaging of the microcirculation, which the objective is to quantify the tumor microcirculation by dynamic acquisitions with injection of contrast product. However, several limitations are present (lack of control of the breathing movement, no consensus on the parameters permitting the quantification of tumor microcirculation, parameter estimation computed from noisy data and a large number of regions - one estimation by voxel or group of voxel of the dynamic image sequence). In a restrictive clinical context (noisy data, few number), we have developed a complete pipeline with a set of necessary steps to a reliable characterization of the tumor microcirculation from dynamic perfusion image sequence: the main contributions of this thesis cover the reconstruction parameters optimization, the development of a registration method, the argued selection of a perfusion model and the development of a robust method of parameter estimation. With these works, we can envision the utilization of these perfusion models to the characterization and the prediction of the therapy response of a patient

Page generated in 0.0807 seconds