• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 126
  • 20
  • Tagged with
  • 326
  • 326
  • 191
  • 178
  • 96
  • 83
  • 71
  • 70
  • 69
  • 64
  • 60
  • 58
  • 54
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes thermodynamiques appliquées à l'imagerie médicale

Sitzia-Verleure, Gaël C. January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Méthode structurelle pour le suivi automatique des artères coronaires en ciné-angiographie

Bellemare, Christian January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Validation de l'échographie haute fréquence pour l'évaluation des lésions d'ostéoarthrose

Spriet, Mathieu January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Computer-aided diagnosis of pulmonary embolism in opacified CT images

Sebbe, Raphaël 20 February 2007 (has links)
Pulmonary embolism (PE) is an extremely common and highly lethal condition that is a leading cause of death in all age groups. PE is the third most common cause of death in hospitalized patients, with an estimated 0.24% annual death rate of the population. Its symptoms are often vague and its diagnosis is a major medical challenge, with 70% of missed diagnosis in people dying from PE in hospitals. If left untreated, approximately one third of patients who survive an initial PE subsequently die from a future embolic episode. Most patients succumb to PE within the first few hours of the event. However, when properly identified, an effective treatment consisting of anticoagulants or thrombolytics is administered that dramatically reduces the mortality rate of the disease. Typically, the diagnosis of PE is manually performed by radiologists on CT images. It is a time-consuming and error-prone process, in particular because of the huge amount of data and more specifically in the case of sub-segmental and peripheral clots, which are less visible. Indeed, a typical CT dataset that is used for PE diagnosis can have more that 600 slices, the size of the smallest visible volume being in the order of magnitude of one millimeter. The duration of that review process by radiologists, excluding acquisition time, is in the order of 5 to 10 minutes, depending on evidence of the clots. The duration of an exam may become a concern considering that there is currently a lack of radiologists, that is partly due to the availability of new modalities, the increasing complexity of existing ones, and the growing number of new applications of medical imaging (functional imaging, heart CT, etc.). In that context, a computer aid can be provided whose main goal would be to decrease the time required to perform an exam, by acting either as a safeguard for radiologists or even better, if sufficiently robust and conservative, as a preliminary detection step in a computer-aided diagnosis (CAD) system. The work presented in this thesis consists of a combination of a method for segmenting the pulmonary arteries (PA), two emboli detection methods as well as a scheme for the evaluation of the performance. The segmentation of the PA serves one of the clot detection methods, and is carried out through a region growing algorithm that makes use of a priori knowledge of vessels topology. Two different approaches for clot detection are introduced. The evaluation of the method is also discussed, and a scheme for measuring its performance in terms of sensitivity and specificity is proposed, including a practical approach to making reference detection data, or ground truths, by radiologists.
5

Place et apport des outils pour l'automatisation du traitement des images médicales en pratique clinique / Place and contribution of tools for the automation of medical image processing in clinical practice

Ognard, Julien 18 December 2018 (has links)
L'application du traitement de l'image et son automatisation dans le domaine de l'imagerie médicale montre l'évolution des tendances avec la disponibilité des technologies émergentes. Les procédés et outils de traitement de l’image médicale sont résumés, les différentes manières de travailler sur une image sont représentés pour expliquer une recherche expansive dans différents domaines, tandis que les applications disponibles sont discutées. Ces applications sont aussi illustrées par le biais d’outils du traitement de l’image développés pour des besoins spécifiques. La catégorisation de chaque travail est effectuée selon des paradigmes. Ces derniers sont définis selon le niveau de considération au niveau global (formation de l’image, amélioration, visualisation, analyse, gestion), au sein de l’image (scène, organe, région, texture, pixel), de l’outil (reconstruction, recalage, segmentation, morphologie mathématique), du processus d’automatisation et de son applicabilité (faisabilité, validation, reproductibilité, implémentation, optimisation) en clinique (prédiction, diagnostic, amélioration, aide à la décision), ou en recherche (niveau de preuve). Par ce biais, il est démontré le rôle de chaque outil pris en exemple dans la construction d’un processus d’automatisation qui est expliqué, et étendu du patient au compte rendu en passant par l’image. L’actualité de la recherche conjointe sur le traitement de l'image et le processus d'automatisation en imagerie médicale actuelle est débattue. Le rôle de la communauté des ingénieurs et radiologues dans et autour de ce processus d’automatisation est discuté. / The application of image processing and its automation in the field of medical imaging shows the evolution of trends with the availability of emerging technologies. Medical image processing methods and tools are summarized, different ways of working on an image are represented to explain expansive search in different domains, while available applications are discussed. These applications are also illustrated through image processing tools developed for specific needs. The categorization of each work is done according to paradigms. These are defined according to the level of consideration at the global level (image formation, improvement, visualization, analysis, management), within the image (scene, organ, region, texture, pixel), of the tool (reconstruction, registration, segmentation, mathematical morphology), the automation process and its applicability (feasibility, validation, reproducibility, implementation, optimization) in clinic (prediction, diagnosis improvement, decision support), or in research (level of evidence). In this way, it is demonstrated the role of each tool taken as an example in the construction of an automation process that is explained, and extended from the patient to the report through the image. News from the joint research on image processing and the automation process in current medical imaging is debated.The role of the community of engineers and radiologists in and around this automation process is discussed.
6

Modèles biomécaniques et physio-pathologiques pour l'analyse d'images cérébrales

Clatz, Olivier 10 February 2006 (has links) (PDF)
Les travaux présentés dans ce manuscrit proposent plusieurs contributions dans le développement de modèles algorithmiques du cerveau et de ses pathologies. Le point commun entre tous ces travaux est un modèle dit de "seconde génération", spécifique à la géométrie du patient et capable de simuler le comportement mécanique du cerveau. La première partie de cette thèse présente l'utilisation de ce modèle pour l'estimation des déformations du cerveau au cours de deux opérations : l'électrostimulation pour le traitement de la maladie de Parkinson et la résection de tumeur. Dans le premier cas, le pouvoir prédictif du modèle est utilisé pour simuler les déplacements du cerveau à partir des données disponibles avant l'opération. Dans le second, le modèle est utilisé conjointement avec de l'imagerie par résonance magnétique per-opératoire pour estimer les déplacements observés dans les images. Dans la deuxième partie, nous abordons une classe de modèles faisant intervenir les pathologies cérébrales. Ainsi nous proposons un nouveau modèle 3D d'hydrocéphalie consécutive à une hémorragie méningée. Ce modèle permet d'introduire sous la forme d'un couplage entre modèles scalaires et volumiques une composante temporelle dynamique nécessaire en simulation de chirurgie. Ensuite, nous nous intéressons à la modélisation de la croissance du glioblastome. L'évolution de la densité de cellules tumorales dans le parenchyme est simulée par une équation de réaction-diffusion anisotrope prenant en compte la direction des fibres. Enfin, une nouvelle relation d'équilibre est introduite pour modéliser le couplage entre la densité de cellules tumorales et le modèle mécanique.
7

Segmentation Automatique des Structures Cérébrales s'appuyant sur des Connaissances Explicites

Pitiot, Alain 11 1900 (has links) (PDF)
Nous proposons avec cette thèse un système de segmentation automatique pour les images cérébrales (en particulier les IRM in vivo). Nous avons mis l'accent sur la conception d'une méthodologie de segmentation qui s'appuie au maximum sur l'expertise médicale a priori. Nous appréhendons le problème de la recherche des contours des structures cibles sous l'angle du processus d'appariement d'un groupe de patrons déformables (maillages simplexes) aux frontières des structures. Ces patrons évoluent en parallèle, sous la supervision d'un ensemble de règles dérivées à la fois de l'analyse de la dynamique des patrons et de l'expertise médicale. Nous soumettons les patrons à une variété de contraintes,concues à partir d'informations a priori sur la texture, la forme et les propriétes histologiques des tissus sous-jacents aux structures. L'information texturale est extraite par un classificateur linéaire/non-linéaire qui prend la forme d'un réseau de neurones à 2 étages. Cette architecture hybride, liée à une phase d'apprentissage dynamique, permet de produire de meilleures cartes de classification et donc de meilleures contraintes. Une approche originale, par apprentissage, du problème de l'appariement dense d'objets n-D permet l'introduction de connaissances a priori dans l'élaboration des modèles de forme des structures cibles. Nous présentons également un nouveau descripteur de forme, le descripteur "observed transport", dont la robustesse au bruit et le pouvoir de discrémination accru en font un bon candidat pour notre stratégie d'appariement. Enfin, un modèle plus fidèle des transformations induites par les processus histologiques, l'approche affine par morceau, permet la conception d'un algorithme de recalage biomédical mieux adapté à la reconstruction de volumes histologiques 3-D.
8

Segmentation de structures anatomiques du bas abdomen à l'aide de surfaces déformables 3D

Costa, Maria Jimena 14 March 2008 (has links) (PDF)
Le principal objectif de cette thèse est la conception et la production d'outils à destination des radiologues pour la délinéation des organes à risque dans le cadre du traitement par radiothérapie du cancer de la prostate. Les images passées entrées sont des images CT. Elles sont d'abord placées dans un repère commun à l'aide d'un recalage log-euclidien concentré sur les structures osseuses du pubis. Une suite progressive de traitements est ensuite appliquée: dans un premier temps, la vessie est segmentée, puis la prostate est ensuite localisée paralellement à la vessie, pour finir avec l'intégration de la délinéation du rectum. Compte tenu de l'hétérogénéité des images de la base de données sur laquelle nous avons travaillé, notre contribution principale est la flexibilité. La vessie est une structure à forte variabilité en termes de forme et d'intensité, notamment à cause du degré de remplissage et la présence ou l'absence d'un produit de contraste. La méthode proposée s'adapte non seulement aux formes très différentes des vessies de notre base de donnée, mais aussi au degré de replissage donnant lieu, dans le cas ou un produit de contraste a été administré, une h'etérogénéité notable dans la structure à segmenter. Le contraste de la prostate avec les tissus environnants est quasi-nul; son interface avec la vessie est souvent très difficile à distinguer, même par les experts médicaux. L'incorporation d'informations anatomiques sur la forme et d'informations images, couplée à une nouvelle contrainte d'interaction entre deux maillages, permet d'obtenir une bonne segmentation de la prostate et d'éliminer les ambiguités au niveau de l'interface entre les deux structures. L'incorportation du rectum est l'étape la plus délicate: les différences entre les protocoles d'acquisition de la base de données utilisée interdisent toute modélisation de l'intérieur du rectum: présence de matières fécales, insuflation d'air, présence d'un produit de contraste, présence d'une sonde etc. Les hypotheses faites sur les tissus connexes au rectum ainsi qu'une nouvelle contrainte tubulaire couplée a une pré-segmentation du squelette du rectum permettent d'obtenir un résultat probant. La chaîne de traitement qui a conduit a l'élaboration de cette thèse est en cours d'incorporation dans le logiciel Isogray produit par DOSIsoft, ce qui permet une validation plus approfondie dans des conditions cliniques.
9

Segmentation of liver tumors on CT images / Segmentation des tumeurs du foie sur des images de scanner CT

Pescia, Daniel 07 January 2011 (has links)
Cette thèse porte sur la segmentation des tumeurs du foie sur des images tomodensitométriques. Ce sujet présente un intérêt certain pour le domaine médical puisque les médecins pourraient ainsi bénéficier d’une méthode reproductible et fiable pour segmenter de telles lésions. Une segmentation précise des tumeurs du foie permettrait en effet d’aider les médecins lors de l’évaluation des lésions (détection, localisation, quantification), du choix d’un traitement, et de sa planification. Les méthodes développées dans ce cadre doivent faire face à trois principales difficultés scientifiques: (i) la grande variabilité de l’apparence et de la forme des structures recherchées, (ii) leur ressemblance avec les régions environnantes et finalement (iii) la faiblesse du rapport signal sur bruit observé dans les images dans lesquelles on travaille. Ce problème est abordé dans une optique d’application clinique et est résolu en suivant une approche en deux temps commençant par le calcul d’une enveloppe du foie, avant de segmenter les tumeurs présentes à l’intérieur de cette enveloppe. Nous commençons par proposer une approche basée sur des atlas pour le calcul d’une enveloppe des foies pathologiques. Tout d’abord, un outil de traitement d’image a été développé pour calculer une enveloppe autour d’un masque binaire, afin d’essayer d’obtenir une enveloppe du foie à partir d’une estimation du parenchyme sain. Un nouvel atlas statistique a ensuite été introduit, puis utilisé pour la segmentation à travers son recalage difféomorphique avec une image. La segmentation est finalement réalisée en combinant les coûts d’appariement des images avec des a priori spatiaux et d’apparence, le tout en suivant une approche multi échelle basée sur des MRFs. La deuxième étape de notre approche porte sur la segmentation des lésions contenues dans ces enveloppes en combinant des techniques d’apprentissage par ordinateur avec de méthodes basées sur des graphes. Un espace d’attributs approprié est tout d’abord défini en considérant des descripteurs de textures déterminés à travers des filtres de diverses tailles et orientations. Des méthodes avancées d’apprentissage automatique sont ensuite utilisées pour déterminer les attributs pertinents, ainsi que l’hyperplan qui sépare les voxels tumoraux des voxels correspondant à des tissus sains dans cet espace d’attributs. Pour finir, la segmentation est réalisée en minimisant une énergie sous forme de MRF, laquelle combine les probabilités d’appartenance de chaque voxel à une classe, avec celles de ses voisins. Des résultats prometteurs montrent les potentiels de notre méthode / This thesis is dedicated to 3D segmentation of liver tumors in CT images. This is a task of great clinical interest since it allows physicians benefiting from reproducible and reliable methods for segmenting such lesions. Accurate segmentation would indeed help them during the evaluation of the lesions, the choice of treatment and treatment planning. Such a complex segmentation task should cope with three main scientific challenges: (i) the highly variable shape of the structures being sought, (ii) their similarity of appearance compared with their surrounding medium and finally (iii) the low signal to noise ratio being observed in these images. This problem is addressed in a clinical context through a two step approach, consisting of the segmentation of the entire liver envelope, before segmenting the tumors which are present within the envelope. We begin by proposing an atlas-based approach for computing pathological liver envelopes. Initially images are pre-processed to compute the envelopes that wrap around binary masks in an attempt to obtain liver envelopes from estimated segmentations of healthy liver parenchyma. A new statistical atlas is then introduced and used to segmentation through its diffeomorphic registration to the new image. This segmentation is achieved through the combination of image matching costs as well as spatial and appearance priors using a multiscale approach with MRF. The second step of our approach is dedicated to lesions segmentation contained within the envelopes using a combination of machine learning techniques and graphbased methods. First, an appropriate feature space is considered that involves texture descriptors being determined through filtering using various scales and orientations. Then, state of the art machine learning techniques are used to determine the most relevant features, as well as the hyperplane that separates the feature space of tumoral voxels to the ones corresponding to healthy tissues. Segmentation is then achieved by minimizing an MRF energy that combines class probabilities and neighbor constraints. Promising results demonstrate the potentials of our method
10

Elaboration de nanoparticules magnétiques à base de polymères de coordination cyano-ponté pour l'imagerie médicale / Synthesis of cyano-bridged coordination polymer nanoparticles for medical imaging

Perrier, Marine 25 October 2013 (has links)
Les travaux entrepris au cours de cette thèse ont eu pour objectif d'élaborer de nouvelles nanoparticules magnétiques pour l'imagerie médicale. Ce manuscrit abordera la méthode de synthèse des nanoparticules, leurs caractérisations puis leur évaluation comme agent de contraste pour l'imagerie par résonance magnétique (IRM) et radio-traceur pour la scintigraphie.Dans un premier temps, nous proposerons une méthode de synthèse pour obtenir des nanoparticules magnétiques à base de polymères de coordination cyano-pontés élaborées à partir de précurseurs moléculaires de métaux de transitions et de lanthanides en utilisant des ligands cyanure pontant et stabilisées par des ligands solubles dans l'eau et biocompatibles. Nous présenterons la synthèse, les caractérisations structurales et texturales et les propriétés magnétiques de ces nano-objets de formule générale My[M'(CN)6]z @stabilisant avec M = Fe, Gd, Tb, Y, Ni, Cu ; M' = Fe, Co et stabilisant = PEGNH2, PEG400, Glu-TEG, D-Mannitol, NADG. Nous évaluerons ensuite leur potentielle pour des applications en imagerie médicale. Pour ce faire, nous discuterons de leur capacité à se comporter comme agent de contraste pour l'IRM et comme radio-traceur pour la scintigraphie ou plus précisément la tomographie par émission mono-photonique. Nous développerons une discussion sur les paramètres fondamentaux qui doivent être optimisés afin d'obtenir des nano-objets comme agents de contraste pour l'IRM et dans le but de comprendre le mécanisme de relaxivité de ces nano-objets. Enfin, nous testerons ces agents de contraste et radio-traceurs in vitro et in vivo sur le petit animal. Puis, nous évaluerons la cytotoxicité, la cinétique et les voies d'élimination, la biodistribution, la génotoxicité et la carcinogénèse des nanoparticules utilisées. / The goal of the present research is to elaborate new magnetic nanoparticles for medical imaging. This manuscript will describe the nanoparticles' synthesis method, their characterization and their evaluation as contrast agent for magnetic resonance imaging (MRI) and functional probe for scintigraphy.In a first time, we will propose synthesis processes allowing to obtain cyano-bridged coordination polymer based magnetic nanoparticles elaborated from transition metals or lanthanides molecular precursors using cyano-bridged ligands and stabilizing ligands soluble in water and biocompatible. We will introduce the synthesis, structural and textural characterizations and magnetic properties of these nano-objects with general formula My[M'(CN)6]z @stabilizer with M = Fe, Gd, Tb, Y, Ni, Cu ; M' = Fe, Co and stabilizer = PEG NH2, PEG400, Glu-TEG, D-Mannitol, NADG.In a second time, we will evaluate their potential as nanoprobles for application in medical imaging. For that, we will discuss about their capacity to act as a contrast agent for MRI and as a functional probe for scintigraphy or more specifically single photon emission computed tomography (SPECT). We will develop discussion about fundamental parameters which must be optimized to obtain contrast agent nano-objects for MRI and to understand nano-object relaxivity mechanisms. Then, we will test these contrast agents and functional probes in vitro and in vivo on mice. Also, we will evaluate the cytotoxicity, the kinetics and way of elimination, the biodistribution, the genotoxicity and the carcinogenesis of the used nanoparticles.

Page generated in 0.1026 seconds