• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 126
  • 20
  • Tagged with
  • 326
  • 326
  • 191
  • 178
  • 96
  • 83
  • 71
  • 70
  • 69
  • 64
  • 60
  • 58
  • 54
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contributions à l'étude de la classification spectrale et applications

Mouysset, Sandrine 07 December 2010 (has links) (PDF)
La classification spectrale consiste à créer, à partir des éléments spectraux d'une matrice d'affinité gaussienne, un espace de dimension réduite dans lequel les données sont regroupées en classes. Cette méthode non supervisée est principalement basée sur la mesure d'affinité gaussienne, son paramètre et ses éléments spectraux. Cependant, les questions sur la séparabilité des classes dans l'espace de projection spectral et sur le choix du paramètre restent ouvertes. Dans un premier temps, le rôle du paramètre de l'affinité gaussienne sera étudié à travers des mesures de qualités et deux heuristiques pour le choix de ce paramètre seront proposées puis testées. Ensuite, le fonctionnement même de la méthode est étudié à travers les éléments spectraux de la matrice d'affinité gaussienne. En interprétant cette matrice comme la discrétisation du noyau de la chaleur définie sur l'espace entier et en utilisant les éléments finis, les vecteurs propres de la matrice affinité sont la représentation asymptotique de fonctions dont le support est inclus dans une seule composante connexe. Ces résultats permettent de définir des propriétés de classification et des conditions sur le paramètre gaussien. A partir de ces éléments théoriques, deux stratégies de parallélisation par décomposition en sous-domaines sont formulées et testées sur des exemples géométriques et de traitement d'images. Enfin dans le cadre non supervisé, le classification spectrale est appliquée, d'une part, dans le domaine de la génomique pour déterminer différents profils d'expression de gènes d'une légumineuse et, d'autre part dans le domaine de l'imagerie fonctionnelle TEP, pour segmenter des régions du cerveau présentant les mêmes courbes d'activités temporelles.
22

Langage normalisé pour la description des informations médicales en radiologie

Duquesnel, Philippe 19 June 1969 (has links) (PDF)
.
23

Réalisation d'un nouveau prototype combiné TEP/TDM pour l'imagerie moléculaire de petits animaux

Bérard, Philippe January 2010 (has links)
Au cours des dernières années, la tomographie d'émission par positrons (TEP) s'est imposée comme l'outil diagnostique par excellence pour déceler la présence de tumeurs et caractériser leur statut métabolique. Comme les images TEP souffrent généralement d'une localisation anatomique imprécise, le diagnostic est d'autant plus fiable lorsque l'information fonctionnelle et moléculaire fournie par la TEP peut être complétée par l'information anatomique détaillée obtenue par une autre modalité d'imagerie comme la tomodensitométrie (TDM) ou l'imagerie par résonance magnétique (IRM). L'émergence de l'imagerie multi-modale TEP/TDM (ou"PET/CT") permet d'obtenir, à tour de rôle, l'information anatomique et métabolique du patient en effectuant successivement les examens TDM et TEP sans avoir à déplacer le patient d'une salle à l'autre, ce qui facilite beaucoup les procédures de recalage d'images. Toutefois, il peut arriver, vu le déplacement du lit du patient d'un scanner à l'autre, que le patient bouge volontairement ou involontairement (mouvement péristaltique, cardiaque ou pulmonaire), ce qui cause des imprécisions dans les images fusionnées. Afin d'éviter ce problème, un simulateur TEP/TDM reposant sur un système de détection commun, celui du scanner LabPET(TM), a été développé. Détectant à la fois le rayonnement émis par le radiotraceur utilisé en TEP et les rayons-X de plus faible énergie utilisée en TDM, des images TEP/TDM ont été obtenues sans aucun déplacement du sujet. Pour obtenir ces images, des algorithmes numériques de traitement de signal ont été développés afin de diminuer l'empilement de signaux et ainsi mieux discerner les photons incidents du niveau de bruit électronique. De plus, des algorithmes de reconstruction d'images adaptés à la géométrie du simulateur ont été développés. Les résultats obtenus ont démontré qu'il est possible d'obtenir, avec relativement peu de radiations ionisantes, des images anatomiques avec un contraste suffisant pour l'imagerie moléculaire. Cependant, la résolution spatiale obtenue avec cet appareil n'était pas suffisante pour bien identifier les structures anatomiques fines chez la souris (le modèle animal par excellence en recherche biomédicale). Le détecteur LabPET II, dont les pixels font 1.2 × 1 2 mm[indice supérieur 2] a donc été développé afin d'atteindre une résolution submillimétrique en imagerie TEP et de l'ordre de 500 [micro]m en imagerie TDM. Fabriqué à partir de deux matrices de photodiodes avalanches, ce détecteur comptant 64 canaux d'acquisition individuels a été caractérisé ainsi que son électronique. Le rehaussement du simulateur avec ces détecteurs permettra de construire sous peu le premier appareil TEP/TDM avec un nouveau système de détection. Les applications de ce type d'appareil en recherche sur modèle animal sont nombreuses et diversifiées : étude de la croissance normale, étude de l'évolution des maladies et évaluation de l'efficacité des thérapies, développement de produits radiopharmaceutiques, etc.... Chez l'humain, l'approche TEP/TDM combinée proposée permettra d'améliorer la détection précoce des cancers et de faciliter le suivi des patients sous thérapie grâce à une réduction importante des doses de radiations.
24

Étude par pressions, activité musculaire et imagerie du pied pathologique en charge

Buelna, Luis January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
25

Magnetic resonance imaging for the estimation of fetal weight :from a research tool to a clinical application

Kadji, Caroline 20 June 2019 (has links) (PDF)
Despite many attempts to improve estimations based on ultrasound measures and volumes, the accurate prediction of birthweight hasremained elusive, particularly in relation to macrosomia.Now finally, after 7 years of dedicated research, we have managed to develop a rapid and precise, magnetic resonance imaging-basedtechnique, capable of accurately predicting birthweight, regardless of whether the estimations are performed, hours, days or even severalweeks prior to the actual birth.We believe that, once the already demonstrated advantages of the technique are confirmed in prospective, multi-centre studies, itwill become readily accessible for use in clinical practice and prove invaluable to clinicians as a reliable adjunct in many obstetricaldecision-making processes. / Doctorat en Sciences médicales (Médecine) / info:eu-repo/semantics/nonPublished
26

Identification du système d'acquisition d'images médicales à partir d'analyse du bruit / Identification of the Acquisition System in Medical Images by Noise Analysis

Kharboutly, Anas, Mustapha 13 September 2016 (has links)
Le traitement d’images médicales a pour but d’aider les médecins dans leur diagnostic et d’améliorer l’interprétation des résultats. Les scanners tomo-densitométriques (scanners X) sont des outils d’imagerie médicale utilisés pour reconstruire des images 3D du corps humain.De nos jours, il est très important de sécuriser les images médicales lors de leur transmission, leur stockage, leur visualisation ou de leur partage entre spécialistes. Par exemple, dans la criminalistique des images, la capacité d’identifier le système d’acquisition d’une image à partir de cette dernière seulement, est un enjeu actuel.Dans cette thèse, nous présentons une première analyse du problème d’identification des scanners X. Pour proposer une solution à ce type de problèmes, nous nous sommes basés sur les méthodes d’identification d’appareils photo. Elles reposent sur l’extraction de l’empreinte des capteurs. L’objectif est alors de détecter sa présence dans les images testées. Pour extraire le bruit, nous utilisons un filtre de Wiener basé sur une transformation en ondelettes. Ensuite, nous nous appuyons sur les propriétés relatives aux images médicales pour proposer des solutions avancées pour l’identification des scanners X. Ces solutions sont basées sur une nouvelle conception de leur empreinte, cette dernière étant définie en trois dimensions et sur les trois couches : os, tissu et air.Pour évaluer notre travail, nous avons généré des résultats sur un ensemble de données réelles acquises avec différents scanners X. Finalement, nos méthodes sont robustes et donnent une précision d’authentification élevée. Nous sommes en mesure d’identifier quelle machine a servi pour l’acquisition d’une image 3D et l’axe selon lequel elle a été effectuée. / Medical image processing aims to help the doctors to improve the diagnosis process. Computed Tomography (CT) Scanner is an imaging medical device used to create cross-sectional 3D images of any part of the human body. Today, it is very important to secure medical images during their transmission, storage, visualization and sharing between several doctors. For example, in image forensics, a current problem consists of being able to identify an acquisition system from only digital images. In this thesis, we present one of the first analysis of CT-Scanner identification problem. We based on the camera identification methods to propose a solution for such kind of problem. It is based on extracting a sensor noise fingerprint of the CT-Scanner device. The objective then is to detect its presence in any new tested image. To extract the noise, we used a wavelet-based Wiener denoising filter. Then, we depend on the properties of medical images to propose advanced solutions for CT-Scanner identification. These solutions are based on new conceptions in the medical device fingerprint that are the three dimension fingerprint and the three layers one. To validate our work, we applied our experiments on multiple real data images of multiple CT-Scanner devices. Finally, our methods that are robust, give high identification accuracy. We were able to identify the acquisition CT-Scanner device and the acquisition axis.
27

Suivi longitudinal des endoprothèses coronaires par analyse de séquences d'images de tomographie par cohérence optique. / Longitudinal follow-up of coronary stents by optical coherence tomography image sequence analysis.

Menguy, Pierre-Yves 19 December 2016 (has links)
Cette thèse porte sur la segmentation et la caractérisation des artères coronaires et des endoprothèses (stent) en imagerie de Tomographie par Cohérence Optique (OCT). L’OCT est une imagerie de très haute résolution qui permet d’apprécier des structures fines comme la couche intimale de la paroi vasculaire et les mailles du stent (struts). L’objectif de cette thèse est de proposer des outils logiciels autorisant l’analyse automatique d’un examen avec un temps d’exécution compatible avec une utilisation peropératoire. Ces travaux font suite à la thèse de Dubuisson en OCT, qui avait proposé un premier formalisme pour la segmentation de la lumière et la détection des struts pour les stents métalliques. Nous avons revisité la chaine de traitement pour ces deux problèmes et proposé une méthode préliminaire de détection de stents en polymère biorésorbable. Une modélisation surfacique du stent a permis d’estimer une série d’indices cliniques à partir des diamètres, surfaces et volumes mesurés sur chaque coupe ou sur l’ensemble de l’examen. L’apposition du stent par rapport à la paroi est également mesurée et visualisée en 3D avec une échelle de couleurs intuitive. La lumière artérielle est délimitée à l’aide d’un algorithme de recherche de plus court chemin de type Fast Marching. Son originalité est d’exploiter l’image sous la forme hélicoïdale native de l’acquisition. Pour la détection du stent métallique, les maxima locaux de l’image suivis d’une zone d’ombre ont été détectés et caractérisés par un vecteur d’attributs calculés dans leur voisinage (valeur relative du maximum, pente en niveau de gris, symétrie...). Les pics correspondant à des struts ont été discriminés du speckle environnant par une étape de régression logistique avec un apprentissage à partir d’une vérité terrain construite par un expert. Une probabilité d’appartenance des pics aux struts est construite à partir de la combinaison des attributs obtenue. L’originalité de la méthode réside en la fusion des probabilités des éléments proches avant d’appliquer un critère de décision lui aussi déterminé à partir de la vérité terrain. La méthode a été évaluée sur une base de données de 14 examens complets, à la fois au niveau des pixels et des struts détectés. Nous avons également validé de façon exhaustive une méthode de recalage non rigide d’images OCT exploitant des amers appariés par un expert sur les examens source et cible. L’objectif de ce recalage est de pouvoir comparer les examens coupe à coupe et les indices calculés aux mêmes positions à des temps d’acquisition différents. La fiabilité du modèle de déformation a été évaluée sur un corpus de quarante-quatre paires d’examens OCT à partir d’une technique de validation croisée par Leave-One-Out. / This thesis deals with the segmentation and characterization of coronary arteries and stents in Optical Coherence Tomography (OCT) imaging. OCT is a very high resolution imaging that can appreciate fine structures such as the intimal layer of the vascular wall and stitches (struts). The objective of this thesis is to propose software tools allowing the automatic analysis of an examination with a runtime compatible with an intraoperative use. This work follows Dubuisson's thesis in OCT, which proposed a first formalism for light segmentation and strut detection for metal stents. We revisited the treatment chain for these two problems and proposed a preliminary method for detecting bioabsorbable polymer stents. Surface modeling of the stent made it possible to estimate a series of clinical indices from the diameters, surfaces and volumes measured on each section or on the entire examination. Applying the stent to the wall is also measured and visualized in 3D with an intuitive color scale. The arterial lumen is delineated using a Fast Marching short path search algorithm. Its originality is to exploit the image in the native helical form of the acquisition. For the detection of the metallic stent, the local maxima of the image followed by a shadow zone have been detected and characterized by a vector of attributes calculated in their neighborhood (relative value of the maximum, slope in gray level, symmetry ...). Peaks corresponding to struts were discriminated from the surrounding speckle by a logistic regression step with learning from a field truth constructed by an expert. A probability of belonging to the peaks to struts is constructed from the combination of attributes obtained. The originality of the method lies in the fusion of the probabilities of the close elements before applying a decision criterion also determined from the ground truth. The method was evaluated on a database of 14 complete examinations, both at the level of pixels and struts detected. We have also extensively validated a method of non-rigid registration of OCT images using bitters matched by an expert on the source and target exams. The objective of this registration is to be able to compare cut-to-cut examinations and indices calculated at the same positions at different acquisition times. The reliability of the strain model was evaluated on a corpus of forty-four pairs of OCT exams from a Leave-One-Out cross validation technique.
28

Modélisation de la croissance de tumeurs cérébrales : application à la radiothérapie / Brain tumor growth modeling : application to radiotherapy

Lê, Matthieu 23 June 2016 (has links)
Les glioblastomes comptent parmi les cas les plus répandus et agressifs de tumeurs cérébrales. Ils sont généralement traités avec une combinaison de résection chirurgicale, suivie de chimiothérapie et radiothérapie. Cependant, le caractère infiltrant de la tumeur rend son traitement particulièrement délicat. La personnalisation de modèles biophysiques permet d’automatiser la mise au point de thérapies spécifiques au patient, en maximisant les chances de survie. Dans cette thèse nous nous sommes attachés à élaborer des outils permettant de personnaliser la radiothérapie des glioblastomes. Nous avons tout d’abord étudié l’impact de la prise en compte de l’œdème vasogénique. Notre étude rétrospective se fonde sur une base de donnée de patients traités avec un médicament anti-angiogénique, révélant a posteriori la présence de l’œdème. Ensuite, nous avons étudié le lien entre l’incertitude due à la segmentation de la tumeur et la distribution de la dose. Pour se faire, nous avons mis au point une méthode permettant d’échantillonner efficacement de multiples segmentations réalistes, à partir d’une unique segmentation clinique. De plus, nous avons personnalisé un modèle de croissance tumorale aux images IRM de sept patients. La méthode Bayésienne adoptée permet notamment d’estimer l’incertitude sur les paramètres personnalisés. Finalement, nous avons montré comment cette personnalisation permet de définir automatiquement la dose à prescrire au patient, en combinant le modèle de croissance tumoral avec un modèle de réponse à la dose délivrée. Les résultats prometteurs présentés ouvrent de nouvelles perspectives pour la personnalisation de la radiothérapie des tumeurs cérébrales. / Glioblastomas are among the most common and aggressive primary brain tumors. It is usually treated with a combination of surgical resection, followed with concurrent chemo- and radiotherapy. However, the infiltrative nature of the tumor makes its control particularly challenging. Biophysical model personalization allows one to automatically define patient specific therapy plans which maximize survival rates. In this thesis, we focused on the elaboration of tools to personalize radiotherapy planning. First, we studied the impact of taking into account the vasogenic edema into the planning. We studied a database of patients treated with anti-angiogenic drug, revealing a posteriori the presence of the edema. Second, we studied the relationship between the uncertainty in the tumor segmentation and dose distribution. For that, we present an approach in order to efficiently sample multiple plausible segmentations from a single expert one. Third, we personalized a tumor growth model to seven patients’ MR images. We used a Bayesian approach in order to estimate the uncertainty in the personalized parameters of the model. Finally, we showed how combining a personalized model of tumor growth with a dose response model could be used to automatically define patient specific dose distribution. The promising results of our approaches offer new perspectives for personalized therapy planning.
29

Medical Data Management on the cloud / Gestion de données médicales sur le cloud

Mohamad, Baraa 23 June 2015 (has links)
Résumé indisponible / Medical data management has become a real challenge due to the emergence of new imaging technologies providing high image resolutions.This thesis focuses in particular on the management of DICOM files. DICOM is one of the most important medical standards. DICOM files have special data format where one file may contain regular data, multimedia data and services. These files are extremely heterogeneous (the schema of a file cannot be predicted) and have large data sizes. The characteristics of DICOM files added to the requirements of medical data management in general – in term of availability and accessibility- have led us to construct our research question as follows:Is it possible to build a system that: (1) is highly available, (2) supports any medical images (different specialties, modalities and physicians’ practices), (3) enables to store extremely huge/ever increasing data, (4) provides expressive accesses and (5) is cost-effective .In order to answer this question we have built a hybrid (row-column) cloud-enabled storage system. The idea of this solution is to disperse DICOM attributes thoughtfully, depending on their characteristics, over both data layouts in a way that provides the best of row-oriented and column-oriented storage models in one system. All with exploiting the interesting features of the cloud that enables us to ensure the availability and portability of medical data. Storing data on such hybrid data layout opens the door for a second research question, how to process queries efficiently over this hybrid data storage with enabling new and more efficient query plansThe originality of our proposal comes from the fact that there is currently no system that stores data in such hybrid storage (i.e. an attribute is either on row-oriented database or on column-oriented one and a given query could interrogate both storage models at the same time) and studies query processing over it.The experimental prototypes implemented in this thesis show interesting results and opens the door for multiple optimizations and research questions.
30

Recalage de séquences cardiaques spation-temporelles IRM et TEP/SCAN

Bâty, Xavier 13 March 2007 (has links) (PDF)
Les travaux décrits dans ce manuscrit ont pour thème général le recalage de séquences d'images multimodales : Image par Résonance Magnétique (IRM), Tomographie par Émission de Positons (TEP) et images de scanner X (CT) synchronisées à l'électrocardiogramme (ECG). Ces modalités présentent un intérêt pour l'évaluation de la fonction cardiaque permettant un diagnostic et un suivi des pathologies cardio-vasculaires. La TEP permet d'évaluer la fonction ventriculaire et l'IRM est une méthode de référence pour l'étude de la fonction ventriculaire gauche. L'intérêt de ce recalage est de pouvoir fusionner des images fonctionnelles, apportées par la TEP étudiant la viabilité myocardique et des images anatomiques plus précises apportées par l'IRM. Le recalage de ces séquences d'images, nécessite la mise en place de méthodes adaptées aux modalités mises en jeu et se décompose en deux étapes distinctes : (i) un recalage global 3D rigide, entre les données IRM et CT, fondé sur une approche modèle et (ii) un recalage local 2D utilisant l'information mutuelle et une Free Form Deformation (FFD). Concernant la première étape, nous proposons l'utilisation de modèles cardiaques 3D définis sur les données IRM et CT et recalés par ICP. Le recalage local 2D fait l'objet de deux contributions. Afin de rendre l'information mutuelle sensible aux informations des données TEP et CT, nous proposons la création d'une image composite qui permet de rendre compte des contours du myocarde (visibles sur les images TEP) et de l'enveloppe totale du coeur (visible sur les images CT). Pour optimiser notre processus dans l'étude de la séquence complète des images, nous proposons une initialisation originale aux transformations utilisées en utilisant le champ de déplacement temporel issu des données IRM. L'ensemble des résultats obtenus a été évalué par un expert

Page generated in 0.0762 seconds