• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 70
  • 25
  • 11
  • Tagged with
  • 114
  • 55
  • 44
  • 36
  • 35
  • 31
  • 27
  • 25
  • 23
  • 22
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Towards an automated framework for coronary lesions detection and quantification in cardiac CT angiography / Vers un système automatisé pour la détection et la quantification des lésions coronaires dans des angiographies CT cardiaques

Melki, Imen 22 June 2015 (has links)
Les maladies coronariennes constituent l'ensemble des troubles affectant les artères coronaires. Elles sont la première cause mondiale de mortalité. Par conséquent, la détection précoce de ces maladies en utilisant des techniques peu invasives fournit un meilleur résultat thérapeutique, et permet de réduire les coûts et les risques liés à une approche interventionniste. Des études récentes ont montré que la tomodensitométrie peut être utilisée comme une alternative non invasive et fiable pour localiser et quantifier ces lésions. Cependant, l'analyse de ces examens, basée sur l'inspection des sections du vaisseau, reste une tâche longue et fastidieuse. Une haute précision est nécessaire, et donc seulement les cliniciens hautement expérimentés sont en mesure d'analyser et d'interpréter de telles données pour établir un diagnostic. Les outils informatiques sont essentiels pour réduire les temps de traitement et assurer la qualité du diagnostic. L'objectif de cette thèse est de fournir des outils automatisés de traitement d'angiographie CT, pour la visualisation et l'analyse des artères coronaires d'une manière non invasive. Ces outils permettent aux pathologistes de diagnostiquer et évaluer efficacement les risques associés aux maladies cardio-vasculaires tout en améliorant la qualité de l'évaluation d'un niveau purement qualitatif à un niveau quantitatif. Le premier objectif de ce travail est de concevoir, analyser et valider un ensemble d'algorithmes automatisés utiles pour la détection et la quantification de sténoses des artères coronaires. Nous proposons un nombre de techniques couvrant les différentes étapes de la chaîne de traitement vers une analyse entièrement automatisée des artères coronaires. Premièrement, nous présentons un algorithme dédié à l'extraction du cœur. L'approche extrait le cœur comme un seul objet, qui peut être utilisé comme un masque d'entrée pour l'extraction automatisée des coronaires. Ce travail élimine l'étape longue et fastidieuse de la segmentation manuelle du cœur et offre rapidement une vue claire des coronaires. Cette approche utilise un modèle géométrique du cœur ajusté aux données de l'image. La validation de l'approche sur un ensemble de 133 examens montre l'efficacité et la précision de cette approche. Deuxièmement, nous nous sommes intéressés au problème de la segmentation des coronaires. Dans ce contexte, nous avons conçu une nouvelle approche pour l'extraction de ces vaisseaux, qui combine ouvertures par chemin robustes et filtrage sur l'arbre des composantes connexes. L'approche a montré des résultats prometteurs sur un ensemble de 11 examens CT. Pour une détection et quantification robuste de la sténose, une segmentation précise de la lumière du vaisseau est cruciale. Par conséquent, nous avons consacré une partie de notre travail à l'amélioration de l'étape de segmentation de la lumière, basée sur des statistiques propres au vaisseau. La validation avec l'outil d'évaluation en ligne du challenge de Rotterdam sur la segmentation des coronaires, a montré que cette approche présente les mêmes performances que les techniques de l'état de l'art. Enfin, le cœur de cette thèse est consacré à la problématique de la détection et la quantification des sténoses. Deux approches sont conçues et évaluées en utilisant l'outil d'évaluation en ligne de l'équipe de Rotterdam. La première approche se base sur l'utilisation de la segmentation de la lumière avec des caractéristiques géométriques et d'intensité pour extraire les sténoses coronaires. La seconde utilise une approche basée sur l'apprentissage. Durant cette thèse, un prototype pour l'analyse automatisée des artères coronaires et la détection et quantification des sténoses a été développé. L'évaluation qualitative et quantitative sur différents bases d'examens cardiaques montre qu'il atteint le niveau de performances requis pour une utilisation clinique / Coronary heart diseases are the group of disorders that affect the coronary artery vessels. They are the world's leading cause of mortality. Therefore, early detection of these diseases using less invasive techniques provides better therapeutic outcome, as well as reduces costs and risks, compared to an interventionist approach. Recent studies showed that X-ray computed tomography (CT) may be used as an alternative to accurately locate and grade heart lesions in a non invasive way. However, analysis of cardiac CT exam for coronaries lesions inspection remains a tedious and time consuming task, as it is based on the manual analysis of the vessel cross sections. High accuracy is required, and thus only highly experienced clinicians are able to analyze and interpret the data for diagnosis. Computerized tools are critical to reduce processing time and ensure quality of diagnostics. The goal of this thesis is to provide automated coronaries analysis tools to help in non-invasive CT angiography examination. Such tools allow pathologists to efficiently diagnose and evaluate risks associated with CVDs, and to raise the quality of the assessment from a purely qualitative level to a quantitative level. The first objective of our work is to design, analyze and validate a set of automated algorithms for coronary arteries analysis with the final purpose of automated stenoses detection and quantification. We propose different algorithms covering different processing steps towards a fully automated analysis of the coronary arteries. Our contribution covers the three major blocks of the whole processing chain and deals with different image processing fields. First, we present an algorithm dedicated to heart volume extraction. The approach extracts the heart as one single object that can be used as an input masque for automated coronary arteries segmentation. This work eliminates the tedious and time consuming step of manual removing obscuring structures around the heart (lungs, ribs, sternum, liver...) and quickly provides a clear and well defined view of the coronaries. This approach uses a geometric model of the heart that is fitted and adapted to the image data. Quantitative and qualitative analysis of results obtained on a 114 exam database shows the efficiency and the accuracy of this approach. Second, we were interested to the problem of coronary arteries enhancement and segmentation. In this context, we first designed a novel approach for coronaries enhancement that combines robust path openings and component tree filtering. The approach showed promising results on a set of 11 CT exam compared to a Hessian based approach. For a robust stenoses detection and quantification, a precise and accurate lumen segmentation is crucial. Therefore, we have dedicated a part of our work to the improvement of lumen segmentation step based on vessel statistics. Validation on the Rotterdam Coronary Challenge showed that this approach provides state of the art performances. Finally, the major core of this thesis is dedicated to the issue of stenosis detection and quantification. Two different approaches are designed and evaluated using the Rotterdam online evaluation framework. The first approach get uses of the lumen segmentation with some geometric and intensity features to extract the coronary stenosis. The second is using a learning based approach for stenosis detection and stenosis. The second approach outperforms some of the state of the art works with reference to some metrics. This thesis results in a prototype for automated coronary arteries analysis and stenosis detection and quantification that meets the level of required performances for a clinical use. The prototype was qualitatively and quantitatively validated on different sets of cardiac CT exams
72

Reconstitution faciale par imagerie 3d : variabilité morphométrique et mise en oeuvre informatique

Guyomarc'h, Pierre 28 November 2011 (has links)
La reconstitution faciale a pour but de restituer le visage d’un individu à partir de la morphologie de son crâne. Cette technique est utilisée en anthropologie médico-légale pour apporter de nouveaux témoignages dans l’identification de restes humains. Les objectifs de thèse sont d’établir une base de données crânio-faciale 3D de Français grâce à l’imagerie médicale, de tester les règles traditionnelles de reconstitution, et de quantifier les corrélations morphologiques entre tissus osseux et cutanés. Des examens hospitaliers par scanner tomodensitométrique (18 – 96 ans ; sexe ratio 1,16:1) ont été traités avec le logiciel TIVMI pour reconstruire avec précision les surfaces osseuses et cutanées. Plus de 200 points de repère ont pu être positionnés sur 500 individus, en suivant un protocole précis (répétabilité et reproductibilité vérifiées). L’extraction de distances Euclidiennes a permis de tester plusieurs règles traditionnelles, et d’étudier la spécificité et la variabilité des épaisseurs de tissus mous. Parallèlement, les coordonnées 3D des points ont été analysées par morphométrie géométrique. Les covariations entre groupes de points osseux et cutanés ont pu être quantifiées, ainsi que les asymétries, allométries, et influences de l’âge et du sexe sur les variations de conformation. Ces résultats ont permis l’élaboration d’une méthode d’estimation de la position des points de repère du visage, et la création (en collaboration avec le LaBRI) d’un module de reconstitution faciale nommé AFA3D. Basé sur le principe de déformation d’un visage synthétique, ce logiciel restitue la forme la plus probable du visage en fonction de la position de 78 points crâniométriques. / Facial approximation aims at the production of a face based on the skull morphology. This technique is performed in forensic anthropology to bring new testimonies in cases of human remains identification. The goals of this research are to establish a database of French skulls and faces in 3D through medical imaging, to test traditional guidelines, and to quantify the morphological correlations between soft and hard tissues. Computed tomography exams, collected in French hospitals (18 – 96 years; sex ratio 1.16:1), were treated with TIVMI software to reconstruct accurately the bone and skin surfaces. More than 200 landmarks have been placed on 500 subjects, following a protocol which repeatability and reproducibility have been checked. The extraction of Euclidian distances allowed testing traditional guidelines, and studying specificity and variability of soft tissue depths. In parallel, the 3D coordinates were analyzed with geometric morphometrics. Covariations between groups of bone landmarks and groups of skin landmarks were quantified, along with asymmetry, allometry, and influences of age and sex on the shape changes. These results allowed for the creation of a method to estimate the position of skin landmarks, and for the development of a facial approximation module in TIVMI, called AFA3D (in collaboration with the LaBRI). Based on the warping of a synthetic face, this software renders the most probable face depending on the position of 78 cranial landmarks.
73

Validation de la ventilation pulmonaire par recalage déformable des images de tomodensitométrie 4D

Laplante, Caroline 08 1900 (has links)
L’évaluation de la fonction pulmonaire est important pour la réduction des complications radio-induites des traitements de radiothérapie. En effet, plus de 30% des patients souffriront de pneumonie des suites de leur traitement [1]. L’implantation de la fonction pulmonaire dans la planification de traitement pourrait limiter les complications médicales. La ventilation pulmonaire, l’une des deux métriques permettant de caractériser la fonction pulmonaire, est habituellement obtenue à partir de mesures SPECT. Cependant, cette méthode demande d’effectuer des acquisitions de mesure supplémentaires sur les patients. L’objectif de ce projet est de valider l’utilisation de CT 4D afin d’extraire la ventilation pulmonaire. La preuve de concept a été effectuée sur une cohorte de 25 patients atteints de cancer du poumon. Grâce à des recalages déformables effectués à l’aide du logiciel ANTs, la ventilation a été extraite. Les valeurs obtenues ont été comparées à celles déterminées à partir des données de SPECT, analysées par un logiciel clinique nommé Hermès. Une corrélation modérée a été observée, avec un coefficient de Pearson de r =0:59 avec p<0:05. Les valeurs de ventilation obtenues par CT 4D ont été validées par les coefficients de Dice (DC > 0:9), la distance de Hausdorff (HD < 2 mm), le positionnement de marqueurs anatomiques et les valeurs de jacobien des transformations. Des incertitudes provenant de l’acquisition de données et l’initialisation des paramètres des recalages déformables peuvent expliquer ces résultats. / The assessment of pulmonary functionality is of prime importance to avoid radioinduced complications after radiotherapy treatments of lung cancer. Indeed, more than 30% of patients will suffer from a radiation-induced pneumonia following the treatment [1]. Implementing functionality in treatment planning could limit the medical complications. The current community standard for measuring the ventilation - one of the two metrics concerning pulmonary functionality - is SPECT imaging. However, this method requires to perform additional image acquisitions on patients. The objective of this work is to validate an image analysis method that provides deformable image registration allowing us to estimate lung ventilation for each voxel with four-dimensional computed tomography imaging (4DCT). The proof of concept is performed on a cohort of 25 patients with lung cancer. Each patient is required to a 4DCT scan before their radiotherapy treatment. Those scans were processed retroactively with Advanced Normalized Tools (ANTs) registration to evaluate the lungs deformation between the respiratory maxima. A vector field representing the deformation is produced for all voxels. Local behavior is estimated by the Jacobian of those vector fields. The deformation allows us to estimate the lung capacity to contain air, which can be linked to the ventilation. We showed that the values obtained with the 4DCT method are moderately correlated with those obtained by SPECT (r = 0:59; p < 0:05).Those results were validated using Dice coefficients (DC > 0:9), Hausdorff distance (HD < 2 mm) and targets registration error. The results of the lung ventilation obtained by 4DCT and with SPECT scans are moderately correlated. The uncertainties pertaining to data acquisition and deformable registration initialization might explain those differences.
74

Développement et validation de biomarqueurs quantitatifs d'imagerie cardiaque : association entre structure et fonction myocardique / Implementation and validation of quantitative biomarkers of cardiac imaging : association between structure and function

Lamy, Jérôme 24 April 2018 (has links)
Les maladies cardiovasculaires, qui restent l’une des premières causes de mortalité dans le monde, sont le résultat d’altérations interdépendantes de la structure et de la fonction cardiaque couplées aux effets aggravants des maladies métaboliques, du vieillissement et du mode de vie. Dans ce contexte, l’objectif de ma thèse est de proposer et de valider de nouveaux biomarqueurs quantitatifs en imagerie cardiaque, robustes et rapides, pour l’étude de la fonction et de la structure myocardiques ainsi que de leurs liens. Un premier travail a été consacré au développement d’une méthode d’évaluation de la fonction cardiaque, plus précisément de la cinétique de déformation du myocarde sur toutes les cavités cardiaques à partir d’images standards d’IRM ciné. La méthode développée s’est montrée reproductible avec une capacité diagnostique supérieure aux indices cliniques conventionnels. Elle était aussi capable de détecter des altérations cardiaques infra-cliniques liées à l’âge. Le second travail présenté est le développement d’une méthode de quantification de la graisse atriale, à partir d’images de scanner tomodensitométrique, suivi de son évaluation sur une cohorte de sujets sains et de sujets atteints de fibrillation atriale. Finalement, l’interaction entre les paramètres myocardiques structurels et fonctionnels a été étudiée au travers de la première validation chez l’homme de la littérature IRM de la fonction de déformation cardiaque, évaluée avec notre méthode, face à la quantification histologique du substrat tissulaire « graisse-fibrose ». / Cardiovascular diseases, which are still one of the leading causes of death worldwide, are the result of interdependent alterations of the heart structure and function coupled with the aggravating effects of metabolic diseases, aging and lifestyle. In this context, the goal of my thesis is to design and validate new, robust and fast cardiac imaging quantitative biomarkers to characterize myocardial function and structure as well as their relationships. A first work was focused on the development of a method to evaluate cardiac function, specifically myocardial deformation kinetics on all cardiac chambers from standard cine MRI images. The designed method was reproducible and its diagnostic ability was superior to conventional clinical indices. It was also able to detect subclinical age-related heart alterations. The aims of the second study were to develop a method for atrial fat quantification, based on CT images, and to evaluate it on a cohort of healthy subjects and patients with atrial fibrillation. Finally, the interaction between structural and functional myocardial indices was studied through the first in vivo validation in the MRI literature of cardiac deformation function, evaluated using our method, against histological quantification of the “fibro-fatty” tissue substrate.
75

Évaluation de l'effet de la radiothérapie sur la fonction pulmonaire avec la tomodensitométrie à double-énergie

Zhang, Shen 04 1900 (has links)
La radiothérapie est une modalité importante dans le traitement de néoplasie telle que le cancer pulmonaire. Cependant, les poumons sont susceptibles à des toxicités radio-induites comme la pneumonie radique et la fibrose pulmonaire radique. Plusieurs patients souffrant du cancer pulmonaire ont aussi des comorbidités tel la maladie obstructive pulmonaire chronique, qui affecte déjà leur fonction respiratoire. Actuellement, la planification de la radiothérapie tient compte de l’anatomie mais non de la fonction différentielle des poumons. La planification de la radiothérapie guidée par la fonction aurait pour but d’inclure cette fonction différentielle dans le processus de planification, évitant l’irradiation du parenchyme sain et améliorant le profil de toxicités du traitement. Différentes techniques d’imagerie fonctionnelle sont présentement à l’étude. La tomodensitométrie à double-énergie (DECT, dual-energy computed tomography) est une technique qui utilises des rayons-X d’énergie différente, permettant une meilleure différentiation du matériel. L’article présenté dans ce mémoire étudie une technique préalablement décrite de décomposition de matériaux qui utilise des cartographies d’iodine dérivées des images de DECT avec contraste. Nous avons réalisé une étude longitudinale de la perfusion pulmonaire, un indicateur de la fonction respiratoire. Des patients avec un cancer pulmonaire traités avec radiothérapie stéréotaxique ou conventionnelle ont été recrutés de façon prospective et ont eu un DECT avec contraste avant le début des traitements et 6 et 12 mois post-traitement. Des réponses fonctionnelles normalisées ont été calculées à 6 et 12 mois pour 3 catégories de dose d’irradiation : moins de 5 Gray, 5-20 Gray et plus de 20 Gray. Aux analyses statistiques, nous avons observé une corrélation de cette réponse avec la dose de radiation reçue. Les régions qui ont reçu le plus de dose ont démontré une plus grande baisse de fonction. La réponse fonctionnelle normalisée est également corrélée avec le temps écoulé post-radiothérapie. Nous avons conclu que la cartographie d’iodine dérivée du DECT permet d’évaluer l’effet de la dose de radiation sur les changements fonctionnels du parenchyme pulmonaire post-radiothérapie. Ainsi, le DECT permet d'évaluer les changements de fonction pulmonaire post-radiothérapie et pourrait être utilisé pour évaluer les dommages post-radiques. / Radiotherapy is an important modality in the treatment of malignancies such as lung cancer. However, the lungs are susceptible to radiation-induced lung injury such as radiation pneumonitis and radiation fibrosis. In addition, many lung cancer patients also suffer from comorbidities such as chronic obstructive lung disease, which affect their baseline respiratory function. Current standard of care for radiotherapy planning considers the anatomy but not the differential function of the lungs. Function-guided radiotherapy planning would seek to include the differential function of the lungs, avoiding the irradiation of healthy parenchyma, therefore improving the toxicity profile of the treatment. Currently, different functional imaging techniques are being studied for this purpose. Dual-energy computed tomography (DECT) is a technique which uses two X-rays of different energy, allowing improved material differentiation. The article presented in this thesis studies the use of a previously described 2-material decomposition technique using iodine maps derived from contrast-enhanced DECT images. This allows for the longitudinal evaluation of lung perfusion, a surrogate for respiratory function. Lung cancer patients who were treated with stereotactic radiotherapy or conventional radiotherapy were prospectively enrolled and underwent a contrast-enhanced DECT before the treatment and at 6 and 12 months post-treatment. Normalized functional responses were calculated at 6 and 12 months for three dose ranges: less than 5 Gray, 5-20 Gray and more than 20 Gray. This normalized functional response was found to correlate with the dose received. The regions receiving the most radiation dose demonstrate the greatest decrease in function. It was also found be correlated with the time elapsed after radiotherapy. We concluded that DECT-derived iodine maps can be used to evaluate the dose-response effect of radiation on lungs. DECT can therefore be an interesting technique to study post-treatment pulmonary parenchymal changes and can be used to assess post-radiation damage.
76

Estimation du volume de glace et imagerie 3D des cryostructures de pergélisol par tomodensitométrie

Darey, Jonas 01 1900 (has links)
Ce mémoire a pour objectif de mieux comprendre la tomodensitométrie par rayons-x appliquée à la géocryologie. La majorité des études ayant pour but d’analyser le pergélisol en utilisant la tomodensitométrie sont qualitative. De ce fait, il est principalement question de décrire les cryostructures et la disposition géométrique de la glace dans le pergélisol. Il existe peu d’études quantitatives où le volume de glace est estimé avec la tomodensitométrie. De ce fait les méthodologies quantitatives sont peu développées et leur degré de confiance est mal connu. Des échantillons de pergélisol ont été scannés puis analysés avec le logiciel de visualisation Dragonfly©. Une méthode d’analyse quantitative a été développée et combinée à des mesures en laboratoire afin de déterminer l’erreur entre la proportion en glace estimée sur les Ct-Scans et celle mesurée sur l’échantillon physique. Ensuite, une équation pour essayer de corriger cette erreur a été appliquée. Celle-ci a été déterminée à partir de comparaisons des estimations des volumes de glace sur les Ct-Scans et leurs valeurs mesurées en laboratoire. Ces comparaisons ont également permis d’estimer la quantité de matière organique présente dans un échantillon. Les cryostructures du pergélisol ont été modélisées en 3D. Cela a permis de bonifier la classification Nord-Américaine établie par Murton et French en 1994 et de quantifier les volumes respectifs de glace et de sédiments. / This thesis aims to better understand x-ray computed tomography in geosciences and more particularly its use with frozen ground science. Most studies in permafrost science using x-ray computed tomography were qualitative. Therefore, they mainly describe the permafrost cryostructures and the geometric arrangement of the ice in permafrost. There were few quantitative studies where the volumetric ice content of permafrost was estimated with Ct-Scans. As a result, quantitative methodologies are poorly developed, and their degree of confidence is also poorly assessed. Samples from different locations in the Canadian Arctic were scanned and analyzed using Dragonfly©, a visualization software. A quantitative analysis method has been developed and combined with laboratory measurements to calculate the error between the proportion of ice estimated on the Ct-Scans and the one measured on the physical sample. A correction method was developed and applied to the Ct-scans dataset to reduce the error in volumetric ice content estimations. This equation also allows to give an estimation of the organic matter proportion inside a sample. The permafrost cryostructures were modeled in 3D. This improved the visualization of the cryostructures of the North American classification established by Murton and French in 1994, and it allowed to quantify their volumetric ice and sediment contents.
77

Rôle de la tomodensitométrie à double énergie/double source pour la personnalisation des traitements de radiothérapie

Bahig, Houda 09 1900 (has links)
No description available.
78

Masses kystiques latérales du cou : une analyse comparative des approches diagnostiques

Tabet, Paul 08 1900 (has links)
Les masses kystiques latérales du cou (MKLC) bénignes et malignes sont difficiles à différencier cliniquement. L’utilité des modalités d’imagerie et de prélèvement doit être clarifiée. Une revue rétrospective de cas entre 2010 et 2016. Les données d’imagerie ont été récoltées et plusieurs variables propres à la masse furent analysées. Les rapports de cytoponction à l’aiguille fine (CAAF), de la biopsie au trocart (BT) et des examens extemporanés (EE) ont été analysés. La sensibilité, la spécificité, la valeur prédictive positive (VPP) et la valeur prédictive négative (VPN) pour prédire la malignité ont été calculées pour toutes les variables comparées entre les masses kystiques bénignes et malignes. Aucune variable d’imagerie n’a pu différencier les masses kystiques bénignes de malignes. La sensibilité de la CAAF est plus basse que celle de la BT (59% vs 83%; p=0.036) et de l’EE (59% vs 93%; p=0.01). L’EE a une meilleure VPN que la CAAF (92% vs 40%; p<0.001) et que la BT (92% vs 50%; p=0.062). La VPP et la spécificité étaient similaires dans tous les groupes. Les cliniciens ne peuvent pas se fier uniquement à l’imagerie pour différencier les masses bénignes des masses malignes. Vu sa VPP adéquate (92%), la CAAF devrait être utilisée initialement pour tous les patients avec une MKLC. Si la CAAF s’avère négative, la BT devrait être utilisée vu sa meilleure sensibilité. Un examen extemporané devrait toujours suivre une BT négative vu la faible VPN de la BT. Un résultat positif à l’une des trois modalités de prélèvement indique la présence de malignité. / Benign and malignant lateral cystic neck masses (LCNM) are difficult to distinguish clinically. The usefulness of imaging and sampling modalities in clarifying the diagnosis remains unclear. Retrospective review of cases between 2010 and 2016. Imaging data was reviewed and the variables pertaining to the mass were assessed including the following: size, nodal level, fat stranding, extracapsular spread, calcifications, vascularity, necrosis and standardized uptake value. Sampling reports of fine-needle aspiration (FNA), core-needle biopsy (CNB) and frozen section (FS) were also assessed. Sensitivity, specificity, positive predictive value (PPV) and negative predictive value (NPV) for predicting malignancy were calculated for all variables and compared between benign and malignant cystic neck masses. Ultrasound was used in 47.2% and CT-Scan in 90.5% of patients. No variables on imaging could definitely differentiate benign from malignant LCNM. FNA had a lower sensitivity then CNB (59% vs 83%; p=0.036) and FS (59% vs 93%; p=0.01). FS had a better NPV when compared to FNA (92% vs 40%; p<0.001) and CNB (92% vs 50%; p=0.062). Specificities and PPV were similar among all groups. Clinicians cannot rely on imaging to differentiate benign from malignant LCNM. Given its adequate PPV (92%), FNA should be used initially on lateral cystic neck masses. Because of its high sensitivity, CNB should be considered if FNA is not diagnostic of malignancy. FS should always follow a CNB not indicative of malignancy, because of the low NPV. Any result diagnostic of malignancy on either FNA, CNB or FS strongly indicates presence of malignancy.
79

Plateforme numérique de tomodensitométrie et ses applications en radiothérapie

Delisle, Étienne 04 1900 (has links)
Les quantités physiques des tissus imagés par tomodensitométrie peuvent être calculées à l’aide d’algorithmes de caractérisation de tissus. Le développement de nouvelles technologies d’imagerie par tomodensitométrie spectrale a stimulé le domaine de la caractérisation de tissus à un point tel qu’il est maintenant difficile de comparer les performances des multiples algorithmes de caractérisation de tissus publiés dans les dernières années. De même, la difficulté à comparer les performances des algorithmes de caractérisation de tissus rend leur utilisation dans des projets de recherche clinique difficile. Ce projet a comme but de créer un environnement de simulation robuste et fidèle à la réalité dans lequel des techniques de caractérisation de tissus pourront être développées et comparées. De plus, la librairie de calcul servira comme tremplin pour facilement appliquer des méthodes de caractérisation de tissus dans des collaborations cliniques. En particulier, une des méthodes de caractérisation de tissus incluse dans la librairie de calcul sera appliquée sur des données cliniques pour produire des cartes de concentration d’iode dans le cadre d’un projet de recherche sur la récurrence de cancers otorhinolaryngologiques. De surcroît, deux autres techniques de caractérisation de tissus et un algorithme de correction d’artefacts de durcissement de faisceau seront implémentés dans la librairie de calcul scientifique. Conjointement, un module pour la simulation de patients virtuels sera dévelopé et intégré à la librairie de calcul. / The physical quantities of tissues imaged by computed tomography can be calculated using tissue characterization algorithms. The development of new spectral computed tomography scanners stimulated the field of tissue characterization to such an extent that it is now difficult to compare the performances of the multiple tissue characterization algorithms available in the literature. In addition, the difficulty in comparing the tissue characterization algorithms’ performances makes it difficult to include them in clinical research projects. The goal of this project is to create a robust and physically accurate simulation environment in which tissue characterization algorithms can be developed and compared. Furthermore, the scientific computing library will serve as a springboard to easily apply tissue characterization methods in clinical collaborations. In particular, one of the tissue characterization methods included in the scientific computing library will be applied on clinical data to produce iodine concentration maps for a clinical research project on head and neck cancer recurrence. Moreover, two additional tissue characterization algorithms and a technique for the correction of beam hardening artefacts will be implemented in the scientific computing library. Coincidentally, the virtual patient simulation environment will be developed.
80

Abdominal aortic aneurysm follow-up after endovascular repair in a canine model with non-invasive vascular elastography

Salloum, Elie 11 1900 (has links)
Le traitement chirurgical des anévrismes de l'aorte abdominale est de plus en plus remplacé par la réparation endovasculaire de l’anévrisme (« endovascular aneurysm repair », EVAR) en utilisant des endoprothèses (« stent-grafts », SGs). Cependant, l'efficacité de cette approche moins invasive est compromise par l'incidence de l'écoulement persistant dans l'anévrisme, appelé endofuites menant à une rupture d'anévrisme si elle n'est pas détectée. Par conséquent, une surveillance de longue durée par tomodensitométrie sur une base annuelle est nécessaire ce qui augmente le coût de la procédure EVAR, exposant le patient à un rayonnement ionisants et un agent de contraste néphrotoxique. Le mécanisme de rupture d'anévrisme secondaire à l'endofuite est lié à une pression du sac de l'anévrisme proche de la pression systémique. Il existe une relation entre la contraction ou l'expansion du sac et la pressurisation du sac. La pressurisation résiduelle de l'anévrisme aortique abdominale va induire une pulsation et une circulation sanguine à l'intérieur du sac empêchant ainsi la thrombose du sac et la guérison de l'anévrisme. L'élastographie vasculaire non-invasive (« non-invasive vascular elastography », NIVE) utilisant le « Lagrangian Speckle Model Estimator » (LSME) peut devenir une technique d'imagerie complémentaire pour le suivi des anévrismes après réparation endovasculaire. NIVE a la capacité de fournir des informations importantes sur l'organisation d'un thrombus dans le sac de l'anévrisme et sur la détection des endofuites. La caractérisation de l'organisation d'un thrombus n'a pas été possible dans une étude NIVE précédente. Une limitation de cette étude était l'absence d'examen tomodensitométrique comme étalon-or pour le diagnostic d'endofuites. Nous avons cherché à appliquer et optimiser la technique NIVE pour le suivi des anévrismes de l'aorte abdominale (AAA) après EVAR avec endoprothèse dans un modèle canin dans le but de détecter et caractériser les endofuites et l'organisation du thrombus. Des SGs ont été implantés dans un groupe de 18 chiens avec un anévrisme créé dans l'aorte abdominale. Des endofuites de type I ont été créés dans 4 anévrismes, de type II dans 13 anévrismes tandis qu’un anévrisme n’avait aucune endofuite. L'échographie Doppler (« Doppler ultrasound », DUS) et les examens NIVE ont été réalisés avant puis à 1 semaine, 1 mois, 3 mois et 6 mois après l’EVAR. Une angiographie, une tomodensitométrie et des coupes macroscopiques ont été réalisées au moment du sacrifice. Les valeurs de contrainte ont été calculées en utilisant l`algorithme LSME. Les régions d'endofuite, de thrombus frais (non organisé) et de thrombus solide (organisé) ont été identifiées et segmentées en comparant les résultats de la tomodensitométrie et de l’étude macroscopique. Les valeurs de contrainte dans les zones avec endofuite, thrombus frais et organisé ont été comparées. Les valeurs de contrainte étaient significativement différentes entre les zones d'endofuites, les zones de thrombus frais ou organisé et entre les zones de thrombus frais et organisé. Toutes les endofuites ont été clairement caractérisées par les examens d'élastographie. Aucune corrélation n'a été trouvée entre les valeurs de contrainte et le type d'endofuite, la pression de sac, la taille des endofuites et la taille de l'anévrisme. / Surgical treatment of abdominal aortic aneurysms is increasingly being replaced by EVAR using SGs. However, the efficacy of this less invasive approach is jeopardized by the incidence of persistent flow within the aneurysm, called endoleaks leading to aneurysm rupture if not properly detected. Hence, a life-long surveillance by computed tomography (CT) angiography on an annual basis is increasing the cost of EVAR, exposing the patient to ionizing radiation and nephrotoxic contrast agent. The mechanism of aneurysm rupture secondary to endoleak is related to a pressurization of the aneurysm sac close to the systemic pressure. There is a relation between sac shrinkage or expansion and sac pressurization. The residual pressurization of AAA will induce sac pulsatility and blood circulation in the sac thus preventing sac thrombosis and aneurysm healing. NIVE using the LSME may become a complementary follow-up imaging technique for EVAR. NIVE has the capability of providing important information on the thrombus organization within the aneurysm sac and on the detection of endoleaks. The characterization of the thrombus organization was not possible in a previous NIVE study. A limitation was the absence of CT examinations as gold standard for endoleak diagnosis. In the current study, we aimed to apply and optimize NIVE of AAA after EVAR with SG in a canine model to detect endoleaks and characterize thrombus organization. SGs were implanted in a group of 18 dogs with an aneurysm created in the abdominal aorta. Type I endoleak was created in 4 aneurysms, type II in 13 aneurysms and no endoleak in 1 aneurysm. DUS and NIVE examinations were performed at baseline, 1-week, 1-month, 3-month and 6-month follow-up after EVAR. Angiography, CT-scan and macroscopic tissue slides were performed at sacrifice. Strain values were computed using the LSME. Areas of endoleak, solid thrombus (organized) and fresh thrombus (non-organized) were identified and segmented by comparing the results of CT scan and macroscopic tissue slides. Strain values in areas with endoleak, organized and fresh thrombi were compared. Strain values were significantly different between endoleak and organized or fresh thrombus areas and between organized and fresh thrombus areas. All endoleaks were clearly characterized on elastography examinations. No correlation was found between strain values and type of endoleak, sac pressure, endoleak size and aneurysm size.

Page generated in 0.0734 seconds