• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 162
  • 82
  • 17
  • Tagged with
  • 261
  • 108
  • 83
  • 74
  • 67
  • 64
  • 57
  • 55
  • 53
  • 47
  • 43
  • 41
  • 39
  • 32
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Image Formation from a Large Sequence of RAW Images : performance and accuracy / Formation d’image à partir d’une grande séquence d’images RAW : performance et précision

Briand, Thibaud 13 November 2018 (has links)
Le but de cette thèse est de construire une image couleur de haute qualité, contenant un faible niveau de bruit et d'aliasing, à partir d'une grande séquence (e.g. des centaines) d'images RAW prises avec un appareil photo grand public. C’est un problème complexe nécessitant d'effectuer à la volée du dématriçage, du débruitage et de la super-résolution. Les algorithmes existants produisent des images de haute qualité, mais le nombre d'images d'entrée est limité par des coûts de calcul et de mémoire importants. Dans cette thèse, nous proposons un algorithme de fusion d'images qui les traite séquentiellement de sorte que le coût mémoire ne dépend que de la taille de l'image de sortie. Après un pré-traitement, les images mosaïquées sont recalées en utilisant une méthode en deux étapes que nous introduisons. Ensuite, une image couleur est calculée par accumulation des données irrégulièrement échantillonnées en utilisant une régression à noyau classique. Enfin, le flou introduit est supprimé en appliquant l'inverse du filtre équivalent asymptotique correspondant (que nous introduisons). Nous évaluons la performance et la précision de chaque étape de notre algorithme sur des données synthétiques et réelles. Nous montrons que pour une grande séquence d'images, notre méthode augmente avec succès la résolution et le bruit résiduel diminue comme prévu. Nos résultats sont similaires à des méthodes plus lentes et plus gourmandes en mémoire. Comme la génération de données nécessite une méthode d'interpolation, nous étudions également les méthodes d'interpolation par polynôme trigonométrique et B-spline. Nous déduisons de cette étude de nouvelles méthodes d'interpolation affinées / The aim of this thesis is to build a high-quality color image, containing a low level of noise and aliasing, from a large sequence (e.g. hundreds or thousands) of RAW images taken with a consumer camera. This is a challenging issue requiring to perform on the fly demosaicking, denoising and super-resolution. Existing algorithms produce high-quality images but the number of input images is limited by severe computational and memory costs. In this thesis we propose an image fusion algorithm that processes the images sequentially so that the memory cost only depends on the size of the output image. After a preprocessing step, the mosaicked (or CFA) images are aligned in a common system of coordinates using a two-step registration method that we introduce. Then, a color image is computed by accumulation of the irregularly sampled data using classical kernel regression. Finally, the blur introduced is removed by applying the inverse of the corresponding asymptotic equivalent filter (that we introduce).We evaluate the performance and the accuracy of each step of our algorithm on synthetic and real data. We find that for a large sequence of RAW images, our method successfully performs super-resolution and the residual noise decreases as expected. We obtained results similar to those obtained by slower and memory greedy methods. As generating synthetic data requires an interpolation method, we also study in detail the trigonometric polynomial and B-spline interpolation methods. We derive from this study new fine-tuned interpolation methods
112

Méthode de mise en correspondance tridimensionnelle entre des coupes IRM de la prostate et les coupes histologiques des pièces de prostatectomie / 3D registration of prostate histology slices with MR images

Hugues, Cécilia 27 May 2013 (has links)
Le cancer de la prostate est le cancer le plus fréquent chez l'homme en Europe, néanmoins il n'existe actuellement pas de technique d'imagerie permettant de détecter avec précision les tumeurs dans la glande. Sachant que les coupes histologiques contiennent la réalité de terrain concernant le diagnostic, il est nécessaire de recaler les images de chaque technique d'imagerie aux coupes histologiques afin de pouvoir les évaluer. De plus, comme il n'existe pas de méthode permettant de contrôler précisément le plan de coupe histologique, le recalage doit être considéré comme un problème 3D. Un dispositif permettant de réaliser, de manière rapide et standardisée, des marqueurs internes dans les coupes histologiques a été développé, de même qu'un algorithme permettant de détecter automatiquement ces marqueurs, de les identifier et d'aligner les coupes histologiques. La méthode a été testée sur 10 prostates, avec en moyenne 19.2 coupes par prostate, et a permis d'obtenir une précision de recalage moyenne de 0.18 ± 0.13 mm au niveau des marqueurs. Un deuxième algorithme a été développé pour recaler les coupes histologiques, une fois alignées, avec les images IRM. Ce recalage a été conçu pour être guidé par les canaux éjaculateurs, un repère anatomique présent dans chaque prostate et visible à la fois en histologie et dans les images IRM cliniques, acquises avec une résolution standard. L'algorithme a d'abord été testé en s'appuyant sur les marqueurs artificiels. La précision obtenue pour le recalage était en moyenne de 0.45±0.25 mm au niveau des marqueurs et de 1.04 ± 0.21 mm au niveau des canaux éjaculateurs. L'algorithme a enfin été testé en guidant le recalage à l'aide de la position des canaux éjaculateurs. La précision moyenne obtenue était alors de 0.16±0.05 mm au niveau des canaux éjaculateurs et de 2.82±0.41 mm au niveau des marqueurs. Ces résultats suggèrent une valeur du facteur de rétrécissement de l'ordre de 1.07±0.03 et une inclinaison vis à vis du plan de coupe histologique de l'ordre de 13.6◦ ± 9.61◦, avec une variance importante pour ces deux paramètres / Prostate cancer is the most frequently diagnosed cancer of men in Europe, yet no current imaging technique is capable of detecting with precision tumours in the prostate. The histology slices are the gold standard for the diagnosis. Therefore, in order to evaluate each imaging technique, the histology slices must be precisely registered to the imaged data. As it cannot be assumed that the histology slices are cut along the same plane as the imaged data is acquired, the registration must be considered as a 3D problem. An apparatus has been developed that enables internal fiducial markers to be created in the histology slices in a rapid and standardised manner. An algorithm has been developed that automatically detects and identifies these markers, enabling the alignment of the histology slices. The method has been tested on 10 prostate specimens, with 19.2 slices on average per specimen. The accuracy of the alignment at the fiducial markers was on average 0.18±0.13 mm. A second algorithm was developed to 3D register the aligned histology slices with the MR images. The registration is designed to be guided by the ejaculatory ducts, an anatomical landmark present in every prostate and visible in both histology and MR images acquired at standard clinical resolution. The algorithm was first tested by using the fiducial needles to guide the registration. The average registration accuracy was 0.45 ± 0.25 mm at the fiducial needles and 1.04±0.21 mm at the ejaculatory ducts. The algorithm was then tested by using the ejaculatory ducts to guide the registration. The average registration accuracy was 0.16±0.05 mm at the ejaculatory ducts and 2.82 ± 0.41 mm at the fiducial needles. The results suggest that the histology shrinkage factor is of the order 1.07±0.03 and the tilt of the histology slicing plane is 13.6◦ ±9.61◦, with both parameters showing significant variance
113

Prédiction du risque de récidive du cancer de prostate à partir d'une caractérisation multimodale / Prediction of prostate cancer recurrence based on a multimodal characterization

Mathieu, Romain 28 June 2017 (has links)
Objectifs: Notre travail avait pour objectif la prédiction du risque de récidive du cancer de prostate localisé à partir d’une caractérisation multimodale de ce cancer comprenant des facteurs anatomopathologiques, des biomarqueurs tissulaires et des paramètres quantitatifs originaux issus de l’IRM pré-thérapeutique, ainsi que l'élaboration d'une méthodologie pour l'évaluation des corrélations existantes entre ces différents facteurs. Matériel et méthodes : La valeur pronostique de la nouvelle classification ISUP, de l'infiltration lympho-vasculaire, de l'expression des marqueurs Ki67, Survivin et Caveolin-1 a été évaluée sur de larges cohortes multicentriques de patients avec cancer de prostate traité par prostatectomie radicale, en analyse multivariée avec calcul des C-index correspondants. L'intérêt, notamment pronostique, de la radiomique, correspondant à l'extraction et l'étude de caractéristiques quantitatives d'imagerie, a été évalué dans le cancer de prostate par une revue systématique de la littérature. L'intérêt de descripteurs texturaux issus de l'IRM pour la prédiction du risque de récidive biologique a été évalué dans une cohorte monocentrique de patients traités par radiothérapie externe. Dans une étude préliminaire basée sur 8 patients, une méthodologie a été proposée pour la reconstruction 3D de la pièce de prostatectomie et son recalage avec l'imagerie pré-opératoire. Ce travail a alors permis une mise en correspondance des données biologiques tumorales et les données quantitatives de l'imagerie. Des classifieurs pour l'identification et la caractérisation tumorale ont été construits et validés. Résultats : Nos travaux ont confirmé que la nouvelle classification ISUP, l'infiltration lymphovasculaire, et l'expression de Ki-67, Survivin, et Caveolin-1 sur la pièce de prostatectomie étaient associées à des caractéristiques pathologiques défavorables dans le CaP et au risque de récidive biologique après prostatectomie radicale. Cependant, leurs valeurs pronostiques sont limitées comparé aux facteurs pronostiques standards. La radiomique est un domaine prometteur pour l'identification et la caractérisation tumorale dans le CaP mais son intérêt pronostique reste à démontrer. Nos travaux confirment sa valeur pronostique pour les patients traités par radiothérapie externe. Avec une erreur moyenne de recalage de 5 mm, notre méthodologie de recalage nous a ensuite permis de proposer une mise en correspondance des données biologiques tumorales basées sur le score de Gleason et l'expression de marqueurs tissulaires. Cette mise en correspondance a permis l'élaboration de classifieurs permettant de prédire la présence de tumeurs et estimer leur score de Gleason avec des résultats satisfaisants. L'évaluation de l'expression immunohistochimique de marqueurs tissulaires reste limitée. Conclusion : Ces travaux confirment la valeur pronostique de marqueurs issus de l'étude quantitative de l'imagerie pré-opératoire, ainsi que de l'analyse anatomopathologique et immunohistochimique de la pièce de prostatectomie. Une méthodologie de mise en correspondance et de corrélation de ces différents marqueurs a été proposée avec des résultats préliminaires justifiant la poursuite des travaux sur une cohorte de patients plus importante. / Objective: The aim of this work was the prediction of prostate cancer recurrence based on a multimodal characterization of this cancer including pathological markers, tissue biomarkers, and quantitative parameters from Magnetic Resonance Imaging (MRI), and to propose a method to assess correlations between these factors. Material and methods: The prognostic values of the new ISUP groups, the lymphovascular invasion, the expressions of Ki67, Survivin et Caveolin-1 were assessed in large multicentric and international cohorts of patients with prostate cancer treated with radical prostatectomy. A review of the literature investigated the use and the performance of radiomics and texture analysis to predict prostate cancer recurrence. The prognostic value of MRI features including Haralick’s texture features to predict biochemical recurrence after prostate cancer radiotherapy was assessed in a retrospective cohort of 83 patients. In a preliminary study including eight patients, a method to correlate in-vivo observations from pre-operative imaging with biological findings from radical prostatectomy using quantitative analysis was proposed. Résultats: Our studies confirmed the new ISUP groups, the lymphovascular invasion, the expressions of Ki67, Survivin and Caveolin-1 were associated with adverse pathologic features and prostate cancer recurrence after radical prostatectomy. However, these factors did not add clinically relevant information to established models. Our review of the literature revealed radiomics was promising for tumor identification and characterization but that few studies assessed its prognostic value. We demonstrated T2-w Haralick’s features were predictors of biochemical recurrence after prostate cancer radiotherapy. With a mean error of 4.90mm, our method to register prostate whole mount histology to in-vivo MRI resulted in the construction of classifiers to predict the presence of tumor, Gleason score, and Ki67 expression. Conclusion : Our work confirm the prognostic value of different markers from tissue, pathological pre-operative imaging analyses. Our method of registration and correlation of these markers leads to promising preliminary results that justify further evaluation with larger cohorts of patients.
114

Vision nocturne numérique : restauration automatique et recalage multimodal des images à bas niveau de lumière / Numerical night vision system : Automatic restoration and multimodal registration of low light level images

Sutour, Camille 10 July 2015 (has links)
La vision de nuit des pilotes d’hélicoptère est artificiellement assistée par un dispositif de vision bas niveau de lumière constitué d’un intensificateur de lumière (IL) couplé à une caméra numérique d’une part, et d’une caméra infrarouge (IR) d’autre part. L’objectif de cette thèse est d’améliorer ce dispositif en ciblant les défauts afin de les corriger.Une première partie consiste à réduire le bruit dont souffrent les images IL. Cela nécessite d’évaluer la nature du bruit qui corrompt ces images. Pour cela, une méthode d’estimation automatique du bruit est mise en place. L’estimation repose sur la détection non paramétrique de zones homogènes de l’image. Les statistiques du bruit peuvent être alors être estimées à partir de ces régions homogènes à l’aide d’une méthode d’estimation robuste de la fonction de niveau de bruit par minimisation l1.Grâce à l’estimation du bruit, les images IL peuvent alors débruitées. Nous avons pour cela développé dans la seconde partie un algorithme de débruitage d’images qui associe les moyennes non locales aux méthodes variationnelles en effectuant une régularisation adaptative pondérée parune attache aux données non locale. Une adaptation au débruitage de séquences d’images permet ensuite de tenir compte de la redondance d’information apportée par le flux vidéo, en garantissant stabilité temporelle et préservation des structures fines.Enfin, dans la troisième partie les informations issues des capteurs optique et infrarouge sont recalées dans un même référentiel. Nous proposons pour cela un critère de recalage multimodal basé sur l’alignement des contours des images. Combiné à une résolution par montée de gradient et à un schéma temporel, l’approche proposée permet de recaler de façon robuste les deuxmodalités, en vue d’une ultérieure fusion. / Night vision for helicopter pilots is artificially enhanced by a night vision system. It consists in a light intensifier (LI) coupled with a numerical camera, and an infrared camera. The goal of this thesis is to improve this device by analyzing the defaults in order to correct them.The first part consists in reducing the noise level on the LI images. This requires to evaluate the nature of the noise corrupting these images, so an automatic noise estimation method has been developed. The estimation is based on a non parametric detection of homogeneous areas.Then the noise statistics are estimated using these homogeneous regions by performing a robust l`1 estimation of the noise level function.The LI images can then be denoised using the noise estimation. We have developed in the second part a denoising algorithm that combines the non local means with variational methods by applying an adaptive regularization weighted by a non local data fidelity term. Then this algorithm is adapted to video denoising using the redundancy provided by the sequences, hence guaranteeing temporel stability and preservation of the fine structures.Finally, in the third part data from the optical and infrared sensors are registered. We propose an edge based multimodal registration metric. Combined with a gradient ascent resolution and a temporel scheme, the proposed method allows robust registration of the two modalities for later fusion.
115

Imagerie multimodale et planification interactive pour la reconstruction 3D et la métrologie dimensionnelle / Multimodal imaging and interactive planning for 30 reconstruction and the dimensional metrology

Hannachi, Ammar 21 August 2015 (has links)
La fabrication de pièces manufacturées génère un nombre très important de données de différents types définissant les géométries de fabrication ainsi que la qualité de production. Ce travail de thèse s’inscrit dans le cadre de la réalisation d’un système de vision cognitif dédié à l’évaluation d’objets 3D manufacturés incluant éventuellement des surfaces gauches, en tenant compte des tolérances géométriques et des incertitudes. Ce système permet un contrôle exhaustif de pièces manufacturées et offre la possibilité d’une inspection tridimensionnelle automatique de la pièce. La mise en place d’un système de mesures multi-capteurs (passifs et actifs) a permis d’améliorer significativement la qualité d’évaluation par le biais d’une reconstruction tridimensionnelle enrichie de l’objet à évaluer. En particulier, nous avons employé simultanément un système stéréoscopique de vision et un système à projection de lumière structurée afin de reconstruire les contours et les surfaces de différents objets 3D. / Producing industrially manufactured parts generates a very large number of data of various types defining the manufacturing geometries as well as the quality of production. This PhD work has been carried out within the framework of the realization of a cognitive vision system dedicated to the 3D evaluation of manufactured objects including possibly free form surfaces, taking into account the geometric tolerances and uncertainties. This system allows the comprehensive control of manufactured parts, and provides the means for their automated 3D dimensional inspection. The implementation of a multi-sensor (passive and active) measuring system enabled to improve significantly the assessment quality through an enriched three-dimensional reconstruction of the object to be evaluated. Specifically, we made use simultaneously of a stereoscopic vision system and of a structured light based system in order to reconstruct the edges and surfaces of various 3D objects.
116

Automatic localization of endoscope in intraoperative CT image : a simple approach to augmented reality guidance in laparoscopic surgery / Localisation automatique de l'endoscope dans une image CT intraopératoire : une approche simple du guidage par réalité augmentée en chirurgie laparoscopique

Bernhardt, Sylvain 25 February 2016 (has links)
Au cours des dernières décennies, la chirurgie mini invasive a progressivement gagné en popularité face à la chirurgie ouverte, grâce à de meilleurs bénéfices cliniques. Cependant, ce type d'intervention introduit une perte de vision directe sur la scène pour le chirurgien. L'introduction de la réalité augmentée en chirurgie mini invasive semble être une solution viable afin de remédier à ce problème et a donc été activement considérée par la recherche. Néanmoins, augmenter correctement une scène laparoscopique reste difficile à cause de la non-rigidité des tissus et organes abdominaux. En conséquence, la littérature ne fournit pas d'approche satisfaisante à la réalité augmentée en laparoscopie, car de telles méthodes manquent de précision ou requièrent un équipement supplémentaire, contraignant et onéreux. Dans ce contexte, nous présentons un nouveau paradigme à la réalité augmentée en chirurgie laparoscopique. Se reposant uniquement sur l'équipement standard d'une salle opératoire hybride, notre approche peut fournir la relation statique entre l'endoscope et un scan intraopératoire 3D. De nombreuses expériences sur un motif radio-opaque montrent quantitativement que nos augmentations sont exactes à moins d'un millimètre près. Des tests sur des données in vivo consolident la démonstration du potentiel clinique de notre approche dans plusieurs cas chirurgicaux réalistes. / Over the past decades, minimally invasive surgery has progressively become more popular than open surgery thanks to greater clinical benefits. However, this kind of intervention introduced a loss of direct vision upon the scene for the surgeon. Introducing augmented reality to minimally invasive surgery appears to be a viable solution to alleviate this drawback and has thus been an attractive topic for the research community. Yet, correctly augmenting a laparoscopic scene remains challenging, due to the non-rigidity of abdominal tissues and organs. Therefore, the literature does not report a satisfactory approach to laparoscopic augmented reality, as such methods lack accuracy or require expensive and impractical additional equipment. In light of this, we present a novel paradigm to augmented reality in abdominal minimally invasive surgery. Based only on standard hybrid operating room equipment, our approach can provide the static relationship between the endoscope and an intraoperative 3D scan. Extensive experiments on a radio-opaque pattern quantitatively show that the accuracy of our augmentations is less than one millimeter. Tests on in vivo data further demonstrates the clinical potential of our approach in several realistic surgical cases.
117

Modèles statistiques réduits de la croissance cardiaque, du mouvement et de la circulation sanguine : application à la tétralogie de Fallot / Reduced-order statistical models of cardiac growth, motion and blood flow : application to the tetralogy of Fallot heart

Mcleod, Kristin 08 November 2013 (has links)
Cette thèse présente les travaux réalisés en vue de l’élaboration d’un modèle cardiaque associant croissance, mouvement et circulation sanguine pour permettre ensuite la construction d’un modèle patient à partir d’un modèle de population. Le premier axe de ce travail est la simulation de la croissance bi-ventriculaire. Un modèle existant de surface unique, calculé à l’aide de méthodes statistiques, a été généralisé à un modèle bi-ventriculaire puis appliqué à la tétralogie de Fallot (ToF). Le deuxième axe concerne la modélisation du mouvement cardiaque au niveau de la population. Un modèle d’ordre réduit basé sur un modèle Polyaffine et LogDemons a été proposé. Il simule la dynamique cardiaque avec peu de paramètres. Les paramètres de transformation sont analysés par des méthodes statistiques. Un modèle de mouvement moyen a été calculé pour représenter le mouvement standard de la population. Le troisième axe s'intéresse à la simulation de l’écoulement sanguin à l’échelle de la population. La complexité des simulations spécifiques à un patient a été réduite grâce à l’utilisation de méthodes d’analyse d’image, de dynamique des fluides numérique et de réduction d’ordre de modèle. La simulation du flux sanguin dans l’artère pulmonaire pour des patients ToF a permis de mieux comprendre l’impact du sang régurgité sur la pression et la vitesse. Étant donné nos contributions sur ces trois axes, nous sommes maintenant en bonne position pour élaborer le modèle couplé des contributions interdépendantes de la croissance, du mouvement et de l'écoulement sanguin. Ce modèle pourrait être utilisé afin d'aider la planification de la thérapie chez les patients atteints de maladies cardiaques. / This thesis presents work towards a coupled model of cardiac growth, motion, and blood flow to enable predictive patient-specific models to be built from a population-based model. The first axis of this work is to simulate bi-ventricular growth through aging. A previously proposed single surface model computed using statistical methods was extended to a bi-ventricular model and applied to Tetralogy of Fallot patients to model the complex evolution of the ventricles due to the pathology. The second axis concerns the development of a model to simulate cardiac motion at a population level. A reduced-order cardiac-specific motion model was proposed to simulate the motion dynamics with a small number of parameters using a Polyaffine and LogDemons based model. From the computed transformations, the parameters were analysed using statistical methods to obtain population-based measures of normality. A mean motion model was derived to represent the normal motion for a given population. The third axis is to develop a model of population-based flow dynamics. The complexity of patient-specific simulations was reduced by combining image analysis, computational fluid dynamics and model order reduction techniques. Blood flow through the pulmonary artery in Tetralogy of Fallot patients was simulated to better understand the impact of regurgitated blood on pressure and velocity. Given our contributions on these three axes, we are now in a good position to couple the models in order to capture the interrelated contributions of growth, motion and flow. Such a model could be used to aid in therapy planning and decision making for patients with heart disease.
118

Diffusion Tensor Imaging of the Human Skeletal Muscle : Contributions and Applications / IRM du tenseur de diffusion du muscle squelettique humain : contributions et applications

Neji, Radhouène 09 March 2010 (has links)
Cette thèse propose des techniques pour le traitement d'images IRM de diffusion. Les méthodes proposées concernent l'estimation et la régularisation, le groupement et la segmentation ainsi que le recalage. Le cadre variationnel proposé dans cette thèse pour l'estimation d'un champ de tenseurs de diffusion à partir d'observations bruitées exploite le fait que les données de diffusion représentent des populations de fibres et que chaque tenseur peut être reconstruit à partir d'une combinaison pondérée de tenseurs dans son voisinage. La méthode de segmentation traite aussi bien les voxels que les fibres. Elle est basée sur l'utilisation de noyaux défini-positifs sur des probabilités gaussiennes de diffusion afin de modéliser la similarité entre tenseurs et les interactions spatiales. Ceci permet de définir des métriques entre fibres qui combinent les informations de localisation spatiale et de tenseurs de diffusion. Plusieurs approches de groupement peuvent être appliquées par la suite pour segmenter des champs de tenseurs et des trajectoires de fibres. Un cadre de groupement supervisé est proposé pour étendre cette technique. L'algorithme de recalage utilise les noyaux sur probabilités pour recaler une image source et une image cible. La régularité de la déformation est évaluée en utilisant la distortion induite sur les distances entre probabilités spatialement voisines. La minimisation de la fonctionnelle de recalage est faite dans un cadre discret. La validation expérimentale est faite sur des images du muscle du mollet pour des sujets sains et pour des patients atteints de myopathies. Les résultats des techniques développées dans cette thèse sont encourageants. / In this thesis, we present several techniques for the processing of diffusion tensor images. They span a wide range of tasks such as estimation and regularization, clustering and segmentation, as well as registration. The variational framework proposed for recovering a tensor field from noisy diffusion weighted images exploits the fact that diffusion data represent populations of fibers and therefore each tensor can be reconstructed using a weighted combination of tensors lying in its neighborhood. The segmentation approach operates both at the voxel and the fiber tract levels. It is based on the use of Mercer kernels over Gaussian diffusion probabilities to model tensor similarity and spatial interactions, allowing the definition of fiber metrics that combine information from spatial localization and diffusion tensors. Several clustering techniques can be subsequently used to segment tensor fields and fiber tractographies. Moreover, we show how to develop supervised extensions of these algorithms. The registration algorithm uses probability kernels in order to match moving and target images. The deformation consistency is assessed using the distortion induced in the distances between neighboring probabilities. Discrete optimization is used to seek an optimum of the defined objective function. The experimental validation is done over a dataset of manually segmented diffusion images of the lower leg muscle for healthy and diseased subjects. The results of the techniques developed throughout this thesis are promising.
119

Génération d'images 3D HDR / Generation of 3D HDR images

Bonnard, Jennifer 11 December 2015 (has links)
L’imagerie HDR et l’imagerie 3D sont deux domaines dont l’évolution simultanée mais indépendante n’a cessé de croître ces dernières années. D’une part, l’imagerie HDR (High Dynamic Range) permet d’étendre la gamme dynamique de couleur des images conventionnelles dites LDR (Low Dynamic Range). D’autre part, l’imagerie 3D propose une immersion dans le film projeté avec cette impression de faire partie de la scène tournée. Depuis peu, ces deux domaines sont conjugués pour proposer des images ou vidéos 3D HDR mais peu de solutions viables existent et aucune n’est accessible au grand public. Dans ce travail de thèse, nous proposons une méthode de génération d’images 3D HDR pour une visualisation sur écrans autostéréoscopiques en adaptant une caméra multi-points de vue à l’acquisition d’expositions multiples. Pour cela, des filtres à densité neutre sont fixés sur les objectifs de la caméra. Ensuite, un appareillement des pixels homologues permet l’agrégation des pixels représentant le même point dans la scène acquise. Finalement, l’attribution d’une valeur de radiance est calculée pour chaque pixel du jeud’images considéré par moyenne pondérée des valeurs LDR des pixels homologues. Une étape supplémentaire est nécessaire car certains pixels ont une radiance erronée. Nous proposons une méthode basée surla couleur des pixels voisins puis deux méthodes basées sur la correction de la disparité des pixels dontla radiance est erronée. La première est basée sur la disparité des pixels du voisinage et la seconde sur la disparité calculée indépendamment sur chaque composante couleur. Ce pipeline permet la générationd’une image HDR par point de vue. Un algorithme de tone-mapping est ensuite appliqué à chacune d’elles afin qu’elles puissent être composées avec les filtres correspondants à l’écran autostéréoscopique considéré pour permettre la visualisation de l’image 3D HDR. / HDR imaging and 3D imaging are two areas in which the simultaneous but separate development has been growing in recent years. On the one hand, HDR (High Dynamic Range) imaging allows to extend the dynamic range of traditionnal images called LDR (Low Dynamic Range). On the other hand, 3Dimaging offers immersion in the shown film with the feeling to be part of the acquired scene. Recently, these two areas have been combined to provide 3D HDR images or videos but few viable solutions existand none of them is available to the public. In this thesis, we propose a method to generate 3D HDR images for autostereoscopic displays by adapting a multi-viewpoints camera to several exposures acquisition.To do that, neutral density filters are fixed on the objectives of the camera. Then, pixel matchingis applied to aggregate pixels that represent the same point in the acquired scene. Finally, radiance is calculated for each pixel of the set of images by using a weighted average of LDR values. An additiona lstep is necessary because some pixels have wrong radiance. We proposed a method based on the color of adjacent pixels and two methods based on the correction of the disparity of those pixels. The first method is based on the disparity of pixels of the neighborhood and the second method on the disparity independently calculated on each color channel. This pipeline allows the generation of 3D HDR image son each viewpoint. A tone-mapping algorithm is then applied on each of these images. Their composition with filters corresponding to the autostereoscopic screen used allows the visualization of the generated 3DHDR image.
120

Autoradiographie quantitative d'échantillons prélevés par biopsie guidée par TEP/TDM : méthode et applications cliniques / Quantitative autoradiography of biopsy specimens obtained under PET/CT guidance : method development and clinical applications

Fanchon, Louise 24 March 2016 (has links)
Au cours des dix dernières années, l’utilisation de l’imagerie par tomographie par émission de positrons (TEP) s’est rapidement développée en oncologie. Certaines tumeurs non visibles en imagerie anatomique conventionnelle sont détectables en mesurant l'activité métabolique dans le corps humain par TEP. L’imagerie TEP est utilisée pour guider la délivrance de traitements locaux tels que par rayonnement ionisants ou ablation thermique. Pour la délivrance de ces traitements, segmenter la zone tumorale avec précision est primordial. Cependant, la faible résolution spatiale des images TEP rend la segmentation difficile. Plusieurs études ont démontré que la segmentation manuelle est sujette à une grande variabilité inter- et intra- individuelle et est fastidieuse. Pour ces raisons, de nombreux algorithmes de segmentation automatiques ont été développés. Cependant, peu de données fiables, avec des résultats histopathologiques existent pour valider ces algorithmes car il est expérimentalement difficile de les produire. Le travail méthodologique mis en place durant cette thèse a eu pour but de développer une méthode permettant de comparer les données histopathologiques aux données obtenue par TEP pour tester et valider des algorithmes de segmentation automatiques. Cette méthode consiste à réaliser des autoradiographies quantitatives de spécimens prélevés lors de biopsies guidées par TEP/tomodensitométrie (TDM); l’autoradiographie permettant d’imager la distribution du radiotraceur dans les échantillons avec une haute résolution spatiale. Les échantillons de tissus sont ensuite finement tranchés pour pouvoir être étudiés à l’aide d’un microscope. L’autoradiographie et les photomicrographes de l’échantillon de tissus sont ensuite recalés à l’image TEP, premièrement en les alignant avec l’aiguille à biopsie visible sur l’image TDM, puis en les transférant sur l’image TEP. Nous avons ensuite cherché à utiliser ces données pour tester deux algorithmes de segmentation automatique d'images TEP, le Fuzzy Locally Adaptive Bayesian (FLAB) développé au Laboratoire de Traitement de l'Information Médicale (LaTIM) à Brest, ainsi qu’une méthode de segmentation par seuillage. Cependant, la qualité de ces données repose sur la précision du recalage des images TEP, autoradiographiques et des micrographes. La principale source d’erreur dans le recalage de ces images venant de la fusion des images TEP/TDM, une méthode a été développée afin de quantifier la précision du recalage. Les résultats obtenus pour les patients inclus dans cette étude montrent que la précision de la fusion varie de 1.1 à 10.9 mm. En se basant sur ces résultats, les données ont été triées, pour finalement sélectionner les données acquises sur 4 patients jugées satisfaisantes pour tester les algorithmes de segmentation. Les résultats montrent qu’au point de la biopsie, les contours obtenus avec FLAB concordent davantage avec le bord de la lésion observé sur les micrographes. Cependant les deux méthodes de segmentation donnent des contours similaires, les lésions étant peu hétérogènes. / During the last decade, positron emission tomography (PET) has been finding broader application in oncology. Some tumors that are non-visible in standard anatomic imaging like computerized tomography (CT) or ultrasounds, can be detected by measuring in 3D the metabolic activity of the body, using PET imaging. PET images can also be used to deliver localized therapy like radiation therapy or ablation. In order to deliver localized therapy, the tumor border has to be delineated with very high accuracy. However, the poor spatial resolution of PET images makes the segmentation challenging. Studies have shown that manual segmentation introduces a large inter- and intra- variability, and is very time consuming. For these reasons, many automatic segmentation algorithms have been developed. However, few datasets with histopathological information are available to test and validate these algorithms since it is experimentally difficult to produce them. The aim of the method developed was to evaluate PET segmentation algorithms against the underlying histopathology. This method consists in acquiring quantitative autoradiography of biopsy specimen extracted under PET/CT guidance. The autoradiography allows imaging the radiotracer distribution in the biopsy specimen with a very high spatial accuracy. Histopathological sections of the specimen can then obtained and observed under the microscope. The autoradiography and the micrograph of the histological sections can then be registered with the PET image, by aligning them first with the biopsy needle seen on the CT image and then transferring them onto the PET image. The next step was to use this dataset to test two PET automatic segmentation algorithms: the Fuzzy Locally Adaptive Bayesian (FLAB) developed at the Laboratory of Medical Information Processing (LaTIM) in Brest, France, as well as a fix threshold segmentation method. However, the reliability of the dataset produced depends on the accuracy of the registration of the PET, autoradiography and micrograph images. The main source of uncertainty in the registration of these images comes from the registration between the CT and the PET. In order to evaluate the accuracy of the registration, a method was developed. The results obtained with this method showed that the registration error ranges from 1.1 to 10.9mm. Based on those results, the dataset obtained from 4 patients was judged satisfying to test the segmentation algorithms. The comparison of the contours obtained with FLAB and with the fixed threshold method shows that at the point of biopsy, the FLAB contour is closer than that to the histopathology contour. However, the two segmentation methods give similar contours, because the lesions were homogeneous.

Page generated in 0.1204 seconds