• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Improvements to ultrasonic imaging with post-processing of full matrix capture data

Deschênes Labrie, Patrick 11 April 2022 (has links)
Ce mémoire présente les comparaisons entre les différentes méthodes de reconstruction "Total Focusing Method" (TFM) et des différents algorithmes modifiés qui utilisent les données obtenues avec la "Full Matrix Capture" (FMC) dans le but d'améliorer certains points clés présents dans les méthodes d'imageries, tel que les problèmes de reconstructions en sous-résolution ou bien des améliorations sur la détection. Les algorithmes conçus sont comparés en analysant les mêmes données pour les différents cas. De ces cas, l'imagerie de défauts isolés et puis ensuite celle d'une séquence de défauts très rapprochée ont été effectuées. Différentes recherches ont été effectuées sur les performances des algorithmes de reconstruction TFM en basse résolution. Ce mémoire montre que tous les types d'algorithmes présentés, soit la TFM standard, la TFM avec enveloppe d'Hilbert, la TFM intégration, la TFM intégration avec enveloppe d'Hilbert, la TFM restreinte en angle, la Migration et la Migration d'Hilbert sont toutes des méthodes valides de post-traitements des données capables d'imager convenablement les défauts présentés. Les différentes méthodes de reconstruction démontrent également des habilitées dépassant celles de la TFM standard dans certains points clés, en ayant seulement quelques points négatifs, tel que les temps de traitement ou bien l'augmentation du bruit de l'image. / This study shows the comparison between standard Total Focusing Method (TFM) and various modified algorithms using the data obtained from the Full Matrix Capture (FMC) in order to improve on some key points present in the aforementioned standard method of imaging, such as sub-resolution problems and improvements on detection. The designed algorithms were compared by processing the same data for different cases. Off those cases, the imaging of isolated defects and then imaging an array of close defects were analyzed. Further work have also been done on the performance of TFM algorithms in low resolution settings. The study has shown that all presented algorithms, which are the standard TFM, the Hilbert envelope TFM, the integration TFM, the Hilbert integration TFM, the angle restricted TFM, the Migration and the Hilbert Migration are all valid image post-processing reconstruction methods able to properly detect the defects presented. The different reconstruction methods used have also shown to outperform the standard TFM in a few key points, while having a few negative points such as the processing time and the increase noise.
152

Unsupervised reconstruction of a Visual Hull in space, time and light domains

Mikhnevich, Maxim 23 April 2018 (has links)
Cette thèse présente une approche de segmentation d’images sans supervision pour obtenir une série de silhouettes et l’enveloppe visuelle («Visual Hull») d’un objet observé à partir de plusieurs points de vue. L’approche proposée peut traiter essentiellement n’importe quelles propriétés d’apparence comme la texture, des couleurs similaires d’arrière-plan, la specularité, la transparence et d’autre phénomènes tels que des ombres et des débordements de couleur. Par rapport aux méthodes plus classiques d’extraction de silhouettes sur plusieurs vues, où certaines hypothèses sur l’objet ou la scène sont formulès, nous ne modélisons ni l’arrière-plan ni les propriétés d’apparence de l’objet. La seule hypothèse est la constance de l’arrière-plan considéré comme inconnu pour un point de vue lorsque l’objet bouge. L’idée principale de l’approche est d’estimer l’évolution temporelle de chaque pixel pour obtenir une mesure de stabilité. Celle-ci est utilisée pour construire la fonction de coût d’arrière-plan. Pour faire face aux ombres et aux ombres projetées, un objet est capturé sous différentes conditions d’éclairage. En outre, les informations d’espace, de temps et d’éclairage sont fusionnées et utilisées dans un formalisme de champ aléatoire de Markov et la fonction d’énergie construite est minimisée par «Graph Cuts». Les expérimentations en laboratoire, sous différentes conditions d’éclairage, montrent que l’approche proposée permet la reconstruction robuste de l’enveloppe visuelle pour une grande variété d’objets difficiles tels que les objets en verre (effets de transparence) ou en métal brillant (effets de réflexions spéculaires). / This thesis presents an unsupervised image segmentation approach for obtaining a set of silhouettes along with the Visual Hull of an object observed from multiple viewpoints. The proposed approach can deal with mostly any type of appearance characteristics such as texture, similar background color, shininess, transparency besides other phenomena such as shadows and color bleeding. Compared to more classical methods for silhouette extraction from multiple views, for which certain assumptions are made on the object or scene, neither the background nor the object appearance properties are modeled. The only assumption is the constancy of the unknown background for a given camera viewpoint while the object is under motion. The principal idea of the approach is the estimation of the temporal evolution of each pixel over time which provides a stability measurement and leads to its associated background cost function. In order to cope with shadows and self-shadows, an object is captured under different lighting conditions. Furthermore, the information from the space, time and lighting domains is exploited and merged based on a Markov Random Field framework and the constructed energy function is minimized via graph-cut. Real-data experiments under different lighting condition show that the proposed approach allows for robust Visual Hull reconstruction of a variety of challenging objects such as objects made of shiny metal or glass.
153

Méthode de compensation des déformations cérébrales par imagerie ultrasonore intraopératoire pour la neurochirurgie guidée par l'image

Coupé, Pierrick 16 January 2008 (has links) (PDF)
Cette thèse aborde le problème de la compensation des déformations cérébrales survenant au cours des opérations neurochirurgicales. Ces déformations des structures cérébrales dégradent la précision des systèmes de neuronavigation, ce qui limite leur utilisation tout au long de la procédure neurochirurgicale. La compensation de ces déformations est aujourd'hui l'un des enjeux majeurs de la neurochirurgie guidée par l'image. La méthode proposée repose sur le recalage non rigide d'images échographiques intraopératoires de type main libre et d'images préopératoires obtenues par résonance magnétique nucléaire (RMN). Afin de réaliser ce recalage non rigide multimodal, un processus incluant différents traitements est détaillé dans ce manuscrit. Tout d'abord, une nouvelle méthode de reconstruction tridimensionnelle des images échographiques de type main libre est présentée. Puis, un travail portant sur le filtre de débruitage des moyennes non locales est proposé. Ce travail aborde deux aspects: l'amélioration de la qualité du débruitage avec une réduction du temps de calcul d'une part, et l'adaptation de ce filtre aux caractéristiques du chatoiement présent dans les images ultrasonores d'autre part. Finalement, une nouvelle approche du problème de recalage des images ultrasonores et des images obtenues par RMN est décrite. Ces différents traitements sont integrés au sein d'une chaîne entièrement automatique de compensation des déformations cérébrales. Les premiers résultats obtenus sur les images de quatre patients sont présentés à la fin de ce document.
154

Données multimodales pour l'analyse d'image

Guillaumin, Matthieu 27 September 2010 (has links) (PDF)
La présente thèse s'intéresse à l'utilisation de méta-données textuelles pour l'analyse d'image. Nous cherchons à utiliser ces informations additionelles comme supervision faible pour l'apprentissage de modèles de reconnaissance visuelle. Nous avons observé un récent et grandissant intérêt pour les méthodes capables d'exploiter ce type de données car celles-ci peuvent potentiellement supprimer le besoin d'annotations manuelles, qui sont coûteuses en temps et en ressources. Nous concentrons nos efforts sur deux types de données visuelles associées à des informations textuelles. Tout d'abord, nous utilisons des images de dépêches qui sont accompagnées de légendes descriptives pour s'attaquer à plusieurs problèmes liés à la reconnaissance de visages. Parmi ces problèmes, la vérification de visages est la tâche consistant à décider si deux images représentent la même personne, et le nommage de visages cherche à associer les visages d'une base de données à leur noms corrects. Ensuite, nous explorons des modèles pour prédire automatiquement les labels pertinents pour des images, un problème connu sous le nom d'annotation automatique d'image. Ces modèles peuvent aussi être utilisés pour effectuer des recherches d'images à partir de mots-clés. Nous étudions enfin un scénario d'apprentissage multimodal semi-supervisé pour la catégorisation d'image. Dans ce cadre de travail, les labels sont supposés présents pour les données d'apprentissage, qu'elles soient manuellement annotées ou non, et absentes des données de test. Nos travaux se basent sur l'observation que la plupart de ces problèmes peuvent être résolus si des mesures de similarité parfaitement adaptées sont utilisées. Nous proposons donc de nouvelles approches qui combinent apprentissage de distance, modèles par plus proches voisins et méthodes par graphes pour apprendre, à partir de données visuelles et textuelles, des similarités visuelles spécifiques à chaque problème. Dans le cas des visages, nos similarités se concentrent sur l'identité des individus tandis que, pour les images, elles concernent des concepts sémantiques plus généraux. Expérimentalement, nos approches obtiennent des performances à l'état de l'art sur plusieurs bases de données complexes. Pour les deux types de données considérés, nous montrons clairement que l'apprentissage bénéficie de l'information textuelle supplémentaire résultant en l'amélioration de la performance des systèmes de reconnaissance visuelle.
155

Etude d'un système de conversion analogique-numérique rapide de grande résolution adapté aux nouvelles générations de capteurs d'images CMOS / Study of a high speed high resolution analog to digital conversion system adapted for new generations of CMOS image sensors.

Ben aziza, Sassi 03 May 2018 (has links)
Les technologies CMOS représentent aujourd’hui plus de 90% du marché des capteurs d’images : elles permettent d’intégrer des systèmes intelligents dans une seule puce (SoC = System-On-Chip) et ouvrent la voie à l’intégration d’algorithmes de plus en plus complexes dans les dernières générations de capteurs. Des techniques telles que la reconstruction grande dynamique nécessitent d’acquérir plusieurs images avec un même capteur et de les recombiner. Ces nouvelles contraintes nécessitent d’augmenter drastiquement le débit d’images pour des capteurs de tailles conséquentes (Jusqu'à 30 Mpixels), ainsi que d’augmenter la résolution du convertisseur analogique numérique (jusqu’à 14 bits). Cela crée une demande forte en techniques de conversion analogique-numérique. Ces techniques doivent obéir en même temps aux contraintes de performance notamment la vitesse, la résolution, le faible bruit, la faible consommation et l'intégrabilité mais aussi aux contraintes de qualité d'image impactées directement par la chaine de conversion analogique-numérique en plus de la technologie du pixel. D'ici découle une double problématique pour le sujet:- Etudier et déterminer les limites atteignables en termes de performance sur les différents axes précités.- Gestion du fonctionnement massivement parallèle lié à la structure inhérente des capteurs d'image en vue d'avoir une qualité d'image irréprochable. / CMOS technologies represent nowadays more than 90% of image sensors market given their features namely the possibility of integrating entire intelligent systems on the same chip (SoC = System-On-Chip). Thereby, allowing the implementation of more and more complex algorithms in the new generations of image sensors.New techniques have emerged like high dynamic range reconstruction which requires the acquisition of several images to build up one, thus multiplying the frame rate.These new constraints require a drastic increase of image rate for sensors ofconsiderable size (Up to 30 Mpix and more). At the same time, the ADCresolution has to be increased to be able to extract more details (until 14 bits).With all these demanding specifications, analog-to-digital conversion capabilities have to be boosted as far as possible.These capabilities can be distinguished into two main research axes representing the pillars of the PhD work, namely:+ The study of the reachable limits in terms of performance: Speed, Resolution,Low Noise, Low power consumption and small design pitch.+ The management of the highly parallel operation linked to the structure of animage sensor. Solutions have to be found so as to avoid image artefacts andpreserve the image quality.
156

Algorithmes, architecture et éléments optiques pour l'acquisition embarquées d'images totalement focalisées et annotées en distance / Algorithms, architecture and optics components for embedded All-in-Focus and distance-annoted image acquision system

Emberger, Simon 13 December 2017 (has links)
L'acquisition de la profondeur d'une scène en plus de son image est une caractéristique souhaitable pour de nombreuses applications qui dépendent de l'environnement proche. L'état de l'art dans le domaine de l'extraction de profondeur propose de nombreuses méthodes, mais très peu sont réellement adaptées aux systèmes embarqués miniaturisés. Certaines parce qu'elles sont trop encombrantes en raison de leur système optique, d'autres parce qu'elles nécessitent une calibration délicate, ou des méthodes de reconstructions difficilement implantables dans un système embarqué. Dans cette thèse nous nous concentrons sur des méthodes a faible complexité matérielle afin de proposer une solution algorithmique et optique pour réaliser un capteur permettant à la fois d'extraire la profondeur de la scène, de fournir une évaluation de pertinence de cette mesure et de proposer des images focalisées en tout point. Dans ce sens, nous montrons que les algorithmes du type Depth from Focus (DfF) sont les plus adaptés à ces contraintes. Ce procédé consiste à acquérir un cube d'images multi-focus d'une même scène pour différentes distances de focalisation. Les images sont analysées afin d'annoter chacune des zones de la scène d'un indice relatif à sa profondeur estimée. Cet indice est utilisé pour reconstruire une image nette en tout point.Nous avons travaillé sur la notion de netteté afin de proposer des solutions peu complexes, uniquement basées sur des additions et comparaisons, et de fait, facilement adaptables pour un portage sur une architecture matérielle. La solution proposée effectue une analyse bidirectionnelle de contraste local puis combine les meilleures estimations de profondeur en fin de traitement. Elle se décline en trois approches avec une restriction de la complexité de plus en plus forte et ainsi une aptitude de plus en plus marquée pour l'embarqué. Pour chaque méthode, des cartes de profondeurs et de confiances sont établies, ainsi qu'une image totalement focalisée constituée d'éléments issus de l'ensemble du cube multi-focus. Ces approches sont comparées en qualité et en complexité à d'autres méthodes de l'état de l'art de complexité similaire. Une architecture est proposée pour une implantation matérielle de la solution la plus prometteuse. La conception de ces algorithmes soulève le problème de la qualité d'image. Il est en effet primordial d'avoir une évolution remarquable du contraste ainsi qu'une invariance de la scène lors de la capture du cube multi-focus. Un effet très souvent négligé dans ce type d'approche est le zoom parasite provoqué par la lentille responsable de la variation de focus. Ce zoom de focalisation fragilise l'aspect invariance de la scène et provoque l'apparition d'artefacts sur les trois informations Profondeur, Image et Confiance. La recherche d'optiques adaptées au DfF constitue donc un second axe de ces travaux. Nous avons évalué des lentilles liquides industrielles et des lentilles modales expérimentales à cristaux liquides nématiques conçues durant cette thèse. Ces technologies ont été comparées en termes de rapidité, de qualité d'image, d'intensité de zoom de focalisation engendré, de tension d'alimentation et enfin de qualité des cartes de profondeur extraites et des images totalement focalisées reconstruites.La lentille et l'algorithme répondant le mieux à cette problématique DfF embarqué ont ensuite été évalués via le portage sur une plateforme de développement CPU-GPU permettant l'acquisition d'images et de cartes de profondeurs et de confiances en temps réel. / Acquiring the depth of a scene in addition to its image is a desirable feature for many applications which depend on the near environment. The state of the art in the field of depth extraction offers many methods, but very few are well adapted to small embedded systems. Some of them are too cumbersome because of their large optical system. Others might require a delicate calibration or processing methods which are difficult to implement in an embedded system. In this PhD thesis, we focus on methods with low hardware complexity in order to propose algorithms and optical solutions that extract the depth of the scene, provide a relevance evaluation of this measurement and produce all-in-focus images. We show that Depth from Focus (DfF) algorithms are the most adapted to embedded electronics constraints. This method consists in acquiring a cube of multi-focus images of the same scene for different focusing distances. The images are analyzed in order to annotate each zone of the scene with an index relative to its estimated depth. This index is then used to build an all in focus image. We worked on the sharpness criterion in order to propose low complexity solutions, only based on additions and comparisons, easily adaptable on a hardware architecture. The proposed solution uses bidirectional local contrast analysis and then combines the most relevant depth estimations based on detection confidence at the end of treatment. It is declined in three approaches which need less and less processing and thus make them more and more adapted for a final embedded solution. For each method, depth and confidence maps are established, as well as an all-in-focus image composed of elements from the entire multi-focus cube. These approaches are compared in quality and complexity with other state-of-the-art methods which present similar complexity. A hardware implementation of the best solution is proposed. The design of these algorithms raises the problem of image quality. It is indeed essential to have a remarkable contrast evolution as well as a motionless scene during the capture of the multi-focus cube. A very often neglected effect in this type of approach is the parasitic zoom caused by the lens motion during a focus variation. This "focal zoom" weakens the invariance aspect of the scene and causes artifacts on the depth and confidence maps and on the all in focus image. The search for optics adapted to DfF is thus a second line of research in this work. We have evaluated industrial liquid lenses and experimental nematic liquid crystal modal lenses designed during this thesis. These technologies were compared in terms of speed, image quality, generated focal zoom intensity, power supply voltage and finally the quality of extracted depth maps and reconstructed all in focus images. The lens and the algorithm which best suited this embedded DfF issue were then evaluated on a CPU-GPU development platform allowing real time acquisition of depth maps, confidence maps and all in focus images.
157

Characterization and Colocalization of Tissue-Based Biomarker Expression by Quantitative Image Analysis: Development and Extraction of Novel Features

Moles Lopez, Xavier 25 March 2014 (has links)
Proteins are the actual actors in the (normal or disrupted) physiological processes and immunohistochemistry (IHC) is a very efficient mean of visualizing and locating protein expression in tissue samples. By comparing pathologic and normal tissue, IHC is thus able to evidence protein expression alterations. This is the reason why IHC plays a grow- ing role to evidence tissue-based biomarkers in clinical pathology for diagnosing var- ious diseases and directing personalized therapy. Therefore, IHC biomarker evaluation significantly impacts the adequacy of the therapeutic choices for patients with serious pathologies, such as cancer. However, this evaluation may be time-consuming and dif- ficult to apply in practice due to the absence of precise positive cut-off values as well as staining (i.e. protein expression) heterogeneity intra- and inter-samples. Quantifying IHC staining patterns has thus become a crucial need in histopathology. For this task, automated image analysis has multiple advantages, such as avoiding the evidenced ef- fects of human subjectivity. The recent introduction of whole-slide scanners opened a wide range of possibilities for addressing challenging image analysis problems, includ- ing the identification of tissue-based biomarkers. Whole-slide scanners are devices that are able to image whole tissue slides at resolutions up to 0.1 micrometers per pixels, often referred to as virtual slides. In addition to quantification of IHC staining patterns, virtual slides are invaluable tools for the implementation of digital pathology work- flows. The present work aims to make several contributions towards this current digital shift in pathology. Our first contribution was to propose an automated virtual slide sharpness assessment tool. Although modern whole-slide scanner devices resolve most image standardization problems, focusing errors are still likely to be observed, requiring a sharpness assessment procedure. Our proposed tool will ensure that images provided to subsequent pathologist examination and image analysis are correctly focused. Virtual slides also enable the characterization of biomarker expression heterogeneity. Our sec- ond contribution was to propose a method to characterize the distribution of densely stained regions in the case of nuclear IHC biomarkers, with a focus on the identification of highly proliferative tumor regions by analyzing Ki67-stained tissue slides. Finally, as a third contribution, we propose an efficient mean to register virtual slides in order to characterize biomarker colocalization on adjacent tissue slides. This latter contribution opens new prospects for the analysis of more complex questions at the tissue level and for finely characterizing disease processes and/or treatment responses./Les protéines sont les véritables acteurs des processus physiologiques (normaux ou per- turbés) et l’immunohistochimie (IHC) est un moyen efficace pour visualiser et localiser leur expression au sein d’échantillons histologiques. En comparant des échantillons de tissus pathologiques et normaux, l’IHC permet de révéler des altérations dans des pro- fils d’expression protéique. C’est pourquoi l’IHC joue un rôle de plus en plus important pour mettre en évidence des biomarqueurs histologiques intervenant dans le diagnos- tic de diverses pathologies et dans le choix de thérapies personnalisées. L’évaluation de l’expression de biomarqueurs révélés par IHC a donc des répercussions importantes sur l’adéquation des choix thérapeutiques pour les patients souffrant de pathologies graves, comme le cancer. Cependant, cette évaluation peut être chronophage et difficile à appliquer en pratique, d’une part, à cause de l’hétérogénéité de l’expression protéique intra- et inter-échantillon, d’autre part, du fait de l’absence de critères de positivité bien définis. Il est donc devenu crucial de quantifier les profils d’expression de marquages IHC en histopathologie. A cette fin, l’analyse d’image automatisée possède de multiples avantages, comme celui d’éviter les effets de la subjectivité humaine, déjà démontrés par ailleurs. L’apparition récente des numériseurs de lames histologiques complètes, ou scanners de lames, a permis l’émergence d’un large éventail de possibilités pour traiter des problèmes d’analyse d’image difficiles menant à l’identification de biomar- queurs histologiques. Les scanners de lames sont des dispositifs capables de numériser des lames histologiques à une résolution pouvant atteindre 0,1 micromètre par pixel, expliquant la dénomination de "lames virtuelles" des images ainsi acquises. En plus de permettre la quantification des marquages IHC, les lames virtuelles sont des outils indis- pensables pour la mise en place d’un flux de travail numérique en pathologie. Le travail présenté ici vise à fournir plusieurs contributions au récent changement de cap vers une numérisation de la discipline médicale qu’est l’anatomie pathologique. Notre première contribution consiste en un outil permettant d’évaluer automatiquement la netteté des lames virtuelles. En effet, bien que les scanners de lames résolvent la plupart des pro- blèmes liés à la standardisation de l’acquisition, les erreurs de focus restent fréquentes, ce qui nécessite la mise en place d’une procédure de vérification de la netteté. L’outil que nous proposons assurera la netteté des images fournies à l’examen du pathologiste et à l’analyse d’image. Les lames virtuelles permettent aussi de caractériser l’hétérogénéité de l’expression de biomarqueurs. Ainsi, la deuxième contribution de ce travail repose sur une méthode permettant de caractériser la distribution de régions densément marquées par des biomarqueurs IHC nucléaires. Pour ce travail, nous nous sommes concentrés sur l’identification de régions tumorales présentant une forte activité proliférative en analysant des lames virtuelles révélant l’expression de la protéine Ki67. Finalement, la troisième contribution de ce travail fut de proposer un moyen efficace de recaler des lames virtuelles dans le but de caractériser la colocalisation de biomarqueurs IHC révé- lés sur des coupes de tissu adjacentes. Cette dernière contribution ouvre de nouvelles perspectives pour l’analyse de questions complexes au niveau histologique ainsi que la caractérisation fine de processus pathologiques et de réponses thérapeutiques. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
158

Video event detection and visual data pro cessing for multimedia applications

Szolgay, Daniel 30 September 2011 (has links)
Cette thèse (i) décrit une procédure automatique pour estimer la condition d'arrêt des méthodes de déconvolution itératives basées sur un critère d'orthogonalité du signal estimé et de son gradient à une itération donnée; (ii) présente une méthode qui décompose l'image en une partie géométrique (ou "cartoon") et une partie "texture" en utilisation une estimation de paramètre et une condition d'arrêt basées sur la diffusion anisotropique avec orthogonalité, en utilisant le fait que ces deux composantes. "cartoon" et "texture", doivent être indépendantes; (iii) décrit une méthode pour extraire d'une séquence vidéo obtenue à partir de caméra portable les objets de premier plan en mouvement. Cette méthode augmente la compensation de mouvement de la caméra par une nouvelle estimation basée noyau de la fonction de probabilité de densité des pixels d'arrière-plan. Les méthodes présentées ont été testées et comparées aux algorithmes de l'état de l'art. / This dissertation (i) describes an automatic procedure for estimating the stopping condition of non-regularized iterative deconvolution methods based on an orthogonality criterion of the estimated signal and its gradient at a given iteration; (ii) presents a decomposition method that splits the image into geometric (or cartoon) and texture parts using anisotropic diffusion with orthogonality based parameter estimation and stopping condition, utilizing the theory that the cartoon and the texture components of an image should be independent of each other; (iii) describes a method for moving foreground object extraction in sequences taken by wearable camera, with strong motion, where the camera motion compensated frame differencing is enhanced with a novel kernel-based estimation of the probability density function of the background pixels. The presented methods have been thoroughly tested and compared to other similar algorithms from the state-of-the-art.
159

Some advances in patch-based image denoising / Quelques avancées dans le débruitage d'images par patchs

Houdard, Antoine 12 October 2018 (has links)
Cette thèse s'inscrit dans le contexte des méthodes non locales pour le traitement d'images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d'autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l'image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble.Dans le premier chapitre, le principe du "global denoising" est reformulé avec le formalisme classique de l'estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l'image et sur le filtre global sont introduites pour assurer et quantifier la convergence.Le deuxième chapitre est consacré à l'étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d'images par patches. Ces a priori sont largement utilisés pour la restauration d'image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ?Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performance de l'état-de-l'art.Le dernier chapitre explore des pistes d'agrégation différentes et propose une écriture de l’étape d'agrégation sous la forme d'un problème de moindre carrés. / This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into "patches". These patches can then be grouped, compared and filtered together.In the first chapter, "global denoising" is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence.The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image?The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed.
160

Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle

Michaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.

Page generated in 0.0512 seconds