Spelling suggestions: "subject:"traitement dess 1mages"" "subject:"traitement dess demages""
31 |
Algorithmes pour la segmentation et l'amélioration de la qualité des images et des vidéosBertolino, Pascal 24 February 2012 (has links) (PDF)
Travaux sur la segmentation des images et des vidéos en vue de leur codage, indexation et interprétation ainsi que sur l'amélioration de la qualité de la restitution de ces images sur les écrans plats.
|
32 |
From image coding and representation to robotic visionBabel, Marie 29 June 2012 (has links) (PDF)
This habilitation thesis is first devoted to applications related to image representation and coding. If the image and video coding community has been traditionally focused on coding standardization processes, advanced services and functionalities have been designed in particular to match content delivery system requirements. In this sense, the complete transmission chain of encoded images has now to be considered. To characterize the ability of any communication network to insure end-to-end quality, the notion of Quality of Service (QoS) has been introduced. First defined by the ITU-T as the set of technologies aiming at the degree of satisfaction of a user of the service, QoS is rather now restricted to solutions designed for monitoring and improving network performance parameters. However, end users are usually not bothered by pure technical performances but are more concerned about their ability to experience the desired content. In fact, QoS addresses network quality issues and provides indicators such as jittering, bandwidth, loss rate... An emerging research area is then focused on the notion of Quality of Experience (QoE, also abbreviated as QoX), that describes the quality perceived by end users. Within this context, QoE faces the challenge of predicting the behaviour of any end users. When considering encoded images, many technical solutions can considerably enhance the end user experience, both in terms of services and functionalities, as well as in terms of final image quality. Ensuring the effective transport of data, maintaining security while obtaining the desired end quality remain key issues for video coding and streaming. First parts of my work are then to be seen within this joint QoS/QoE context. From efficient coding frameworks, additional generic functionalities and services such as scalability, advanced entropy coders, content protection, error resilience, image quality enhancement have been proposed. Related to advanced QoE services, such as Region of Interest definition of object tracking and recognition, we further closely studied pseudo-semantic representation. First designed toward coding purposes, these representations aim at exploiting textural spatial redundancies at region level. Indeed, research, for the past 30 years, provided numerous decorrelation tools that reduce the amount of redundancies across both spatial and temporal dimensions in image sequences. To this day, the classical video compression paradigm locally splits the images into blocks of pixels, and processes the temporal axis on a frame by frame basis, without any obvious continuity. Despite very high compression performances such as AVC and forthcoming HEVC standards , one may still advocate the use of alternative approaches. Disruptive solutions have also been proposed, and offer notably the ability to continuously process the temporal axis. However, they often rely on complex tools (\emph{e.g.} Wavelets, control grids) whose use is rather delicate in practice. We then investigate the viability of alternative representations that embed features of both classical and disruptive approaches. The objective is to exhibit the temporal persistence of the textural information, through a time-continuous description. At last, from this pseudo-semantic level of representation, texture tracking system up to object tracking can be designed. From this technical solution, 3D object tracking is a logical outcome, in particular when considering vision robotic issues.
|
33 |
Fusion d'informations et segmentation d'images basées sur la théorie des fonctions de croyance : Application à l'imagerie médicale TEP multi-traceursLelandais, Benoît 23 April 2013 (has links) (PDF)
L'imagerie fonctionnelle par Tomographie d'Émission de Positons (TEP) multi-traceurs pourrait avoir un rôle essentiel dans le traitement du cancer par radiothérapie externe. Les images TEP aux traceurs 18Fluoro-Déoxy-Glucose (18 FDG), 18F-Fluoro-L Thymidine (18 FLT) et 18Fluoro-Misonidazole (18 FMiso) sont respectivement témoins du métabolisme glucidique, de la prolifération cellulaire et de l'hypoxie (manque d'oxygénation des cellules). L'utilisation conjointe de ces trois traceurs pourrait permettre de définir des sous-volumes donnant lieu à un traitement particulier. À cet effet, il est impératif de mettre à la disposition du corps médical un outil de segmentation et de fusion de ces images. Les images TEP ont pour caractéristique d'être très bruitées et d'avoir une faible résolution spatiale. Ces imperfections ont pour conséquence respective d'induire la présence d'informations incertaines et imprécises dans les images. Notre contribution réside dans la proposition d'une méthode, nommée EVEII pour Evidential Voxel-based Estimation of Imperfect Information, basée sur la théorie des fonctions de croyance, offrant une segmentation fiable et précise dans le contexte d'images imparfaites. Elle réside également dans la proposition d'une méthode de fusion d'images TEP multi-traceur. L'étude d'EVEII sur des images simulées a révélé qu'elle est la mieux adaptée comparée à d'autres méthodes basées sur la théorie des fonctions de croyance, en donnant un taux de bonne reconnaissance des pixels de près de 100 % lorsque le rapport signal-sur-bruit dépasse 2, 5. Sur les fantômes TEP physiques, simulant les caractéristiques des images TEP au 18 FDG, à la 18 FLT et au 18 FMiso, les résultats ont montré que notre méthode estime le mieux les volumes des sphères à segmenter comparé à des méthodes de la littérature proposées à cet effet. Sur les deux fantômes faiblement et fortement bruités respectivement, les biais moyens d'erreur d'estimation des volumes sont seulement de -0,27 et 3,89 mL, témoignant de sa pertinence à visée de segmentation d'images TEP. Enfin, notre méthode a été appliquée à la segmentation d'images TEP multi-traceurs chez trois patients. Les résultats ont montré que notre méthode est adaptée à la fusion d'images TEP multi-traceurs, offrant à cet effet un ensemble d'images paramétriques permettant de différencier les différents tissus biologiques.
|
34 |
Graph-based variational optimization and applications in computer visionCouprie, Camille 10 October 2011 (has links) (PDF)
Many computer vision applications such as image filtering, segmentation and stereovision can be formulated as optimization problems. Recently discrete, convex, globally optimal methods have received a lot of attention. Many graph-based methods suffer from metrication artefacts, segmented contours are blocky in areas where contour information is lacking. In the first part of this work, we develop a discrete yet isotropic energy minimization formulation for the continuous maximum flow problem that prevents metrication errors. This new convex formulation leads us to a provably globally optimal solution. The employed interior point method can optimize the problem faster than the existing continuous methods. The energy formulation is then adapted and extended to multi-label problems, and shows improvements over existing methods. Fast parallel proximal optimization tools have been tested and adapted for the optimization of this problem. In the second part of this work, we introduce a framework that generalizes several state-of-the-art graph-based segmentation algorithms, namely graph cuts, random walker, shortest paths, and watershed. This generalization allowed us to exhibit a new case, for which we developed a globally optimal optimization method, named "Power watershed''. Our proposed power watershed algorithm computes a unique global solution to multi labeling problems, and is very fast. We further generalize and extend the framework to applications beyond image segmentation, for example image filtering optimizing an L0 norm energy, stereovision and fast and smooth surface reconstruction from a noisy cloud of 3D points
|
35 |
Multiscale methods in signal processing for adaptive opticsMaji, Suman Kumar 14 November 2013 (has links) (PDF)
In this thesis, we introduce a new approach to wavefront phase reconstruction in Adaptive Optics (AO) from the low-resolution gradient measurements provided by a wavefront sensor, using a non-linear approach derived from the Microcanonical Multiscale Formalism (MMF). MMF comes from established concepts in statistical physics, it is naturally suited to the study of multiscale properties of complex natural signals, mainly due to the precise numerical estimate of geometrically localized critical exponents, called the singularity exponents. These exponents quantify the degree of predictability, locally, at each point of the signal domain, and they provide information on the dynamics of the associated system. We show that multiresolution analysis carried out on the singularity exponents of a high-resolution turbulent phase (obtained by model or from data) allows a propagation along the scales of the gradients in low-resolution (obtained from the wavefront sensor), to a higher resolution. We compare our results with those obtained by linear approaches, which allows us to offer an innovative approach to wavefront phase reconstruction in Adaptive Optics.
|
36 |
De la segmentation au moyen de graphes d'images de muscles striés squelettiques acquises par RMNBaudin, Pierre-Yves 23 May 2013 (has links) (PDF)
La segmentation d'images anatomiques de muscles striés squelettiques acquises par résonance magnétique nucléaire (IRM) présente un grand intérêt pour l'étude des myopathies. Elle est souvent un préalable nécessaire pour l'étude les mécanismes d'une maladie, ou pour le suivi thérapeutique des patients. Cependant, le détourage manuel des muscles est un travail long et fastidieux, au point de freiner les recherches cliniques qui en dépendent. Il est donc nécessaire d'automatiser cette étape. Les méthodes de segmentation automatique se basent en général sur les différences d'aspect visuel des objets à séparer et sur une détection précise des contours ou de points de repère anatomiques pertinents. L'IRM du muscle ne permettant aucune de ces approches, la segmentation automatique représente un défi de taille pour les chercheurs. Dans ce rapport de thèse, nous présentons plusieurs méthodes de segmentation d'images de muscles, toutes en rapport avec l'algorithme dit du marcheur aléatoire (MA). L'algorithme du MA, qui utilise une représentation en graphe de l'image, est connu pour être robuste dans les cas où les contours des objets sont manquants ou incomplets et pour son optimisation numérique rapide et globale. Dans sa version initiale, l'utilisateur doit d'abord segmenter de petites portions de chaque région de l'image, appelées graines, avant de lancer l'algorithme pour compléter la segmentation. Notre première contribution au domaine est un algorithme permettant de générer et d'étiqueter automatiquement toutes les graines nécessaires à la segmentation. Cette approche utilise une formulation en champs aléatoires de Markov, intégrant une connaissance à priori de l'anatomie et une détection préalable des contours entre des paires de graines. Une deuxième contribution vise à incorporer directement la connaissance à priori de la forme des muscles à la méthode du MA. Cette approche conserve l'interprétation probabiliste de l'algorithme original, ce qui permet de générer une segmentation en résolvant numériquement un grand système linéaire creux. Nous proposons comme dernière contribution un cadre d'apprentissage pour l'estimation du jeu de paramètres optimaux régulant l'influence du terme de contraste de l'algorithme du MA ainsi que des différents modèles de connaissance à priori. La principale difficulté est que les données d'apprentissage ne sont pas entièrement supervisées. En effet, l'utilisateur ne peut fournir qu'une segmentation déterministe de l'image, et non une segmentation probabiliste comme en produit l'algorithme du MA. Cela nous amène à faire de la segmentation probabiliste optimale une variable latente, et ainsi à formuler le problème d'estimation sous forme d'une machine à vecteurs de support latents (latent SVM). Toutes les méthodes proposées sont testées et validées sur des volumes de muscles squelettiques acquis par IRM dans un cadre clinique.
|
37 |
Color characterization of a new laser printing system / Caractérisation des couleurs d'un nouveau système d'impression laserMartinez Garcia, Juan Manuel 16 September 2016 (has links)
Grâce aux progrès récents dans le domaine des nanotechnologies il est maintenant possible de colorer des plaques de verre avec du dioxyde de titane contenant de l’argent par irradiation laser. L’une des caractéristiques de ce procédé est que le rendu couleur des échantillons produits diffère quand ceux-ci sont observés en réflexion (spéculaire ou diffuse) ou en transmission, ainsi que quand on polarise la lumière. Ce nouveau procédé d’impression laser que l’on a appelé PICSLUP (pour Photo-Induced Colored Silver LUster Printing system) permet de produire des images couleur gonio-apparentes.L’objectif de cette thèse est de caractériser l’apparence couleur (d’un point de vus colorimétrique et photométrique, et ce selon plusieurs géométries d’observation) de plaques de verre colorées par ce procédé. Ce qui pose de nombreux challenges techniques du fait que le système d’impression utilisé est encore en cours de développement et pas souvent accessible, du fait également de plusieurs spécificités photométriques (surface fortement translucide, fortement spéculaire, forte gonio-chromaticité). Afin de lever de toutes ces contraintes techniques notre première approche a été de caractériser la couleur grâce à un imageur monté sur un microscope. Nous avons pour cela généré par impression laser (avec le système PICSLUS) tout un ensemble d’échantillons couleur en faisant varier de manière exhaustive différents paramètres d’impression (temps d’exposition du faisceau laser, longueur d’onde, distance focale). Afin d’obtenir des mesures couleur précises nous avons ensuite développé une méthode de calibrage couleur spécifique dédiée à la mesure de surfaces fortement spéculaires. La précision de cette méthode de calibrage, appliquée aux échantillons créés par le système PICSLUP, est comparable à celles relevées dans l’état de l’art. À partir des couleurs obtenues on peut estimer la gamme des couleur (color gamut) qui peut être obtenue par ce système d’impression, en particulier pour la géométrie spéculaires 0º:0º, et étudier l’influence des différents paramètres d’impression ainsi que l’effet de la polarisation. Quoique les mesures réalisées sous microscope avec la géométrie spéculaire 0°:0° soient particulièrement utile pour étudier les propriétés colorimétriques et photométriques produites par le système PICSLUP, ces mesures ne sont pas suffisantes pour caractériser complètement ce système. En effet, l’apparence couleur des échantillons produits varie également en fonction de la géométrie d’éclairement et d’observation, il est donc nécessaire de caractériser le système PICSLUP selon d’autres géométries que la seule géométrie 0°:0°. Nous avons donc développé une autre méthode de caractérisation basée sur l’utilisation d’un imageur hyperspectral à géométrie ajustable, ce qui nous a permis de caractériser un ensemble donné d’échantillons couleur produits par le système PICSLUP. Ces échantillons ont été mesurés, en recto-verso, en transmission (avec la géométrie 0°:0°), en réflexion spéculaire (avec la géométrie 15°:15°), et en réflexion hors spéculaire (avec la géométrie 45°:0°). Grâce à ces mesures on a pu estimer pour différentes géométries d’observation les changements de gamme des couleurs qui peuvent être obtenus par le système PICSLUP. Le volume qui circonscrit chacune de ces gammes de couleur peut être modélisé par une forme concave qui contient beaucoup de zones éparses, ce qui revient à dire que certaines couleurs ne peuvent être directement obtenues par impression. Afin d’obtenir une forme convexe, plus dense quelque soit la zone d’étude considérée, nous avons testé avec succès une nouvelle méthode d’impression qui consiste non plus à imprimer des aplats (zones uniformément colorées par juxtaposition de lignes laser identiques) mais à imprimer des demi-tons (par juxtaposition de lignes laser de différentes couleurs). Cette méthode est basée sur le principe de l’halftoning et sur un nombre limité de primaires couleur pré-sélectionnées / Recent progresses in nanotechnologies enabled the coloration of glass plates coated with titanium dioxide containing silver by laser irradiation. The colored samples display very different colors when obtained by reflection or transmission of light; in specular or off-specular directions; and with or without polarizing filters. This new laser printing technology, that we call PICSLUP (for Photo-Induced Colored Silver LUster Printing system), enables the production of gonioapparent color images.The goal of this study is to perform a multi-geometry photometric and color characterization of this complex system. This task posed technical challenges due to the system being in a development stage, especially a low availability of the printing material; and due to the photometric properties of the prints: high translucency, high specularity and strong goniochromaticity. In order to overcome these constraints, our first approach was based on color characterization by microscope imaging. The data set used consisted in printing an exhaustive number of micrometric color patches, produced by varying the different laser printing parameters: exposure time, laser wavelength, laser power, and laser focusing distance. To achieve accurate color measurements with samples produced with the PICSLUS system, we successfully developed a color calibration method especially tailored for highly specular materials, whose accuracy is good in comparison to previous studies in the literature on camera color calibration. From the colors obtained, we could estimate the color gamut in the 0º:0º specular reflection geometry and study the influence of the different printing parameters as well as polarization. Although the measurements with microscope imaging in the 0°:0° specular geometry were very useful to study the properties of the colors produced by the PICSLUP technology, they were not sufficient to fully characterize the system, since the samples exhibit very different colors according to the respective positions of the viewer and the light source. With this in mind, we assembled a geometry-adjustable hyperspectral imaging system, which allowed us to characterize a representative subset of the colors that can be produced with the system. The samples were measured from both recto and verso faces, in the 0°:0° transmission, 15°:15° specular reflection, and 45°:0° off-specular reflection illumination/observation geometries. From these measurements, the color gamuts of the system were estimated in the different geometries. The volumes delimited by the colors obtained were concave and contained many sparse regions with very few samples. In order to obtain more continuous, dense and convex color gamut volumes, we successfully tested the generation of new colors by juxtaposing printed lines of different primaries with halftoning techniques. In order to circumvent the need to physically characterize all the different color that can be produced with halftoning using the numerous primaries available, we also tested and fitted existing halftoning prediction models, and obtained a satisfactory accuracy. The use of halftoning not only increased the number colors that can be produced by the system in the different geometries, but also increased the number of different primaries that can be produced when we consider as a whole the set of colors produced by the same printed patch in multiple geometries. Finally, based on the different properties demonstrated by the samples produced by the PISCLUP system, we explored some imaging and security features with colors obtained from our characterization, and propose further potential applications for this new goniochromatic laser printing technology
|
38 |
Quelques applications des fonctions a variation bornée en dimension finie et infinieGoldman, Michael 09 December 2011 (has links) (PDF)
Cette thèse a pour but d'étudier quelques applications des fonctions à variation bornée et des ensembles de périmètre fini. Nous nous intéressons en particulier à des applications en traitement d'images et en géométrie de dimension finie et infinie. Nous étudions tout d'abord une méthode dite Primale-Duale proposée par Appleton et Talbot pour la résolution de nombreux problèmes en traitement d'images. Nous réinterprétons cette méthode sous un oeil nouveau, ce qui aide à mieux la comprendre mathématiquement. Ceci permet par exemple de démontrer sa convergence et d'établir de nouvelles estimations a posteriori qui sont d'une grande importance pratique. Nous considérons ensuite le problème de courbure moyenne prescrite en milieu périodique. A l'aide de la théorie des ensembles de périmètre fini, nous démontrons l'existence de solutions approchées compactes de ce problème. Nous étudions également le comportement asymptotique de ces solutions lorsque leur volume tend vers l'infini. Les deux dernières parties de la thèse sont consacrées à l'étude de problèmes géométriques dans les espaces de Wiener. Nous étudions d'une part les liens entre symétrisations, semi-continuité et inégalités isopérimétriques ce qui permet d'obtenir un résultat d'approximation et de relaxation pour le périmètre dans ces espaces de dimension infinie. Nous démontrons d'autre part la convexité des solutions de certains problèmes variationnels dans ces espaces, en développant au passage l'étude de la semi-continuité et de la relaxation dans ce contexte.
|
39 |
Régularisation d´images sur des surfaces non-planesLopez Perez, Lucero Diana 15 December 2006 (has links) (PDF)
Nous nous intéressons aux approches par EDP pour la régularisation d´images scalaires et multivaluées définies sur des supports non plans et à leurs applications à des problèmes de traitement des images. Nous étudions la relation entre les méthodes existantes et les comparons en termes de performance et complexité d´implémentation. Nous développons de nouvelles méthodes numériques pour traiter des opérateurs de type divergence utilisés dans les méthodes de régularisation par EDPs sur des surfaces triangulées. Nous généralisons la technique de régularisation du Flot de Beltrami pour le cas des images définies sur des surfaces implicites et explicites. Des implémentations sont proposées pour ces méthodes, et des expériences sont exposées. Nous montrons aussi une application concrète de ces méthodes à un problème de cartographie rétinotopique.
|
40 |
Caractérisation de la neige, du névé et de la glace par traitement d'images.Gay, Michel 22 October 1999 (has links) (PDF)
Il est maintenant admis que les activités humaines, de par l'ampleur qu'elles ont atteinte depuis l'ère industrielle, sont susceptibles de modifier le climat terrestre (IPCC, 1996). Les paléodonnées climatiques et les modèles d'évolution climatique démontrent que les calottes polaires sont particulièrement sensibles aux changements climatiques globaux. De plus elles sont susceptibles de jouer un rôle important mais inconnu à ce jour, sur le niveau des mers. Le terme positif du bilan de masse des calottes polaires est l'accumulation de neige, le terme négatif est constitué par l'écoulement de la glace vers les océans. La taille des calottes polaires et de leur environnement hostile limitent la quantité de données de terrain disponibles. Seule la télédétection satellitaire est en mesure de fournir des informations sur des échelles géographiques aussi grandes que celles de l'Antarctique ou de l'Arctique et d'en effectuer un suivi régulier dans le temps. Mais pour être facilement interprétées, afin d'en déduire les caractéristiques du manteau neigeux observé depuis l'espace (taille, forme de grains, rugosité de surface...), les données satellitaires doivent être validées et inversées à l'aide de paramétrisations simples. C'est donc en préalable à l'établissement de ces relations, qu'il est nécessaire de développer des modèles de réflectance de la neige (thèse C. Leroux 1996) prenant en compte les caractéristiques physiques et optiques de la neige, et des modèles d'émissivité micro-ondes (thèse S. Surdyck 1993) qui fournissent des informations de volume sur la morphologie du manteau neigeux. Le manteau neigeux est caractérisé par plusieurs paramètres physiques qui dépendent de la profondeur : la température, la densité, la taille et la forme des grains principalement. Il est alors indispensable d'établir une paramétrisation robuste et simple de la taille et de la forme des grains de neige à partir de leur observation. Un moyen d'observation et de mesure est le traitement d'images qui va permettre d' établir ces relations et qui va permettre un traitement automatique d'un grand nombre de données indépendamment de l'observateur. Un autre problème glaciologique, du névé est l'interprétation des données issues de l'analyse des gaz piégés dans les bulles d'air. Cette étude implique, en particulier, la datation de la glace dans le névé lors de la fermeture des pores, indispensable pour déterminer dans la glace profonde l'age du gaz par rapport à la glace qui l'emprisonne. En effet la datation des gaz contenus dans les bulles des carottes de glace s'effectue à partir de l'age de la glace, par conséquent, elle nécessite la connaissance de la différence d'age entre les gaz et la glace lors de la fermeture des pores. A la fermeture des pores, le calcul de l'age de la glace nécessite un modèle de densification et celui de l'age des gaz un modèle de transport dans le névé (thèse L. Amaud 1997). Ces deux modélisations seront pleinement exploitées uniquement si la densité à la fermeture des pores est connue avec précision, d'où le développement d'un troisième modèle physique de la fermeture des pores dans le névé polaire. Les carottages réalisés depuis quelques années dans les régions centrales de l'Antarctique et du Groenland permettent d'obtenir des données expérimentales essentielles pour caractériser le névé polaire. Seul le traitement automatique des images issues de ces données est capable de fournir les paramètres de structure introduits dans les modèles de densification, de fermeture des pores, et de diffusion des gaz. Un autre aspect étudié au Laboratoire de Glaciologie est l'augmentation de la taille moyenne des cristaux de glace (ou grains) avec la profondeur ou l'age de la glace. Ce grossissement des cristaux a été décrit dans la littérature glaciologique (Gow 1969, 1971 et 1975 ; Narita et al. 1978 ; Duval et Lorius 1980 ;A11ey et al. 1982 ; Duval 1985 ; Alley et Bentley 1988). Les analyses des lames minces de glace permettant de déterminer ces lois de grossissement des grains, jusqu'à présent manuelles vont maintenant être réalisées automatiquement par traitement d'images 2D. L'augmentation de la taille moyenne ne représente qu'un seul paramètre des modifications de la microstructirre de la glace liées au grossissement normal des grains. L'utilisation du traitement d'image appliqué à l'étude de ces microstructures va permettre l'observation et l'analyse de ces microstructures en terme d'évolution des distributions de taille et en terme d'évolution de la topologie des grains.
|
Page generated in 0.0994 seconds