Spelling suggestions: "subject:"dualité d'image"" "subject:"actualité d'image""
1 |
Étude de l'incidence des coïncidences triples simulées et mesurées à partir de systèmes TEP pixélisés sur les critères de qualité d'image / Study on the incidence of simulated and measured triple coincidences from pixelated PET system on image quality criteriaClerk-Lamalice, Julien January 2015 (has links)
Résumé : En tomographie d'émission par positrons (TEP), les données sont enregistrées par la détection de paires de photons de haute énergie (511~keV) en coïncidence. Or, dans un système de détection pixélisé, comme celui des scanners LabPET, la diffusion Compton dans les cristaux voisins entraîne la détection fréquente d'événements multiples, présentement rejetés dans le processus de reconstruction des images. Ces événements multiples peuvent augmenter l'efficacité de détection du scanner de façon significative, mais il reste à démontrer que l'inclusion de ces coïncidences peut améliorer la sensibilité sans affecter les critères de qualité des images, tels que la résolution spatiale et le contraste. Le but du projet est de démontrer l'influence de l'inclusion de ces événements dans le processus de reconstruction d'images. Les méthodes à critères fixes seront utilisées pour sélectionner les coïncidences triple obtenues à partir de données simulées à l’aide du logiciel de simulation GATE (« Geant4 Application for Tomographic Emission ») et de mesures réelles effectuées sur les scanners LabPET. // Abstract : In positron emission tomography, data are acquired by detecting pairs of high energy photons
(511 keV) in coincidence. Thus, in a highly pixelated system such as the LabPET
scanner, Compton diffusion in neighboring crystals can trigger the detection of multiple
events (multiple coincidences) which are currently rejected from the reconstruction process. These multiple events can increase significantly the scanner’s detection efficiency, but it remains to be demonstrated that they can be used to increase sensitivity in the images without decreasing image quality criteria, such as the spatial resolution and contrast. The goal of this work is to demonstrate the influence of including these events in the image reconstruction process. Fixed criteria methods were used to select triple coincidences obtained from simulated data from the GATE (Geant4 Application for Tomography Emission) software and real measurements from the LabPET scanner.
|
2 |
Adapting iris feature extraction and matching to the local and global quality of iris image / Comparaison des personnes par l'iris : adaptation des étapes d'extraction de caractéristiques et de comparaison à la qualité locale et globale des images d'entréesCremer, Sandra 09 October 2012 (has links)
La reconnaissance d'iris est un des systèmes biométriques les plus fiables et les plus précis. Cependant sa robustesse aux dégradations des images d'entrées est limitée. Généralement les systèmes basés sur l'iris peuvent être décomposés en quatre étapes : segmentation, normalisation, extraction de caractéristiques et comparaison. Des dégradations de la qualité des images d'entrées peuvent avoir des répercussions sur chacune de ses étapes. Elles compliquent notamment la segmentation, ce qui peut engendrer des images normalisées contenant des distorsions ou des artefacts non détectés. De plus, la quantité d'information disponible pour la comparaison peut être réduite. Dans cette thèse, nous proposons des solutions pour améliorer la robustesse des étapes d'extraction de caractéristiques et de comparaison à la dégradation des images d'entrées. Nous travaillons avec deux algorithmes pour ces deux étapes, basés sur les convolutions avec des filtres de Gabor 2D, mais des processus de comparaison différents. L'objectif de la première partie de notre travail est de contrôler la qualité et la quantité d'information sélectionnée pour la comparaison dans les images d'iris normalisées. Dans ce but nous avons défini des mesures de qualité locale et globale qui mesurent la quantité d'occlusions et la richesse de la texture dans les images d'iris. Nous utilisons ces mesures pour déterminer la position et le nombre de régions à exploiter pour l'extraction. Dans une seconde partie de ce travail, nous étudions le lien entre la qualité des images et les performances de reconnaissance des deux algorithmes de reconnaissance décrits ci-dessus. Nous montrons que le second est plus robuste aux images dégradées contenant des artefacts, des distorsions ou une texture pauvre. Enfin, nous proposons un système complet pour la reconnaissance d'iris, qui combine l'utilisation de nos mesures de qualités locale et globale pour optimiser les performances des algorithmes d'extraction de caractéristiques et de comparaison / Iris recognition has become one of the most reliable and accurate biometric systems available. However its robustness to degradations of the input images is limited. Generally iris based systems can be cut into four steps : segmentation, normalization, feature extraction and matching. Degradations of the input image quality can have repercussions on all of these steps. For instance, they make the segmentation more difficult which can result in normalized iris images that contain distortion or undetected artefacts. Moreover the amount of information available for matching can be reduced. In this thesis we propose methods to improve the robustness of the feature extraction and matching steps to degraded input images. We work with two algorithms for these two steps. They are both based on convolution with 2D Gabor filters but use different techniques for matching. The first part of our work is aimed at controlling the quality and quantity of information selected in the normalized iris images for matching. To this end we defined local and global quality metrics that measure the amount of occlusion and the richness of texture in iris images. We use these measures to determine the position and the number of regions to exploit for feature extraction and matching. In the second part, we study the link between image quality and the performance of the two recognition algoritms just described. We show that the second one is more robust to degraded images that contain artefacts, distortion or a poor iris texture. Finally, we propose a complete system for iris recognition that combines the use of our local and global quality metrics to optimize recognition performance
|
3 |
Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielleMichaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
|
4 |
Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielleMichaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
|
5 |
Caractérisation multidimensionnelle de la qualité d'expérience en télévision de la TV3D stéréoscopiqueChen, Wei 23 October 2012 (has links) (PDF)
La TV 3D stéréoscopique (S-3DTV) est supposée améliorer la sensation de profondeur des observateurs mais possiblement en affectant d'autres facteurs de l'expérience utilisateur. L'évaluation subjective (avec observateurs) est la méthode la plus directe pour qualifier la qualité d'expérience (QoE). Cependant, les méthodes conventionnelles ne sont pas adaptées à l'évaluation de la QoE dans le cas de la S-3DTV. Cette thèse a pour but de, premièrement proposer de nouvelles méthodologies pour évaluer la QoE dans pareil contexte ; deuxièmement investiguer les impacts de choix technologiques de la diffusion S-3DTV sur la QoE ; troisièmement proposer des recommandations pour optimiser la QoE. Sur les aspects méthodologiques, l'idée clé repose sur une approche multidimensionnelle de la QoE via la définition de plusieurs indicateurs. La fatigue visuelle fait l'objet d'une étude expérimentale particulière en utilisant des questionnaires, tests de vision et analyse de signaux EEG dans des conditions de visualisation optimisés. D'autres indicateurs ont été mesurés pour investiguer quantitativement l'impact de l'acquisition, la représentation, la compression et la transmission du contenu S-3DTV sur la QoE. De plus, les règles améliorées de captation stéréoscopiques, de budget de profondeur "confortable", de débit de diffusion ont été élaborées et validées au travers des études expérimentales.
|
6 |
Reconstruction couleur sous faible éclairement pour des capteurs d'images en technologie CMOS / Color reconstruction in low-light conditions for CMOS image sensorsMornet, Clemence 25 November 2011 (has links)
Résumé confidentiel / Résumé confidentiel
|
7 |
Subjective quality assessment : a study on the grading scales : illustrations for stereoscopic and 2D video content / Investigation sur les échelles de l'évaluation subjective de la qualité visuelle : illustrations pour des vidéos stéréoscopiques et 2DBensaied Ghaly, Rania 05 July 2018 (has links)
Les recommandations (normes) élaborées par l'UIT (l'Union Internationale de Télécommunications) précisent avec rigueur les conditions dans lesquelles les tests subjectifs de qualité visuelle doivent avoir lieu: la salle de test, les conditions de visualisation, le protocole d'évaluation, les méthodes de post-traitement des scores accordées par les évaluateurs, etc... Pourtant, les études de l'état de l'art mettent en évidence que des nombreuses inadvertances perdurent au niveau théorique et expérimental: (1) la modélisation statistique précise des scores attribués par les observateurs humains à un certain type de contenu reste encore inconnue, (2) la différence théorique et applicative entre les évaluations sur des échelles discrètes et continues ne fait pas encore l'objet d'une étude dédiée et (3) l'impact sémantique (psycho-cognitif) des étiquettes associées à l'échelle d'évaluation est toujours invoqué mais jamais évalué. Notre thèse offre un cadre méthodologique et expérimental permettant de: 1. Modéliser avec précision statistique la distribution des scores attribués par les observateurs et évaluer l'impact pratique d'une telle modélisation, 2. Établir la relation théorique entre les scores attribués par les observateurs sur une échelle continue et une échelle discrète, 3. Établir le cadre statistique permettant de quantifier l'impact sémantique induit par les étiquettes sémantiques associées à l'échelle d'évaluation, 4. Spécifier et réaliser un cadre expérimental de référence, à vocation d'utilisation ultérieure par les instances de l'UIT / Quality evaluation is an ever-fascinating field, covering at least a century of research works emerging from psychology, psychophysics, sociology, marketing, medicine… While for visual quality evaluation the IUT recommendations pave the way towards well-configured, consensual evaluation conditions granting reproducibility and comparability of the experimental results, an in-depth analysis of the state-of-the-art studies shows at least three open challenges related to the: (1) the continuous vs. discrete evaluation scales, (2) the statistical distribution of the scores assigned by the observers and (3) the usage of semantic labels on the grading scales. Thus, the present thesis turns these challenges into three research objectives: 1. bridging at the theoretical level the continuous and the discrete scale evaluation procedures and investigating whether the number of the classes on the discrete scales is a criterion meaningful in the results interpretations or just a parameter; studying the theoretical influence of the statistical model of evolution results and of the size of the panel (number of observers) in the accuracy of the results are also targeted; 2. quantifying the bias induced in subjective video quality experiments by the semantic labels (e.g. Excellent, Good, Fair, Poor and Bad) generally associated to the discrete grading scales; 3. designing and deploying an experimental test-bed able to support their precision and statistical relevance. With respect to these objectives, the main contributions are at theoretical, methodological and experimental levels
|
8 |
La qualité d'image dans le contexte de la numérisation de livres anciens / Image quality in document scannerVinsonneau, Emile 30 March 2015 (has links)
L'objectif de cette thèse est de proposer des méthodes ou des outils de calibration permettant d'améliorer la qualité d'image dans le cadre de la numérisation de livres anciens.Le premier chapitre concerne la mise en oeuvre d'un "scanner sans éclairage". Ce scanner est matriciel et il ne contrôle pas la lumière via un éclairage artificiel. L'objectif du projet est de pouvoir corriger, par calibration ou par la mise en place d'un traitement d'image les défauts d'éclairage apparaissant sur le document. Nous verrons dans un premier chapitre les solutions possibles pour y répondre. Nous y proposerons également un moyen de segmenter le fond du document en se basant sur des pixels caractérisants le fond du document. Ce résultat permettra de reconstruire le fond puis de corriger les non-uniformités.Le deuxième chapitre concerne la mise en place d'un contrôle qualité de numérisation de livres anciens. Effectivement, la manipulation du matériel dans le contexte de la numérisation industrielle engendre des erreurs possibles de réglage. De ce fait, nous obtenons une numérisation de moindres qualités. Le contrôle se focalisera sur le flou de focus qui est le défaut le plus présent. Nous proposons dans ce chapitre de combiner différentes approches du problème permettant de le quantifier. Nous verrons que la combinaison de ces informations permet d'estimer avec précision la qualité de netteté de l'image.Le troisième chapitre évoque les problématiques de la gestion de la couleur. Pour avoir une homogénéité colorimétrique entre tous les appareils, il est indispensable que la calibration soit inférieure à un seuil visuel. Les contraintes industrielles ont de nombreux critères et il est difficile de tous les respecter. L'objectif de ce chapitre est de récapituler comment mettre en place un système permettant de calibrer la couleur avec toutes ces contraintes. Puis, il s'agit de comprendre comment créer une transformation entre l'espace de couleur de l'appareil et l'espace de couleur de connexion (l'espace L*a*b*). Nous verrons que la solution de ce problème se résout par une régression polynomiale dont le degré du polynôme varie en fonction du nombre de mesures faite sur la mire colorimétrique. / The goal of this thesis is to add some tools in order to upgrade image quality when scanning with book digitization.First Chapter talks about image scanner whitout lighting control. This problem focuses to document camera. The goal is to correct lighting. We will see some corrections and we will suggest our method. For this part, we detect pixel's background document and we will rebuild the background of the image by them. With this information, we can correct lighting.Second chapter presents some way to do quality control after digitization, specially out of focus problem. We will enumerate different point of view to analyse and to estimate this information. To validate descriptors, we suggest to blur any picture and to compute blur estimation in order to evaluate precision. After that, we propose to combinate descriptors by machine learning.Third chapter mentions color management problem. Every image devices need to be calibrated. This chapter will expose how to calibrate scanner and explain it. We will see that L*a*b* color space is the connection profil space. To calibrate color, we must transform scanner color space to L*a*b*. We will see, in order to convert information, solution depends color chart used but we show a link between the function and thenumber of patch.
|
9 |
Quality strategy and method for transmission : application to image / Évaluation de la qualité des images dans un contexte de transmissionXie, Xinwen 10 January 2019 (has links)
Cette thèse porte sur l’étude des stratégies d’amélioration de la qualité d’image dans les systèmes de communication sans fil et sur la conception de nouvelles métriques d’évaluation de la qualité. Tout d'abord, une nouvelle métrique de qualité d'image à référence réduite, basée sur un modèle statistique dans le domaine des ondelettes complexes, a été proposée. Les informations d’amplitude et de phase relatives des coefficients issues de la transformée en ondelettes complexes sont modélisées à l'aide de fonctions de densité de probabilité. Les paramètres associés à ces fonctions constituent la référence réduite qui sera transmise au récepteur. Ensuite, une approche basée sur les réseaux de neurones à régression généralisée est exploitée pour construire la relation de cartographie entre les caractéristiques de la référence réduite et le score objectif.Deuxièmement, avec la nouvelle métrique, une nouvelle stratégie de décodage est proposée pour la transmission d’image sur un canal de transmission sans fil réaliste. Ainsi, la qualité d’expérience (QoE) est améliorée tout en garantissant une bonne qualité de service (QoS). Pour cela, une nouvelle base d’images a été construite et des tests d’évaluation subjective de la qualité de ces images ont été effectués pour collecter les préférences visuelles des personnes lorsqu’elles sélectionnent les images avec différentes configurations de décodage. Un classificateur basé sur les algorithmes SVM et des k plus proches voisins sont utilisés pour la sélection automatique de la meilleure configuration de décodage.Enfin, une amélioration de la métrique a été proposée permettant de mieux prendre en compte les spécificités de la distorsion et la préférence des utilisateurs. Pour cela, nous avons combiné les caractéristiques globales et locales de l’image conduisant ainsi à une amélioration de la stratégie de décodage.Les résultats expérimentaux valident l'efficacité des métriques de qualité d'image et des stratégies de transmission d’images proposées. / This thesis focuses on the study of image quality strategies in wireless communication systems and the design of new quality evaluation metrics:Firstly, a new reduced-reference image quality metric, based on statistical model in complex wavelet domain, has been proposed. The magnitude and the relative phase information of the Dual-tree Complex Wavelet Transform coefficients are modelled by using probability density function and the parameters served as reduced-reference features which will be transmitted to the receiver. Then, a Generalized Regression Neural Network approach is exploited to construct the mapping relation between reduced-reference feature and the objective score.Secondly, with the new metric, a new decoding strategy is proposed for a realistic wireless transmission system, which can improve the quality of experience (QoE) while ensuring the quality of service (QoS). For this, a new database including large physiological vision tests has been constructed to collect the visual preference of people when they are selecting the images with different decoding configurations, and a classifier based on support vector machine or K-nearest neighboring is utilized to automatically select the decoding configuration.Finally, according to specific property of the distortion and people's preference, an improved metric has been proposed. It is the combination of global feature and local feature and has been demonstrated having a good performance in optimization of the decoding strategy.The experimental results validate the effectiveness of the proposed image quality metrics and the quality strategies.
|
Page generated in 0.0631 seconds