• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 10
  • 10
  • 10
  • 7
  • 6
  • 6
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Élaboration d'une technique de tatouage vidéo basée sur la perturbation des vecteurs de mouvement

Bodo, Yann 11 1900 (has links) (PDF)
L'essor du multimédia et des supports numériques, qui permettent l'obtention d'une copie parfaite, conduise de plus en plus les fournisseurs de contenus à se poser le problème du piratage des données. La protection et le tatouage des media numériques sont rapidement devenus un axe majeur de recherche dans le domaine du traitement d'images. La problématique que nous posons dans cette thèse est de proposer une solution globale de protection des contenus vidéo. Pour ce faire, nous proposons deux approches fondées sur une perturbation des vecteurs de mouvement. La première consiste à se servir des vecteurs de mouvement pour embrouiller une séquence. La seconde, quant à elle, utilise aussi les vecteurs de mouvement afin d'insérer une marque invisible et robuste. Ces deux solutions peuvent être ainsi combinée afin de former un système de protection globale d'une vidéo. Nous proposons dans le chapitre 1, un état de l'art sur les techniques d'embrouillage et les motivations amenant à développer de tels systèmes. Dans le chapitre 2, nous présentons les principes généraux du tatouage ainsi qu'un aperçu des principales techniques utilisées en tatouage vidéo. Ensuite, nous poursuivons au chapitre 3 sur la présentation d'une solution d'embrouillage, basée sur la perturbation des vecteurs de mouvement d'un flux vidéo compressé suivant la norme MPEG4. Nous poursuivons ensuite sur l'élaboration d'un algorithme de tatouage dans le domaine non compressé, basé sur la perturbation locale des vecteurs de mouvement, au sein de la vidéo. Dans le chapitre 4, nous examinons la problématique de l'invisibilité de notre approche, en relation avec les problèmes soulevés au chapitre précédent. Dans cette optique, nous présentons un état de l'art sur les caractéristiques du système visuel humain, pour poursuivre sur un exposé des principales métriques utilisées en vidéo. Nous proposons en fin de chapitre les algorithmes que nous avons mis en place, permettant de minimiser l'impact visuel de notre système de tatouage. Enfin, dans le chapitre 5 nous concluons sur notre approche, et présentons les différentes perspectives d'évolution de notre algorithme.
2

Etude des techniques de camouflage : élaboration d’un algorithme adaptatif / Study of camouflage : development of an adaptative algorithm

Gosseaume, Julien 22 October 2015 (has links)
Le principe du camouflage est le suivant : utiliser les couleurs de l’environnement pour s’y fondre. De l’apparition du camouflage français en 1914 à aujourd’hui, les techniques ont évolué. Les textures de camouflage ne sont plus monochromes mais composées de 3 à 4 couleurs différentes réparties sous formes de « taches ». Pour les camouflages les plus sophistiqués, la texture est « pixellique » pour en accroître l’efficacité, selon les études de Timothy R. O’NEILL, père du camouflage moderne. Cependant ces techniques se révèlent insuffisantes face à la diversité des théâtres opérations, et le coût est élevé pour adapter le camouflage à chaque situation particulière. L’évolution du camouflage atteint donc un palier. Son aspect statique est identifié comme barrière majeure à toute amélioration. Seule solution : concevoir un camouflage « adaptatif », qui s’adapterait dynamiquement à l’environnement dans lequel il est utilisé. Le camouflage adaptatif se définit comme suit : l’affichage d’une texture particulière sur un réseau d’afficheurs, piloté par un algorithme. Et c’est sur cet algorithme de camouflage, appelé « SCOTT », qu’ont porté les travaux de thèse. SCOTT est un algorithme biologiquement inspiré qui extrait d’une image de l’environnement ses couleurs et formes « dominantes », au sens de « visuellement importantes ». Ces caractéristiques sont ensuite reproduites dans une texture de camouflage fractale permettant une efficacité à différentes échelles d’observation. Bien qu’à vocation militaire, SCOTT peut être utilisé dans divers applications civiles, à commencer par la réduction de la pollution visuelle, en améliorant l’esthétique d’objets « polluants », par exemple les armoires de répartition. / The principle of camouflage is the following one: use the colors of the environment to melt in it. From the appearance of the French camouflage, in 1914, to today, the techniques have evolved. Camouflage textures are no more monochromatic but composed of 3 to 4 different colors distributed in the form of «spots». For the most sophisticated camouflages, the texture is «pixelated» to increase efficiency, according to studies by Timothy R. O’Neill, father of modern camouflage. However, these techniques are insufficient to diversity of operations, and the cost is high to suit each particular situation. The evolution of camouflage reaches a plateau. Its static aspect is identified as a major barrier to improvement. Only one solution: design an «adaptive» camouflage, which dynamically adapt itself to the environment in which it is used. Adaptive Camouflage is defined as displaying a special texture on a network of displays, controlled by an algorithm. The thesis work is about this camouflage algorithm called «SCOTT». SCOTT is a biologically inspired algorithm which extracts the «dominant» colors and shapes of the image of an environment, that is the visually meaning ones. These characteristics are then replicated in a fractal camouflage texture enabling efficiency at different scales of observation. Although SCOTT has been designed for a military application, it can be used in a variety of civilian applications, starting with the reduction of visual pollution, by improving the aesthetics of “polluting” objects, such as shelters.
3

Gestion de données pour la visualisation de maquettes numériques en environnement virtuel immersif: application au design automobile

Paillot, Damien 11 1900 (has links) (PDF)
Les techniques de la réalité virtuelle constituent de nouveaux outils pour les métiers de la conception de produits manufacturés et offrent des gains en terme d'innovation, de temps et d'argent. L'enjeu industriel est l'intégration de ces techniques dans le cycle de conception du produit. Ces techniques doivent ainsi s'interfacer avec les différents corps de métiers et pouvoir être en phase avec le rythme des mises à jour des modèles numériques. La problématique technologique posée est relative à la gestion des données géométriques produites par les bureaux d'études en conception assistée par ordinateur. Ces données sont exhaustives, très nombreuses et ne sont pas manipulables dans un dispositif de réalité virtuelle en raison des contraintes de temps de calcul. Une maquette numérique, possédant une quantité d'informations maîtrisée et dédiée à la réalité virtuelle, est alors nécessaire. Ces travaux ont pour objectif d'apporter des méthodes et outils permettant l'utilisation des techniques de l'immersion virtuelle par les métiers du design automobile. Une chaîne de conversion, simplification et optimisation des données en fonction des critères des métiers du design automobile est proposée pour la création d'une maquette numérique dédiée à l'immersion virtuelle. La gestion en temps réel des données de cette maquette numérique est effectuée en fonction de critères de visualisation de la scène dans un contexte d'immersion virtuelle.
4

Line element and variational methods for color difference metrics / Lignes géodésiques et méthodes différentielles pour les métriques de différence couleur

Pant, Dibakar Raj 17 February 2012 (has links)
Afin de pouvoir apparier de manière précise les couleurs il est essentiel de prendre en compte la sensibilité visuelle à percevoir de petites différences de couleur. Les petites différences de couleur peuvent être mesurées par des ellipses qui décrivent les différences justes observables (just noticeable difference - JND). Ces ellipses décrivent la faculté du Système Visuel Humain à discriminer des couleurs très peu différentes. D'un point de vue mathématique, ces ellipses peuvent être modélisées par une fonction différentielle positive de forme quadratique, caractéristique de ce que l'on appelle communément une métrique Riemannienne. La métrique Riemannienne peut être considérée comme un outil utile pour évaluer l'adéquation, la robustesse et la précision, d'un espace couleur ou d'une métrique couleur, à décrire, à mesurer, correctement les différences de couleur telles qu'elles sont perçues par le Système Visuel Humain. L'un des particularités de cette métrique est qu'elle modélise la plus petite distance qui sépare deux couleurs dans un espace couleur par une ligne géodésique. Selon l'hypothèse de Schrödinger les lignes géodésiques qui partent d'un point neutre d'une surface de luminosité constante décrivent des courbes de teinte constante. Les contours de chrominance (chroma) forment alors des courbes fermées à intervalles constants à partir de ce point neutre situées à une distance constante des lignes géodésiques associées à ces teintes constances. Cette hypothèse peut être utilisée pour tester la robustesse, la précision, des formules mathématiques utilisées pour mesurer des différences couleur (color difference formulas) et pour prédire quelle valeurs peuvent prendre tel ou tel attribut perceptuel, ex. la teinte et la saturation (hue and chroma), ou telle distribution de stimulus couleur, dans n'importe quel espace couleur. Dans cette thèse, nous présentons une méthode qui permet de modéliser les éléments de ligne (lignes géodésiques), correspondants aux formules mathématiques Delta E * ab, Delta E * uv, OSA-UCS Delta EE utilisées pour mesurer des différences couleur, ainsi que les éléments de ligne correspondants à l'approximation infinitésimales du CIEDE2000. La pertinence de ces quatre formules mathématiques a été évaluée par comparaison, dans différents plans de représentation chromatique, des ellipses prédites et des ellipses expérimentalement obtenues par observation visuelle. Pour chacune de ces formules mathématiques, nous avons également testé l'hypothèse de Schrödinger, en calculant à partir de la métrique Riemannienne, les lignes géodésiques de teinte et les contours de chroma associés, puis en comparant les courbes calculées dans l'espace couleur CIELAB avec celles obtenues dans le système Munsell. Les résultats que nous avons obtenus démontrent qu'aucune de ces formules mathématiques ne prédit précisément les différences de couleur telles qu'elles sont perçues par le Système Visuel Humain. Ils démontrent également que les deux dernières formules en date, OSA-UCS Delta EE et l'approximation infinitésimale du CIEDE2000, ne sont pas plus précises que les formules conventionnelles calculées à partir des espaces couleur CIELAB et CIELUV, quand on se réfère au système Munsell (Munsell color order system) / Visual sensitivity to small color difference is an important factor for precision color matching. Small color differences can be measured by the line element theory in terms of color distances between a color point and neighborhoods of points in a color space. This theory gives a smooth positive definite symmetric metric tensor which describes threshold of color differences by ellipsoids in three dimensions and ellipses in two dimensions. The metric tensor is also known as the Riemannian metric tensor. In regard to the color differences, there are many color difference formulas and color spaces to predict visual difference between two colors but, it is still challenging due to the nonexistence of a perfect uniform color space. In such case, the Riemannian metric tensor can be used as a tool to study the performance of various color spaces and color difference metrics for measuring the perceptual color differences. It also computes the shortest length or the distance between any two points in a color space. The shortest length is called a geodesic. According to Schrödinger's hypothesis geodesics starting from the neutral point of a surface of constant brightness correspond to the curves of constant hue. The chroma contours are closed curves at constant intervals from the origin measured as the distance along the constant hue geodesics. This hypothesis can be utilized to test the performance of color difference formulas to predict perceptual attributes (hue and chroma) and distribution of color stimulus in any color space. In this research work, a method to formulate line element models of color difference formulas the ΔE*ab, the ΔE*uv, the OSA-UCS ΔEE and infinitesimal approximation of CIEDE2000 (ΔE00) is presented. The Jacobian method is employed to transfer their Riemannian metric tensors in other color spaces. The coefficients of such metric tensors are used to compute ellipses in two dimensions. The performance of these four color difference formulas is evaluated by comparing computed ellipses with experimentally observed ellipses in different chromaticity diagrams. A method is also developed for comparing the similarity between a pair of ellipses. The technique works by calculating the ratio of the area of intersection and the area of union of a pair of ellipses. Similarly, at a fixed value of lightness L*, hue geodesics originating from the achromatic point and their corresponding chroma contours of the above four formulas in the CIELAB color space are computed by solving the Euler-Lagrange equations in association with their Riemannian metrics. They are compared with with the Munsell chromas and hue circles at the Munsell values 3, 5 and 7. The result shows that neither formulas are fully perfect for matching visual color difference data sets. However, Riemannized ΔE00 and the ΔEE formulas measure the visual color differences better than the ΔE*ab and the ΔE*uv formulas at local level. It is interesting to note that the latest color difference formulas like the OSA-UCS ΔEE and the Riemannized ΔE00 do not show better performance to predict hue geodesics and chroma contours than the conventional CIELAB and CIELUV color difference formulas and none of these formulas fit the Munsell data accurately
5

Masque psychovisuel à base d’ondelettes pour le Watermarking / Wavelet perceptual model for digital watermarking

Amar, Meina 21 April 2018 (has links)
Le tatouage d’images (ou watermarking) consiste à insérer de l’information de copyright, ou d’autres messages de vérification, invisible à l’oeil humain. Parmi toutes les approches possibles, le tatouage psychovisuel est le plus performant. Il consiste à utiliser les connaissances du Système Visuel Humain (SVH) pour en déduire la force du tatouage de manière optimale. Dans cette étude, nous avons proposé une nouvelle méthode de tatouage d'image psychovisuel qui combine les avantages des ondelettes à celle du domaine spatial par l’utilisation d'une représentation en ondelettes à échelle mixée (JNDEM). En considérant la densité des coefficients d'ondelettes dominants, notre système est capable de différencier les zones uniformes, celles incluant des contours, et enfin celles texturées. Nous avons sélectionné les méthodes efficaces de tatouage psychovisuel adaptée à chaque zone, à savoir celle de Chou pour les zones uniformes, de nouveau celle de Chou pour les contours, et finalement celle de Qi pour les textures. Nous avons aussi pris en compte la sensibilité du SVH qui varie avec l’orientation locale de l’image. Nous avons comparé notre JNDEM à quatre autres méthodes de tatouage de la littérature en termes de qualité visuelle et de robustesse. La méthode JNDEM conduit à une grande qualité visuelle mesurée par des tests objectifs et subjectifs. De plus elle est robuste aux attaques. Ce dernier point est d'une grande importance pour les applications réelles. En conclusion, la méthode proposée est le meilleur compromis entre la qualité visuelle et la résistance aux attaques comparée aux quatre autres méthodes testées. / Watermarking consists in inserting copyright information, or other verification messages, invisible to the human eye. Among all the possible approaches, perceptual watermarking is the most efficient. Perceptual image watermarking consists in using knowledge of the Human Visual System (HVS) to choose the strength of the watermark. In this study, we propose a new perceptual image watermarking method (JNDEM ) that combines the advantages of both the wavelet domain and the spatial domain since a mixed-scale wavelet representation is applied. By considering the density of the dominant wavelet coefficients, our scheme is able to differentiate uniform, edge and texture areas. We selected effective Just Noticeable Difference (JND) models from the literature, i.e. luminance and edge masking developed by Chou, and texture masking developed by Qi. We also took into account the HVS sensitivity which varies with the orientation of the image activity. We have compared our JNDEM to four other JND models from the literature in terms of visual quality and of robustness to attacks. Results show that the proposed method yields a high visual quality and is very robust against attacks. This last point is of great importance for real applications. In conclusion, the proposed method is the best trade-off between visual quality and resistance to attacks among the four other tested methods.
6

DE LA PERCEPTION LOCALE DES DISTORSIONS DE CODAGE A L'APPRECIATION GLOBALE DE LA QUALITE VISUELLE DES IMAGES ET VIDEOS. APPORT DE L'ATTENTION VISUELLE DANS LE JUGEMENT DE QUALITE

Ninassi, Alexandre 17 March 2009 (has links) (PDF)
Cette étude traite de l'évaluation locale des distorsions perceptuelles, de l'évaluation globale de la qualité visuelle, et de l'influence de l'attention visuelle en évaluation de qualité. Afin d'évaluer localement les distorsions dans les images, nous avons simplifié un modèle existant du système visuel humain en utilisant la transformée en ondelettes et nous avons proposé une meilleure modélisation des effets de masquage par la prise en compte du masquage semi-local. A partir de ces modèles, nous avons conçu et validé des métriques de qualité d'images. Pour les vidéos, nous avons conçu une méthode d'évaluation locale des distorsions temporelles reposant sur un cumul temporel court terme des distorsions spatiales. Celui-ci simule l'évaluation des distorsions via des mécanismes de sélection de l'attention visuelle. Une métrique de qualité s'appuyant sur cette méthode a été conçue et validée. Celle-ci est basée sur un cumul temporel long terme incorporant un comportement asymétrique et un effet de saturation perceptuelle. L'influence de l'attention visuelle sur l'évaluation de la qualité a été analysée à partir des données issues de tests oculométriques réalisés sur des images et sur des vidéos, en exploration libre et en tâche de qualité. Les résultats ont confirmé, entre autres, l'influence de la tâche de qualité sur le déploiement de l'attention visuelle. L'impact de l'attention visuelle sur l'évaluation objective de la qualité a également été étudié en utilisant l'information de saillance réelle. Nous avons montré qu'une simple pondération linéaire des distorsions par l'attention visuelle ne permettait pas d'améliorer clairement les performances des métriques de qualité.
7

Calcul du seuil de visibilité d’une distorsion géometrique locale sur un maillage et ses applications / Evaluating the visibility threshold for a local geometric distortion on a 3D mesh and its applications

Nader, Georges 22 November 2016 (has links)
Les opérations géométriques appliquées aux maillages 3D introduisent des dis torsions géométriques qui peuvent être visibles pour un observateur humain. Dans cette thèse, nous étudions l’impact perceptuel de ces distorsions. Plus précisément, notre objectif est de calculer le seuil à partir duquel les distorsions géométriques locales deviennent visibles. Afin d’atteindre notre but, nous définissons tout d’abord des caractéristiques perceptuelles pour les maillages 3D. Nous avons ensuite effectué une étude expérimentale des propriétés du système visuel humain (sensibilité au contraste et effet du masquage visuel) en observant un maillage 3D. Les résultats de ces expériences sont finalement utilisés pour proposer un algorithme qui calcule le seuil de visibilité relatif à une distorsion locale. L’algorithme proposé s’adapte aux différentes conditions d’affichage (résolution et taille de l’écran), d’illumination et au type de rendu. Enfin, nous montrons l’utilité d’un tel algorithme en intégrant le seuil de visibilité dans le pipeline de plusieurs opérations géométriques (ex: simplification, subdivision adaptative) / Geometric operations applied to a 3D mesh introduce geometric distortion in the form of vertex displacement that can be visible to a human observer. In this thesis, we have studied the perceptual impact of these geometric distortions. More precisely, our goal is to compute the threshold beyond which a local geometric distortion becomes visible. In order to reach this goal, we start by evaluating perceptually relevant properties on 3D meshes. We have then performed a series of psychophysical experiments in which we measured the visibility threshold relative to various properties of the Human Visual System (contrast sensitivity and visual masking). The results of these experiments allowed us to propose an algorithm that computes the visibility threshold relative to a local geometric distortion. This algorithm is capable of adapting to the different display condition of 3D meshes (resolution, display size, illumination condition and rendering). Finally, we showcase the utility of our work by integrating the developed perceptual method in several geometric operations such as mesh simplification and adaptive subdivision
8

Détection des émotions à partir de vidéos dans un environnement non contrôlé / Detection of emotions from video in non-controlled environment

Khan, Rizwan Ahmed 14 November 2013 (has links)
Dans notre communication quotidienne avec les autres, nous avons autant de considération pour l’interlocuteur lui-même que pour l’information transmise. En permanence coexistent en effet deux modes de transmission : le verbal et le non-verbal. Sur ce dernier thème intervient principalement l’expression faciale avec laquelle l’interlocuteur peut révéler d’autres émotions et intentions. Habituellement, un processus de reconnaissance d’émotions faciales repose sur 3 étapes : le suivi du visage, l’extraction de caractéristiques puis la classification de l’expression faciale. Pour obtenir un processus robuste apte à fournir des résultats fiables et exploitables, il est primordial d’extraire des caractéristiques avec de forts pouvoirs discriminants (selon les zones du visage concernées). Les avancées récentes de l’état de l’art ont conduit aujourd’hui à diverses approches souvent bridées par des temps de traitement trop couteux compte-tenu de l’extraction de descripteurs sur le visage complet ou sur des heuristiques mathématiques et/ou géométriques.En fait, aucune réponse bio-inspirée n’exploite la perception humaine dans cette tâche qu’elle opère pourtant régulièrement. Au cours de ces travaux de thèse, la base de notre approche fut ainsi de singer le modèle visuel pour focaliser le calcul de nos descripteurs sur les seules régions du visage essentielles pour la reconnaissance d’émotions. Cette approche nous a permis de concevoir un processus plus naturel basé sur ces seules régions émergentes au regard de la perception humaine. Ce manuscrit présente les différentes méthodologies bio-inspirées mises en place pour aboutir à des résultats qui améliorent généralement l’état de l’art sur les bases de référence. Ensuite, compte-tenu du fait qu’elles se focalisent sur les seules parties émergentes du visage, elles améliorent les temps de calcul et la complexité des algorithmes mis en jeu conduisant à une utilisation possible pour des applications temps réel. / Communication in any form i.e. verbal or non-verbal is vital to complete various daily routine tasks and plays a significant role inlife. Facial expression is the most effective form of non-verbal communication and it provides a clue about emotional state, mindset and intention. Generally automatic facial expression recognition framework consists of three step: face tracking, feature extraction and expression classification. In order to built robust facial expression recognition framework that is capable of producing reliable results, it is necessary to extract features (from the appropriate facial regions) that have strong discriminative abilities. Recently different methods for automatic facial expression recognition have been proposed, but invariably they all are computationally expensive and spend computational time on whole face image or divides the facial image based on some mathematical or geometrical heuristic for features extraction. None of them take inspiration from the human visual system in completing the same task. In this research thesis we took inspiration from the human visual system in order to find from where (facial region) to extract features. We argue that the task of expression analysis and recognition could be done in more conducive manner, if only some regions are selected for further processing (i.e.salient regions) as it happens in human visual system. In this research thesis we have proposed different frameworks for automatic recognition of expressions, all getting inspiration from the human vision. Every subsequently proposed addresses the shortcomings of the previously proposed framework. Our proposed frameworks in general, achieve results that exceeds state-of-the-artmethods for expression recognition. Secondly, they are computationally efficient and simple as they process only perceptually salient region(s) of face for feature extraction. By processing only perceptually salient region(s) of the face, reduction in feature vector dimensionality and reduction in computational time for feature extraction is achieved. Thus making them suitable for real-time applications.
9

Visual saliency extraction from compressed streams / Extraction de la saillance visuelle à partir de flux compressés

Ammar, Marwa 15 June 2017 (has links)
Les fondements théoriques pour la saillance visuelle ont été dressés, il y a 35 ans, par Treisman qui a proposé "feature-integration theory" pour le système visuel humain: dans n’importe quel contenu visuel, certaines régions sont saillantes en raison de la différence entre leurs caractéristiques (intensité, couleur, texture, et mouvement) et leur voisinage. Notre thèse offre un cadre méthodologique et expérimental compréhensif pour extraire les régions saillantes directement des flux compressés (MPEG-4 AVC et HEVC), tout en minimisant les opérations de décodage. L’extraction de la saillance visuelle à partir du flux compressé est à priori une contradiction conceptuelle. D’une part, comme suggéré par Treisman, dans un contenu vidéo, la saillance est donnée par des singularités visuelles. D’autre part, afin d’éliminer la redondance visuelle, les flux compressés ne devraient plus préserver des singularités. La thèse souligne également l’avantage pratique de l’extraction de la saillance dans le domaine compressé. Dans ce cas, nous avons démontré que, intégrée dans une application de tatouage robuste de la vidéo compressée, la carte saillance agit comme un outil d’optimisation, ce qui permet d’augmenter la transparence (pour une quantité d’informations insérées et une robustesse contre les attaques prescrites) tout en diminuant la complexité globale du calcul. On peut conclure que la thèse démontre aussi bien méthodologiquement que expérimentalement que même si les normes MPEG-4 AVC et HEVC ne dépendent pas explicitement d’aucun principe de saillance visuelle, leurs flux préservent cette propriété remarquable reliant la représentation numérique de la vidéo au mécanisme psycho-cognitifs humains / The theoretical ground for visual saliency was established some 35 years ago by Treisman who advanced the integration theory for the human visual system: in any visual content, some regions are salient (appealing) because of the discrepancy between their features (intensity, color, texture, motion) and the features of their surrounding areas. This present thesis offers a comprehensive methodological and experimental framework for extracting the salient regions directly from video compressed streams (namely MPEG-4 AVC and HEVC), with minimal decoding operations. Note that saliency extraction from compressed domain is a priori a conceptual contradiction. On the one hand, as suggested by Treisman, saliency is given by visual singularities in the video content. On the other hand, in order to eliminate the visual redundancy, the compressed streams are no longer expected to feature singularities. The thesis also brings to light the practical benefit of the compressed domain saliency extraction. In this respect, the case of robust video watermarking is targeted and it is demonstrated that the saliency acts as an optimization tool, allowing the transparency to be increased (for prescribed quantity of inserted information and robustness against attacks) while decreasing the overall computational complexity. As an overall conclusion, the thesis methodologically and experimentally demonstrates that although the MPEG-4 AVC and the HEVC standards do not explicitly rely on any visual saliency principle, their stream syntax elements preserve this remarkable property linking the digital representation of the video to sophisticated psycho-cognitive mechanisms
10

Printing quality assessment by image processing and color prediction models / Évaluation de la qualité d'impression par traitement d'images et modèles de prédiction couleur

Nébouy, David 16 December 2015 (has links)
L'impression, bien qu'étant une technique ancienne pour la coloration de surfaces, a connu un progrès considérable ces dernières années essentiellement grâce à la révolution du numérique. Les professionnels souhaitant remplir les exigences en termes de qualité du rendu visuel de leurs clients veulent donc savoir dans quelle mesure des observateurs humains sont sensibles à la dégradation d'une image. De telles questions concernant la qualité perçue d'une image reproduite peuvent être séparées en deux sujets différents: La qualité de l'impression, comme la capacité d'un système d'impression à reproduire fidèlement l'image d'origine, et la qualité d'une image imprimée, résultant à la fois de la qualité de reproduction, mais aussi de la qualité même de l'image numérique d'origine. Ce premier concept repose sur une analyse physique de la façon dont l'image d'origine est dégradée lors de son transfert sur un support, et nous proposons de la coupler avec une analyse sensorielle, visant à évaluer des attributs perceptuels et leur donner une valeur sur une certaine échelle, déterminée par des échantillons de référence classés par un ensemble d'observateurs. Le second concept inclut cette dégradation due à l’impression mais aussi la qualité perçu de l’image d’origine, qui ne fait pas parti de notre étude. Notre approche consiste d'abord à définir les différents indices de qualité, basés sur des critères mesurables en utilisant des outils d'évaluation basés sur des algorithmes "objectifs" de traitement d'image et des modèles optiques, sur une image imprimée-scannée. Thèse réalisée au Laboratoire Hubert Curien / Printing, though an old technique for surface coloration, considerably progressed these last decades especially thanks to the digital revolution. Professionals who want to meet the demands in terms of quality regarding the visual rendering of their clients thus want to know to which extent human observers are sensitive to the degradation of an image. Such questions regarding the perceived quality of a reproduced image can be split into two different topics: the printing quality as capacity of a printing system of accurately reproduce an original digital image, and the printed image quality which results from both the reproduction quality and the quality of the original image itself. The first concept relies on physical analysis of the way the original image is deteriorated when transferred onto the support, and we propose to couple it with a sensorial analysis, which aims at assessing perceptual attributes by giving them a value on a certain scale, determined with respect to reference samples classified by a set of observers. The second concept includes the degradation due to the printing plus the perceived quality of the original image, not in the scope of this work. In this report, we focus on the printing quality concept. Our approach first consists in the definition of several printing quality indices, based on measurable criteria using assessment tools based on “objective” image processing algorithms and optical models on a printed-then-scanned image. PhD work made in Hubert Curien Laboratory

Page generated in 0.0571 seconds