• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Semantic protection and personalization of video content PIAF : MPEG compliant adaptation framework preserving the user perceived quality / Protection sémantique et personnalisation du contenu de la vidéo PIAF : Un framework d'adaptation conforme à MPEG préservant la qualité perçue de l'utilisateur

Khoury, Vanessa El 23 September 2013 (has links)
Dans cette thèse, nous proposons un framework d’adaptation appelé "Personalized vIdeo Adaptation Framework" (PIAF) conçu à partir des standards MPEG. PIAF intègre les contraintes sémantiques et vise à maximiser la qualité perçue par l’utilisateur lors de la visualisation de la vidéo tout en respectant les droits de propriété intellectuelle. Les contributions de cette thèse peuvent être résumées comme suit. Dans un premier temps, nous avons utilisé et étendu les standards MPEG-7 et MPEG-21 afin de représenter les préférences des utilisateurs. Nous avons ensuite proposé un modèle formel du processus d’adaptation sémantique d’une vidéo et défini une fonction d’utilité régissant le mécanisme de prise de décision du MPDA. Cette fonction tient compte de différentes dimensions de qualité (qualité perceptuelle, sémantique, temps d’exécution nécessaire) afin d’évaluer quantitativement la qualité d’un plan d’adaptation. Le processus d’adaptation que nous proposons intègre les droits de propriété intellectuelle dans le processus de décision. Dans certains cas, le plan d’adaptation qui produirait la vidéo de meilleure qualité adaptée aux préférences de l’utilisateur peut être inapplicable car il ne respecte pas les contraintes du propriétaire. Trouver le meilleur plan d’adaptation devient alors un problème NP-complet. Nous avons proposé une solution pratique à ce problème sous la forme d’une heuristique capable de sélectionner un plan très proche de l’optimum en un temps de calcul raisonnable. Afin d’implémenter ce framework, nous avons également développé un outil d’annotation sémantique de contenu vidéo (SVCAT) qui produit des annotations sémantiques structurelles et de haut niveau selon un modèle objet basé sur du contenu vidéo. Nous avons validé nos travaux avec des évaluations qualitatives et quantitatives qui nous ont permis d’étudier la performance et l'efficacité du MPDA. Nous avons validé nos travaux avec des évaluations qualitatives et quantitatives qui nous ont permis d’étudier la performance et l'efficacité du MPDA. Les résultats obtenus démontrent que la fonction d’utilité proposée présente une forte corrélation avec les évaluations subjectives fournies par des utilisateurs concernant la qualité d’une vidéo adaptée, et constitue donc une base tout à fait pertinente pour le MPDA. / Universal Multimedia Experience (UME) is the notion that a user should receive informative adapted content anytime and anywhere. Personalization of videos, which adapts their content according to user preferences, is a vital aspect of achieving the UME vision. User preferences can be translated into several types of constraints that must be considered by the adaptation process, including semantic constraints directly related to the content of the video. The overall goal of this adaptation process is to provide users with adapted content that maximizes their Quality of Experience (QoE). This QoE depends at the same time on the level of the user's satisfaction in perceiving the adapted content, the amount of knowledge assimilated by them, and the adaptation execution time. In video adaptation frameworks, the Adaptation Decision Taking Engine (ADTE), is responsible for achieving this goal. The task of the ADTE is challenging as many adaptation operations can satisfy the same semantic constraint, and thus arising in several feasible adaptation plans. Indeed, for each entity to be adapted, the ADTE must decide on the adequate adaptation operator that satisfies the user's preferences while maximizing his/her quality of experience. The first challenge to achieve in this is to objectively measure the quality of the adapted video, while considering the multiple aspects of the QoE. The second challenge is to assess beforehand this quality in order to choose the most appropriate adaptation plan among all possible ones. The third challenge is to resolve conflicting or overlapping semantic constraints, in particular conflicts arising from constraints expressed by owner's intellectual property rights (IPR) about the modification of the content. In this thesis, we tackled the aforementioned challenges by proposing a Utility Function (UF), which integrates semantic concerns with user's perceptual considerations. This UF models the relationships among adaptation operations, user preferences, and the quality of the video content. We integrated this UF into an ADTE. This ADTE performs a multi-level piecewise reasoning to choose the adaptation plan that maximizes the user-perceived quality. Furthermore, we included IPR in the adaptation process. Thereby, we modeled content owner constraints, and proposed a heuristic to resolve conflicting user and owner constraints. More, we developed SVCAT, which produces structural and high-level semantic annotation according to an original object-based video content model. We modeled as well the user's preferences proposing extensions to MPEG-7 and MPEG-21. All the developed contributions were carried out as part of a coherent framework called PIAF. We validated this research with qualitative and quantitative evaluations, which assess the performance and the efficiency of the proposed adaptation decision-taking engine within PIAF.

Page generated in 0.137 seconds