• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 8
  • 1
  • Tagged with
  • 25
  • 25
  • 18
  • 18
  • 10
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

QoS management for WebRTC : loose coupling strategies / Gestion de la qualité de service pour WebRTC : stratégies de couplage lâche

Janczukowicz, Ewa Czeslawa 13 March 2017 (has links)
Depuis plusieurs années, on observe une multiplication des services de communication en temps réel de type Over-The-Top (OTT). Ces solutions utilisent l¿Internet « best-effort » et s¿adaptent aux fluctuations du réseau. Néanmoins, il est discutable que l¿approche OTT soit suffisante pour fournir une qualité de service de communication acceptable quelles que soient les conditions réseaux. Dès lors, est-il possible d¿utiliser l¿assistance réseau pour améliorer la qualité de service des solutions OTT ?Pour traiter cette question, nous étudions tout d¿abord les solutions OTT, et particulièrement la technologie WebRTC. Nous identifions trois stratégies de couplage lâche qui permettent de tirer parti des mécanismes réseaux pour améliorer la qualité de service des solutions OTT.Nous vérifions la pertinence de ces stratégies dans le contexte de la gestion du trafic. On identifie deux approches de gestion du trafic adaptées à WebRTC : 1) qui assure des délais d¿attente courts quel que soit le trafic ou 2) qui isole le trafic sensible. On évalue ces solutions et leur impact sur WebRTC, pour les réseaux d¿accès filaire (uplink, ADSL et fibre). Les résultats obtenus montrent que les pratiques actuelles de gestion du trafic ne sont pas adaptées au trafic WebRTC. De plus, les solutions proposées assurent plus d¿équité entre le trafic WebRTC et TCP et elles permettent d¿éviter que le trafic WebRTC soit désavantagé et elles améliorent la qualité de communication.Enfin, ces solutions de la gestion du trafic sont positionnées dans le contexte des stratégies de couplage proposées. A partir de là, on fournit des recommandations pour améliorer la qualité WebRTC avec l¿assistance du NSP. / The number of real-time Over-The-Top (OTT) communication services has increased in the recent years. OTT solutions use the best-effort Internet delivery and rely on mechanisms built into the endpoints to adapt to underlying network fluctuations. Nevertheless, it is questionable if this approach is enough to provide acceptable quality of communication regardless the network conditions. Therefore, can network assistance be used to improve the quality of OTT real-time communication services?To address this question, we study OTT solutions with a focus on WebRTC. We identify three loose coupling strategies that leverage network mechanisms for improving OTT communication services quality.We verify the pertinence of these coupling strategies in the context of traffic management. We identify two approaches of traffic management solutions adapted to WebRTC traffic: 1) aiming at assuring lower queuing delays regardless the traffic or 2) isolating the sensitive traffic. We study the impact of identified traffic management solutions on WebRTC for wireline access networks (uplink, ADSL and fiber). The obtained results show that current Internet engineering practices are not well adapted to the WebRTC traffic, but are optimized for TCP traffic. Furthermore, the proposed solutions ensure more fairness between WebRTC and TCP flows and consequently enable avoiding WebRTC traffic starvation and improve the overall quality of the communication.In the final analysis, the evaluated traffic management solutions are positioned in the context of identified coupling strategies. Based on this assessment, we provide recommendations of improving WebRTC quality with the assistance of NSP.
12

Improving quality of experience in multimedia streaming by leveraging Information-Centric Networking / Améliorer la qualité d'expérience du streaming multimédia en tirant parti des réseaux centrés sur l'information

Samain, Jacques 19 March 2019 (has links)
Les réseaux centrés sur l’information (ICN) sont une architecture prometteuse pour faire face à l’explosion du trafic multimédia sur internet et à la mobilité croissante des utilisateurs: non seulement ICN peut améliorer la qualité d’expérience de l’utilisateur, mais ICN peut également étendre naturelle et de façon transparente la prise en charge du trafic vidéo dans les fonctions réseau. Cependant, à notre connaissance, une évaluation approfondie des avantages apportés par ICN à la diffusion multimédia n’a pas encore été réalisée. Dans cette thèse, nous voulons réduire l’écart qui nous sépare d’une telle évaluation en prenant en compte ICN dans divers scénarios de diffusion multimédia.Tout d’abord, nous évaluons les avantages apportés par du DAS (Dynamic Adaptive Streaming) basé sur ICN par rapport au streaming basé sur TCP/IP, au moyen d’une campagne expérimentale comprenant plusieurs canaux (des émulations Wi-Fi et LTE, des traçes 3G/4G), plusieurs clients (mélange homogène et hétérogène, arrivées synchrones et asynchrones) et des logiques d’adaptation DAS soigneusement sélectionnées pour couvrir les deux grandes familles d’algorithmes disponibles. Nous mettons aussi enexergue les pièges potentiels qui sont néanmoins facilement évitables.Ensuite, nous montrons comment l’assistance du réseau contribue à améliorer la qualité d’expérience des utilisateurs. Pour ce faire, nous tirons parti de la fonctionnalité de mise en cache réseau d’ICN et proposons un signal re ́seau simple envoyé périodiquement par le cache à exploiter par l’algorithme d’adaptation DAS pour optimiser la qualité d’expérience de l’utilisateur en évitant le phénomène bien connu des oscillations induites par le cache. Des expériences nous permettent de valider le bien-fondé de notre approche.Enfin, puisque la diffusion multimedia en direct gagne du terrain, nous proposons hICN-RTC, en intégrant hICN (hybrid ICN), une solution ICN-dans-IP, à WebRTC, accompagné du protocole RICTP (Realtime Information Centric Transport Protocol), un protocole de transport basé sur le contenu, qui minimise la latence. Bien que toujours en développement, les résultats des premières expériences sont prometteurs car ils montrent que le trafic induit par hICN-RTC ne croit qu’avec le nombre de locuteurs actifs plutôt qu’avec le nombre total de participants. / Information-Centric Networking (ICN) is a promising architecture to address today Internet multimedia traffic explosion and increasing user mobility: not only to enhance the user’s quality of experience, but also to naturally and seamlessly extend video sup- port deeper in the network functions. However, to the best of our knowledge, a thorough assessment of the benefits brought by ICN to multimedia delivery has not been done yet. In this thesis, we aim at reducing the gap to such assessment, by considering ICN in various multimedia delivery scenarios.First, we assess the benefits brought by an ICN-based Dynamic Adaptive Streaming (DAS) compared to TCP/IP based streaming, by means of an experimental campaign that includes multiple channels (e.g., emulated Wi-Fi and LTE, real 3G/4G traces), multiple clients (homogeneous vs heterogeneous mixture, synchronous vs asynchronous arrivals) and carefully selected DAS adaptation logics to cover the broad families of available adaptation algorithms. We also warn about potential pitfalls that are nonethelesseasily avoidable.Second, we show how network assistance helps im- proving the users’ quality of experience. To do so, we leverage the in-network caching feature of ICN and propose a simple periodical network signal from the cache (i.e., per-quality hit ratio) to be exploited by DAS adaptation logic to enhance further the user’s quality of experience by avoiding the known cache-induced quality oscillations. We confirm the soundness of our approach through experiments.Finally, as live multimedia delivery is gaining momentum, we propose hICN-RTC by integrating hICN (hybrid ICN), an ICN-in-IP solution, to WebRTC and we design RICTP (Realtime Information Centric Trans- port Protocol), a content-aware transport that minimizes the communication latency. Although still in development, the results we gathered from early experiments are promising as they show that hICN-RTC scales with the number of active speakers rather than the total number of participants.
13

Vidéoconférence basée sur les ressources internes de l'entreprise / Video conference based on enterprise desktop grid

Sorokin, Roman 24 February 2017 (has links)
Il existe deux approches classiques et bien comprises des tâches de traitement vidéo pour la vidéoconférence. Le premier utilise une unité centralisée de contrôle multipoint. Dans la deuxième approche, les tâches de traitement vidéo sont directement traitées dans les clients. La performance est ensuite limitée par les caractéristiques du périphérique. Dans cette thèse, nous proposons une troisième approche alternative. Nous proposons un système qui distribue des tâches de traitement vidéo en temps réel sur les ressources internes de l'entreprise. Une méthode dédiée de prise de décision basée sur les multi-attributs est conçue pour tenir compte de la variété des attributs qui influent sur la qualité de l'expérience. Des algorithmes de distribution et de redistribution de tâches sont élaborés. Nous testons ensuite l'approche proposée au moyen de la simulation afin d'étudier l'impact des principaux paramètres critiques. L'approche proposée pose une question sur laquelle un PC peut être utilisé comme plate-forme pour le serveur multimédia. Nous estimons une qualité perçue des flux vidéo afin d'étudier l'influence de la charge CPU. Nous avons également élaboré des algorithmes, combinant l'approche Cloud / Fog avec différents types de serveurs multimédia. Le résultat fournit une solution de conférence optimisée en termes de coût tant pour le fournisseur que pour le consommateur, ainsi que pour l'expérience de l'utilisateur final. En combinant les algorithmes élaborés et l'architecture avec les résultats de l'expérimentation, nous concluons que la solution proposée peut être utilisée comme une nouvelle approche de la problématique de la vidéoconférence. / There exist two classical and well-understood approaches to video processing tasks for videoconferencing. The first one is using a centralized Multipoint Control Unit (MCU). In the second approach, the video processing tasks are directly handled in endpoints. Performance is then restricted by device characteristics, especially in the case of mobile devices. In this thesis, we propose a third alternative approach. We propose a system, which distributes real-time video processing tasks on enterprise desktop grid. A dedicated Multi Attribute Decision Making method is designed in order to take into account the variety of attributes impacting Quality of Experience. A number of task distribution and redistribution algorithms are elaborated. We then test the proposed approach by means of simulation in order to study the impact of the main critical parameters. The proposed approach arises a question to which extent a PC can be used as a platform for media server and how CPU load affects the quality of provided video conference. We estimate a perceived quality of video streams in order to investigate CPU load influence. Also we elaborated algorithms, combining Cloud/Fog approach with different types of media servers, the result provides an optimized conferencing solution in the terms of cost for both provider and consumer as well as in terms of end user experience. Combining elaborated algorithms and architecture with experimentation results we conclude that proposed solution can be used as a novel approach to video conferencing problematic.
14

Semantic protection and personalization of video content PIAF : MPEG compliant adaptation framework preserving the user perceived quality / Protection sémantique et personnalisation du contenu de la vidéo PIAF : Un framework d'adaptation conforme à MPEG préservant la qualité perçue de l'utilisateur

Khoury, Vanessa El 23 September 2013 (has links)
Dans cette thèse, nous proposons un framework d’adaptation appelé "Personalized vIdeo Adaptation Framework" (PIAF) conçu à partir des standards MPEG. PIAF intègre les contraintes sémantiques et vise à maximiser la qualité perçue par l’utilisateur lors de la visualisation de la vidéo tout en respectant les droits de propriété intellectuelle. Les contributions de cette thèse peuvent être résumées comme suit. Dans un premier temps, nous avons utilisé et étendu les standards MPEG-7 et MPEG-21 afin de représenter les préférences des utilisateurs. Nous avons ensuite proposé un modèle formel du processus d’adaptation sémantique d’une vidéo et défini une fonction d’utilité régissant le mécanisme de prise de décision du MPDA. Cette fonction tient compte de différentes dimensions de qualité (qualité perceptuelle, sémantique, temps d’exécution nécessaire) afin d’évaluer quantitativement la qualité d’un plan d’adaptation. Le processus d’adaptation que nous proposons intègre les droits de propriété intellectuelle dans le processus de décision. Dans certains cas, le plan d’adaptation qui produirait la vidéo de meilleure qualité adaptée aux préférences de l’utilisateur peut être inapplicable car il ne respecte pas les contraintes du propriétaire. Trouver le meilleur plan d’adaptation devient alors un problème NP-complet. Nous avons proposé une solution pratique à ce problème sous la forme d’une heuristique capable de sélectionner un plan très proche de l’optimum en un temps de calcul raisonnable. Afin d’implémenter ce framework, nous avons également développé un outil d’annotation sémantique de contenu vidéo (SVCAT) qui produit des annotations sémantiques structurelles et de haut niveau selon un modèle objet basé sur du contenu vidéo. Nous avons validé nos travaux avec des évaluations qualitatives et quantitatives qui nous ont permis d’étudier la performance et l'efficacité du MPDA. Nous avons validé nos travaux avec des évaluations qualitatives et quantitatives qui nous ont permis d’étudier la performance et l'efficacité du MPDA. Les résultats obtenus démontrent que la fonction d’utilité proposée présente une forte corrélation avec les évaluations subjectives fournies par des utilisateurs concernant la qualité d’une vidéo adaptée, et constitue donc une base tout à fait pertinente pour le MPDA. / Universal Multimedia Experience (UME) is the notion that a user should receive informative adapted content anytime and anywhere. Personalization of videos, which adapts their content according to user preferences, is a vital aspect of achieving the UME vision. User preferences can be translated into several types of constraints that must be considered by the adaptation process, including semantic constraints directly related to the content of the video. The overall goal of this adaptation process is to provide users with adapted content that maximizes their Quality of Experience (QoE). This QoE depends at the same time on the level of the user's satisfaction in perceiving the adapted content, the amount of knowledge assimilated by them, and the adaptation execution time. In video adaptation frameworks, the Adaptation Decision Taking Engine (ADTE), is responsible for achieving this goal. The task of the ADTE is challenging as many adaptation operations can satisfy the same semantic constraint, and thus arising in several feasible adaptation plans. Indeed, for each entity to be adapted, the ADTE must decide on the adequate adaptation operator that satisfies the user's preferences while maximizing his/her quality of experience. The first challenge to achieve in this is to objectively measure the quality of the adapted video, while considering the multiple aspects of the QoE. The second challenge is to assess beforehand this quality in order to choose the most appropriate adaptation plan among all possible ones. The third challenge is to resolve conflicting or overlapping semantic constraints, in particular conflicts arising from constraints expressed by owner's intellectual property rights (IPR) about the modification of the content. In this thesis, we tackled the aforementioned challenges by proposing a Utility Function (UF), which integrates semantic concerns with user's perceptual considerations. This UF models the relationships among adaptation operations, user preferences, and the quality of the video content. We integrated this UF into an ADTE. This ADTE performs a multi-level piecewise reasoning to choose the adaptation plan that maximizes the user-perceived quality. Furthermore, we included IPR in the adaptation process. Thereby, we modeled content owner constraints, and proposed a heuristic to resolve conflicting user and owner constraints. More, we developed SVCAT, which produces structural and high-level semantic annotation according to an original object-based video content model. We modeled as well the user's preferences proposing extensions to MPEG-7 and MPEG-21. All the developed contributions were carried out as part of a coherent framework called PIAF. We validated this research with qualitative and quantitative evaluations, which assess the performance and the efficiency of the proposed adaptation decision-taking engine within PIAF.
15

Amélioration de la qualité d'expérience vidéo en combinant streaming adaptif, caching réseau et multipath / Combining in-network caching, HTTP adaptive streaming and multipath to improve video quality of experience

Poliakov, Vitalii 11 December 2018 (has links)
Le trafic vidéo s’est considérablement accru et est prévu de doubler pour représenter 82% du trafic Internet d’ici 2021. Une telle croissance surcharge les fournisseurs de services Internet (ISP), nuisant à la Qualité d’Expérience (QoE) perçue par les utilisateurs. Cette thèse vise à améliorer la QoE des utilisateurs de streaming vidéo sans hypothèse de changement d’infrastructure physique des opérateurs. Pour cela, nous combinons les technologies de caching réseau, de streaming HTTP adaptatif (HAS), et de transport multipath. Nous explorons d’abord l’interaction entre HAS et caching, pour montrer que les algorithmes d’adaptation de qualité vidéo ont besoin de savoir qu’il y a un cache et ce qui y est stocké, et proposons des algorithmes bénéficiant de cette connaissance. Concluant sur la difficulté d’obtenir la connaissance de l’état du cache, nous étudions ensuite un système de distribution vidéo à large échelle, où les caches sont représentés par un réseau de distribution du contenu (CDN). Un CDN déploie des caches à l’intérieur des réseaux des ISP, et dispose de ses propres serveurs externes. L’originalité du problème vient de l’hypothèse que nous faisons que l’utilisateur est simultanément connecté à 2 ISP. Ceci lui permet d’accéder en multipath aux serveurs externes aux ISP (pouvant ainsi accroître le débit mais chargeant plus les ISP), ou streamer le contenu depuis un cache plus proche mais avec un seul chemin. Ce désaccord entre les objectifs du CDN et de l’ISP conduit à des performances sous-optimales. Nous développons un schéma de collaboration entre ISP et CDN qui permet de nous rapprocher de l’optimal dans certains cas, et discutons l’implémentation pratique. / Video traffic volume grew considerably in recent years and is forecasted to reach 82% of the total Internet traffic by 2021, doubling its net volume as compared to today. Such growth overloads Internet Service Providers' networks (ISPs), which negatively impacts users' Quality of Experience (QoE). This thesis attempts to tackle the problem of improving users' video QoE without relying on network upgrades. For this, we have chosen to combine such technologies as in-network caching, HTTP Adaptive Streaming (HAS), and multipath data transport. We start with exploration of interaction between HAS and caching; we confirm the need of cache-awareness in quality adaptation algorithms and propose such an extension to a state-of-the-art optimisation-based algorithm. Concluding on the difficulty of achieving cache-awareness, we take a step back to study a video delivery system on a large scale, where in-network caches are represented by Content Delivery Networks (CDNs). They deploy caches inside ISPs and dispose of their own outside video servers. As a novelty, we consider users to have a simultaneous connectivity to several ISP networks. This allows video clients either to access outside multipath servers with aggregate bandwidth (which may increase their QoE, but will also bring more traffic into ISP), or stream their content from a closer cache through only single connectivity (bringing less traffic into ISP). This disagreement in ISP and CDN objectives leads to suboptimal system performance. In response to this, we develop a collaboration scheme between two actors, performance of which can approach optimal boundary for certain settings, and discuss its practical implementation.
16

Intelligent quality of experience (QoE) analysis of network served multimedia and web contents / Analyse intelligente de la qualité d'expérience (QoE) dans les réseaux de diffusion de contenu web et mutimédia

Pokhrel, Jeevan 19 December 2014 (has links)
De nos jours, l’expérience de l'utilisateur appelé en anglais « User Experience » est devenue l’un des indicateurs les plus pertinents pour les fournisseurs de services ainsi que pour les opérateurs de télécommunication pour analyser le fonctionnement de bout en bout de leurs systèmes (du terminal client, en passant par le réseaux jusqu’à l’infrastructure des services etc.). De plus, afin d’entretenir leur part de marché et rester compétitif, les différents opérateurs de télécommunication et les fournisseurs de services doivent constamment conserver et accroître le nombre de souscription des clients. Pour répondre à ces exigences, ils doivent disposer de solutions efficaces de monitoring et d’estimation de la qualité d'expérience (QoE) afin d’évaluer la satisfaction de leur clients. Cependant, la QoE est une mesure qui reste subjective et son évaluation est coûteuse et fastidieuse car elle nécessite une forte participation humaine (appelé panel de d’évaluation). Par conséquent, la conception d’un outil qui peut mesurer objectivement cette qualité d'expérience avec une précision raisonnable et en temps réel est devenue un besoin primordial qui constitue un challenge intéressant à résoudre. Comme une première contribution, nous avons analysé l'impact du comportement d’un réseau sur la qualité des services de vidéo à la demande (VOD). Nous avons également proposé un outil d'estimation objective de la QoE qui utilise le système expert basé sur la logique floue pour évaluer la QoE à partir des paramètres de qualité de service de la couche réseau. Dans une deuxième contribution, nous avons analysé l'impact des paramètres QoS de couche MAC sur les services de VoD dans le cadre des réseaux sans fil IEEE 802.11n. Nous avons également proposé un outil d'estimation objective de la QoE qui utilise le réseau aléatoire de neurones pour estimer la QoE dans la perspective de la couche MAC. Pour notre troisième contribution, nous avons analysé l'effet de différents scénarios d'adaptation sur la QoE dans le cadre du streaming adaptatif au débit. Nous avons également développé une plate-Forme Web de test subjectif qui peut être facilement intégré dans une plate-Forme de crowd-Sourcing pour effectuer des tests subjectifs. Finalement, pour notre quatrième contribution, nous avons analysé l'impact des différents paramètres de qualité de service Web sur leur QoE. Nous avons également proposé un algorithme d'apprentissage automatique i.e. un système expert hybride rugueux basé sur la logique floue pour estimer objectivement la QoE des Web services / Today user experience is becoming a reliable indicator for service providers and telecommunication operators to convey overall end to end system functioning. Moreover, to compete for a prominent market share, different network operators and service providers should retain and increase the customers’ subscription. To fulfil these requirements they require an efficient Quality of Experience (QoE) monitoring and estimation. However, QoE is a subjective metric and its evaluation is expensive and time consuming since it requires human participation. Therefore, there is a need for an objective tool that can measure the QoE objectively with reasonable accuracy in real-Time. As a first contribution, we analyzed the impact of network conditions on Video on Demand (VoD) services. We also proposed an objective QoE estimation tool that uses fuzzy expert system to estimate QoE from network layer QoS parameters. As a second contribution, we analyzed the impact of MAC layer QoS parameters on VoD services over IEEE 802.11n wireless networks. We also proposed an objective QoE estimation tool that uses random neural network to estimate QoE from the MAC layer perspective. As our third contribution, we analyzed the effect of different adaption scenarios on QoE of adaptive bit rate streaming. We also developed a web based subjective test platform that can be easily integrated in a crowdsourcing platform for performing subjective tests. As our fourth contribution, we analyzed the impact of different web QoS parameters on web service QoE. We also proposed a novel machine learning algorithm i.e. fuzzy rough hybrid expert system for estimating web service QoE objectively
17

Quel son spatialisé pour la vidéo 3D ? : influence d'un rendu Wave Field Synthesis sur l'expérience audio-visuelle 3D / Which spatialized sound for 3D video ? : influence of a Wave Field Synthesis rendering on 3D audio-visual experience

Moulin, Samuel 03 April 2015 (has links)
Le monde du divertissement numérique connaît depuis plusieurs années une évolution majeure avec la démocratisation des technologies vidéo 3D. Il est désormais commun de visualiser des vidéos stéréoscopiques sur différents supports : au cinéma, à la télévision, dans les jeux vidéos, etc. L'image 3D a considérablement évolué mais qu'en est-il des technologies de restitution sonore associées ? La plupart du temps, le son qui accompagne la vidéo 3D est basé sur des effets de latéralisation, plus au moins étendus (stéréophonie, systèmes 5.1). Il est pourtant naturel de s'interroger sur le besoin d'introduire des événements sonores en lien avec l'ajout de cette nouvelle dimension visuelle : la profondeur. Plusieurs technologies semblent pouvoir offrir une description sonore 3D de l'espace (technologies binaurales, Ambisonics, Wave Field Synthesis). Le recours à ces technologies pourrait potentiellement améliorer la qualité d'expérience de l'utilisateur, en termes de réalisme tout d'abord grâce à l'amélioration de la cohérence spatiale audio-visuelle, mais aussi en termes de sensation d'immersion. Afin de vérifier cette hypothèse, nous avons mis en place un système de restitution audio-visuelle 3D proposant une présentation visuelle stéréoscopique associée à un rendu sonore spatialisé par Wave Field Synthesis. Trois axes de recherche ont alors été étudiés : 1 / Perception de la distance en présentation unimodale ou bimodale. Dans quelle mesure le système audio-visuel est-il capable de restituer des informations spatiales relatives à la distance, dans le cas d'objets sonores, visuels, ou audio-visuels ? Les expériences menées montrent que la Wave Field Synthesis permet de restituer la distance de sources sonores virtuelles. D'autre part, les objets visuels et audio-visuels sont localisés avec plus de précisions que les objets uniquement sonores. 2 / Intégration multimodale suivant la distance. Comment garantir une perception spatiale audio-visuelle cohérente de stimuli simples ? Nous avons mesuré l'évolution de la fenêtre d'intégration spatiale audio-visuelle suivant la distance, c'est-à-dire les positions des stimuli audio et visuels pour lesquelles la fusion des percepts a lieu. 3 / Qualité d'expérience audio-visuelle 3D. Quel est l'apport du rendu de la profondeur sonore sur la qualité d'expérience audio-visuelle 3D ? Nous avons tout d'abord évalué la qualité d'expérience actuelle, lorsque la présentation de contenus vidéo 3D est associée à une bande son 5.1, diffusée par des systèmes grand public (système 5.1, casque, et barre de son). Nous avons ensuite étudié l'apport du rendu de la profondeur sonore grâce au système audio-visuel proposé (vidéo 3D associée à la Wave Field Synthesis). / The digital entertainment industry is undergoing a major evolution due to the recent spread of stereoscopic-3D videos. It is now possible to experience 3D by watching movies, playing video games, and so on. In this context, video catches most of the attention but what about the accompanying audio rendering? Today, the most often used sound reproduction technologies are based on lateralization effects (stereophony, 5.1 surround systems). Nevertheless, it is quite natural to wonder about the need of introducing a new audio technology adapted to this new visual dimension: the depth. Many alternative technologies seem to be able to render 3D sound environments (binaural technologies, ambisonics, Wave Field Synthesis). Using these technologies could potentially improve users' quality of experience. It could impact the feeling of realism by adding audio-visual spatial congruence, but also the immersion sensation. In order to validate this hypothesis, a 3D audio-visual rendering system is set-up. The visual rendering provides stereoscopic-3D images and is coupled with a Wave Field Synthesis sound rendering. Three research axes are then studied: 1/ Depth perception using unimodal or bimodal presentations. How the audio-visual system is able to render the depth of visual, sound, and audio-visual objects? The conducted experiments show that Wave Field Synthesis can render virtual sound sources perceived at different distances. Moreover, visual and audio-visual objects can be localized with a higher accuracy in comparison to sound objects. 2/ Crossmodal integration in the depth dimension. How to guarantee the perception of congruence when audio-visual stimuli are spatially misaligned? The extent of the integration window was studied at different visual object distances. In other words, according to the visual stimulus position, we studied where sound objects should be placed to provide the perception of a single unified audio-visual stimulus. 3/ 3D audio-visual quality of experience. What is the contribution of sound depth rendering on the 3D audio-visual quality of experience? We first assessed today's quality of experience using sound systems dedicated to the playback of 5.1 soundtracks (5.1 surround system, headphones, soundbar) in combination with 3D videos. Then, we studied the impact of sound depth rendering using the set-up audio-visual system (3D videos and Wave Field Synthesis).
18

Edge computing-based access network selection for heterogeneous wireless networks / Sélection de réseau d'accès basée sur le Edge Computing pour des réseaux sans fil hétérogènes

Li, Yue 29 September 2017 (has links)
Au cours de ces dernières décennies, les réseaux de télécommunications mobiles ont évolué de la 1G à la 4G. La 4G permet la coexistence de différents réseaux d'accès. Ainsi, les utilisateurs ont la capacité de se connecter à un réseau hétérogène, constitué de plusieurs réseaux d'accès. Toutefois, la sélection du réseau approprié n'est pas une tâche facile pour les utilisateurs mobiles puisque les conditions de chaque réseau d'accès changent rapidement. Par ailleurs, en termes d'usage, le streaming vidéo devient le service principal de transfert de données sur les réseaux mobiles, ce qui amène les fournisseurs de contenu et les opérateurs de réseau à coopérer pour garantir la qualité de la diffusion. Dans ce contexte, la thèse propose la conception d'une approche novatrice pour la prise de décision optimale de sélection de réseau et une architecture améliorant les performances des services de streaming adaptatif dans un réseau hétérogène. En premier lieu, nous introduisons un modèle analytique décrivant la procédure de sélection de réseau en ne considérant déjà qu'une seule classe de trafic. Nous concevons ensuite une stratégie de sélection basée sur des fondements de la théorie du contrôle optimal linéaire. Des simulations sous MATLAB sont effectuées pour valider l'efficacité du mécanisme proposé. Sur ce même principe, nous étendons ce modèle avec un modèle analytique général décrivant les procédures de sélection de réseau dans des environnements de réseaux hétérogènes avec de multiples classes de trafic. Le modèle proposé est ensuite utilisé pour dériver un mécanisme adaptatif basé sur la théorie du contrôle, qui permet non seulement d'aider à piloter dynamiquement le trafic vers l'accès réseau le plus approprié mais aussi de bloquer dynamiquement le trafic résiduel lorsque le réseau est congestionné en ajustant les probabilités d'accès optimales. Nous discutons aussi les avantages d'une intégration transparente du mécanisme proposé avec l'ANDSF, solution fonctionnelle normalisée pour la sélection de réseau. Un prototype est également implémenté dans ns-3. En second lieu, nous nous concentrons sur l'amélioration des performances de DASH pour les utilisateurs mobiles dans un environnement de réseau d'accès 4G uniquement. Nous introduisons une nouvelle architecture basée sur l'utilisation de serveurs distribués en périphérie de réseau suivant le standard MEC. Le mécanisme d'adaptation proposé, fonctionnant en tant que service MEC, peut modifier les fichiers de manifeste en temps réel, en réponse à la congestion du réseau et à la demande dynamique de flux de streaming. Ces modifications conduisent ainsi les clients à sélectionner des représentations vidéo de débit / qualité plus appropriées. Nous avons développé une plateforme de test virtualisée pour l'expérimentation de notre proposition. Les résultats ainsi obtenus démontrent ses avantages en terme de QoE comparés aux approches d'adaptation traditionnelles, purement pilotées par les clients, car notre approche améliore non seulement le MOS mais aussi l'équité face à la congestion. Enfin, nous étendons l'architecture proposée basée sur MEC pour supporter le service de streaming adaptatif DASH dans un réseau hétérogène multi-accès afin de maximiser la QoE et l'équité des utilisateurs mobiles. Dans ce scénario, notre mécanisme doit aider les utilisateurs à sélectionner la qualité vidéo et le réseau et nous le formulons comme un problème d'optimisation. Ce problème d'optimisation peut être résolu par l'outil IBM CPLEX, mais cela prend du temps et ne peut être envisagé à grande échelle. Par conséquent, nous introduisons une heuristique pour aborder la solution optimale avec moins de complexité. Ensuite, nous mettons en œuvre une expérimentation sur notre plateforme de tests. Le résultat démontre que, par rapport à l'outil IBM CPLEX, notre algorithme permet d'obtenir des performances similaires sur la QoE globale et l'équité, avec un gain de temps significatif. / Telecommunication network has evolved from 1G to 4G in the past decades. One of the typical characteristics of the 4G network is the coexistence of heterogeneous radio access technologies, which offers end-users the capability to connect them and to switch between them with their mobile devices of the new generation. However, selecting the right network is not an easy task for mobile users since access network condition changes rapidly. Moreover, video streaming is becoming the major data service over the mobile network where content providers and network operators should cooperate to guarantee the quality of video delivery. In order to cope with this context, the thesis concerns the design of a novel approach for making an optimal network selection decision and architecture for improving the performance of adaptive streaming in the context of a heterogeneous network. Firstly, we introduce an analytical model (i.e. linear discrete-time system) to describe the network selection procedure considering one traffic class. Then, we consider the design of a selection strategy based on foundations from linear optimal control theory, with the objective to maximize network resource utilization while meeting the constraints of the supported services. Computer simulations with MATLAB are carried out to validate the efficiency of the proposed mechanism. Based on the same principal we extend this model with a general analytical model describing the network selection procedures in heterogeneous network environments with multiple traffic classes. The proposed model was, then, used to derive a scalable mechanism based on control theory, which allows not only to assist in steering dynamically the traffic to the most appropriate network access but also helps in blocking the residual traffic dynamically when the network is congested by adjusting dynamically the access probabilities. We discuss the advantages of a seamless integration with the ANDSF. A prototype is also implemented into ns-3. Simulation results sort out that the proposed scheme prevents the network congestion and demonstrates the effectiveness of the controller design, which can maximize the network resources allocation by converging the network workload to the targeted network occupancy. Thereafter, we focus on enhancing the performance of DASH in a mobile network environment for the users which has one access network. We introduce a novel architecture based on MEC. The proposed adaptation mechanism, running as an MEC service, can modify the manifest files in real time, responding to network congestion and dynamic demand, thus driving clients towards selecting more appropriate quality/bitrate video representations. We have developed a virtualized testbed to run the experiment with our proposed scheme. The simulation results demonstrate its QoE benefits compared to traditional, purely client-driven, bitrate adaptation approaches since our scheme notably improves both on the achieved MOS and on fairness in the face of congestion. Finally, we extend the proposed the MEC-based architecture to support the DASH service in a multi-access heterogeneous network in order to maximize the QoE and fairness of mobile users. In this scenario, our scheme should help users select both video quality and access network and we formulate it as an optimization problem. This optimization problem can be solved by IBM CPLEX tool. However, this tool is time-consuming and not scalable. Therefore, we introduce a heuristic algorithm to make a sub-optimal solution with less complexity. Then we implement a testbed to conduct the experiment and the result demonstrates that our proposed algorithm notably can achieve similar performance on overall achieved QoE and fairness with much more time-saving compared to the IBM CPLEX tool.
19

Exploitation des statistiques structurelles d'une image pour la prédiction de la saillance visuelle et de la qualité perçue / Use of image structural statistics for prediction of visual saliency and perceived quality

Nauge, Michaël 11 December 2012 (has links)
Dans le domaine de la vision par ordinateur l'utilisation de points d'intérêt (PI) est récurrente pour les problématiques de reconnaissance et de suivi d'objets. Plusieurs études ont prouvé l'utilité de ces techniques, associant robustesse et un temps de calcul pouvant être compatible avec le temps réel. Cette thèse propose d'étudier et d'exploiter ces descripteurs de statistiques de l'image sous un tout autre regard. Ainsi, nous avons menée une étude sur le lien entre les PI et la saillance visuelle humaine. De cette étude nous avons pu développer une méthode de prédiction de carte de saillance exploitant la rapidité d'exécution de ces détecteurs. Nous avons également exploité le pouvoir descriptif de ces PI afin de développer de nouvelles métriques de qualité d'images. Grâce à des résultats encourageant en terme de prédiction de qualité perçue et la faible quantité d'information utilisée, nous avons pu intégrer notre métrique "QIP" dans une chaîne de transmission d'images sur réseau sans fil de type MIMO. L'ajout de cette métrique permet d'augmenter la qualité d'expérience en garantissant la meilleure qualité malgré les erreurs introduites par la transmission sans fil. Nous avons étendu cette étude, par l'analyse fine des statistiques structurelles de l'image et des migrations d'attributs afin de proposer un modèle générique de prédiction des dégradations. Enfin, nous avons été amenés à conduire diverses expériences psychovisuelles, pour valider les approches proposées ou dans le cadre de la normalisation de nouveaux standards du comité JPEG. Ce qui a mené à développer une application web dédiée à l'utilisation et la comparaison des métriques de qualité d'images. / In the field of computer vision, the use of interest points (IP) is very frequent for objects tracking and recognition. Several studies have demonstrated the usefulness of these techniques, combining robustness and complexity that can be compatible with the real time. This thesis proposes to explore and exploit these image statistical descriptors under a different angle. Thus, we conducted a study on the relationship between IP and human visual saliency. In this study, we developed a method for predicting saliency maps relying on the efficiency of the descriptors. We also used the descriptive power of the PI to develop new metrics for image quality. With encouraging results in terms of prediction of perceived quality and the reduced amount of used information, we were able to integrate our metric "QIP" in an image transmission framework over a MIMO wireless network. The inclusion of this metric can improve the quality of experience by ensuring the best visual quality despite the errors introduced by the wireless transmission. We have extended this study by deeply analyzing structural statistics of the image and migration attributes to provide a generic model for predicting impairments. Finally, we conducted various psychovisual experiments to validate the proposed approaches or to contribute to JPEG standard committee. This led to develop a web application dedicated to the benchmark of image quality metrics.
20

Quel son spatialisé pour la vidéo 3D ? : influence d'un rendu Wave Field Synthesis sur l'expérience audio-visuelle 3D / Which spatialized sound for 3D video ? : influence of a Wave Field Synthesis rendering on 3D audio-visual experience

Moulin, Samuel 03 April 2015 (has links)
Le monde du divertissement numérique connaît depuis plusieurs années une évolution majeure avec la démocratisation des technologies vidéo 3D. Il est désormais commun de visualiser des vidéos stéréoscopiques sur différents supports : au cinéma, à la télévision, dans les jeux vidéos, etc. L'image 3D a considérablement évolué mais qu'en est-il des technologies de restitution sonore associées ? La plupart du temps, le son qui accompagne la vidéo 3D est basé sur des effets de latéralisation, plus au moins étendus (stéréophonie, systèmes 5.1). Il est pourtant naturel de s'interroger sur le besoin d'introduire des événements sonores en lien avec l'ajout de cette nouvelle dimension visuelle : la profondeur. Plusieurs technologies semblent pouvoir offrir une description sonore 3D de l'espace (technologies binaurales, Ambisonics, Wave Field Synthesis). Le recours à ces technologies pourrait potentiellement améliorer la qualité d'expérience de l'utilisateur, en termes de réalisme tout d'abord grâce à l'amélioration de la cohérence spatiale audio-visuelle, mais aussi en termes de sensation d'immersion. Afin de vérifier cette hypothèse, nous avons mis en place un système de restitution audio-visuelle 3D proposant une présentation visuelle stéréoscopique associée à un rendu sonore spatialisé par Wave Field Synthesis. Trois axes de recherche ont alors été étudiés : 1 / Perception de la distance en présentation unimodale ou bimodale. Dans quelle mesure le système audio-visuel est-il capable de restituer des informations spatiales relatives à la distance, dans le cas d'objets sonores, visuels, ou audio-visuels ? Les expériences menées montrent que la Wave Field Synthesis permet de restituer la distance de sources sonores virtuelles. D'autre part, les objets visuels et audio-visuels sont localisés avec plus de précisions que les objets uniquement sonores. 2 / Intégration multimodale suivant la distance. Comment garantir une perception spatiale audio-visuelle cohérente de stimuli simples ? Nous avons mesuré l'évolution de la fenêtre d'intégration spatiale audio-visuelle suivant la distance, c'est-à-dire les positions des stimuli audio et visuels pour lesquelles la fusion des percepts a lieu. 3 / Qualité d'expérience audio-visuelle 3D. Quel est l'apport du rendu de la profondeur sonore sur la qualité d'expérience audio-visuelle 3D ? Nous avons tout d'abord évalué la qualité d'expérience actuelle, lorsque la présentation de contenus vidéo 3D est associée à une bande son 5.1, diffusée par des systèmes grand public (système 5.1, casque, et barre de son). Nous avons ensuite étudié l'apport du rendu de la profondeur sonore grâce au système audio-visuel proposé (vidéo 3D associée à la Wave Field Synthesis). / The digital entertainment industry is undergoing a major evolution due to the recent spread of stereoscopic-3D videos. It is now possible to experience 3D by watching movies, playing video games, and so on. In this context, video catches most of the attention but what about the accompanying audio rendering? Today, the most often used sound reproduction technologies are based on lateralization effects (stereophony, 5.1 surround systems). Nevertheless, it is quite natural to wonder about the need of introducing a new audio technology adapted to this new visual dimension: the depth. Many alternative technologies seem to be able to render 3D sound environments (binaural technologies, ambisonics, Wave Field Synthesis). Using these technologies could potentially improve users' quality of experience. It could impact the feeling of realism by adding audio-visual spatial congruence, but also the immersion sensation. In order to validate this hypothesis, a 3D audio-visual rendering system is set-up. The visual rendering provides stereoscopic-3D images and is coupled with a Wave Field Synthesis sound rendering. Three research axes are then studied: 1/ Depth perception using unimodal or bimodal presentations. How the audio-visual system is able to render the depth of visual, sound, and audio-visual objects? The conducted experiments show that Wave Field Synthesis can render virtual sound sources perceived at different distances. Moreover, visual and audio-visual objects can be localized with a higher accuracy in comparison to sound objects. 2/ Crossmodal integration in the depth dimension. How to guarantee the perception of congruence when audio-visual stimuli are spatially misaligned? The extent of the integration window was studied at different visual object distances. In other words, according to the visual stimulus position, we studied where sound objects should be placed to provide the perception of a single unified audio-visual stimulus. 3/ 3D audio-visual quality of experience. What is the contribution of sound depth rendering on the 3D audio-visual quality of experience? We first assessed today's quality of experience using sound systems dedicated to the playback of 5.1 soundtracks (5.1 surround system, headphones, soundbar) in combination with 3D videos. Then, we studied the impact of sound depth rendering using the set-up audio-visual system (3D videos and Wave Field Synthesis).

Page generated in 0.0675 seconds