• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 8
  • 1
  • Tagged with
  • 25
  • 25
  • 18
  • 18
  • 10
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

QoS provisioning in future wireless local area networks / Amélioration de la qualité de service dans les futures réseaux locaux sans fil

Paudel, Indira 15 January 2015 (has links)
Les réseaux locaux sans fil (WLAN) constituent encore le moyen le plus populaire de connexion à domicile et au bureau. Initialement conçus pour le transfert de données, avec des débits relativement faibles, il y a eu ces dernières années de fortes évolutions technologiques avec de nouveaux standards et des débits allant jusqu’à plusieurs dizaines de Mbps voire même plusieurs Gbps (IEEE 802.11n/ac). La gestion de la QoS sur les réseaux locaux sans fil basés sur la technique d’accès aléatoire constitue une problématique et un défi majeur pour les prochaines années, surtout si l’on considère la volonté des opérateurs de faire transiter des flux tels que la voix ou la vidéo. De nouvelles améliorations sont aujourd’hui plus que nécessaires afin de prendre en compte la QoS. Après l’analyse de l’état de l’art, notre première contribution concerne un mécanisme d’agrégation adaptative qui permet une différentiation de la QoS pour chaque classe de service. Nous avons ensuite étudié la Qualité d’Expérience (QoE). Nous l’avons évaluée pour le service vidéo avec différentes conditions radio et de charge. Nous avons ensuite proposé un système de prédiction de la QoE utilisant les systèmes de réseaux de neurones aléatoires (Random Neural Networks). Cette solution est ensuite utilisée pour l’analyse de l’impact des différents paramètres MAC sur la QoE pour le service vidéo. Nous avons ensuite proposé deux améliorations du mécanisme MAC. La première amélioration consiste à sélectionner des valeurs appropriées pour le Backoff. La seconde amélioration permet de renforcer la propriétarisation des flux en agissant sur les valeurs du paramètre AIFSN (Arbitration Inter-Frame Space Number). Les analyses de performances montrent que la solution proposée permet d’améliorer considérablement la QoS, particulièrement en permettant un accès assez régulier, minimiser les collisions et d’accroitre l’efficacité de l’usage des ressources radio disponibles / Wireless Local Area Networks (WLAN) are today the most popular access networking solution at homes and offices. Although initially, WLANs were designed to carry best effort traffic, users today are adopting them for various multimedia services and applications that have stringent QoS requirements. WLAN standards based on CSMA/CA technique are not able to provide QoS guarantees and furthermore lead to bad performances when the number of competing stations/flows increases. Moreover, standard QoS solutions rely on centralized approaches (e.g. PCF, HCCA) that are not widely used on terminals. The distributed approach, based on concurrent access remains fundamental in WLAN. In this thesis, we propose solutions to improve both QoS and QoE (Quality of Experience) of multimedia services over WLAN. The main contributions include proposal of an aggregation scheme that relies on QoS differentiation for different service classes. We then evaluated the QoE of video services over IEEE 802.11n networks for various radio, MAC and load conditions. Based on this study, a random neural network solution is then proposed to automate video QoE prediction from system parameters. Furthermore, an enhancement to the distributed access mechanism in IEEE 802.11 networks is also proposed. First, we proposed to select appropriate and specific Backoff values according to QoS requirements. Second, a new flow prioritization based on AIFSN (Arbitration Inter-Frame Space Number) values, allocated according to traffic load and traffic types is proposed. Through analysis, we showed that these solutions can enhance QoS and provide regular access, minimize collisions and provide better resource utilization
22

Quality of experience and video services adaptation / Qualité d’expérience et adaptation de services vidéo

Diallo, Mamadou Tourad 04 June 2015 (has links)
Avec l'hétérogénéité des réseaux et la demande croissante de services multimédias, la Qualité d'Expérience (QoE) devient un facteur déterminant de réussite ou d’échec de ces services. Dans cette thèse, nous avons d’abord analysé l'impact des paramètres de qualité sur l'engagement de l'utilisateur, afin de comprendre l’effet des paramètres vidéo (temps de démarrage, qualité intrinsèque, taux de blocage) et la popularité du service sur l'engagement de l'utilisateur. Nos résultats ont montré que le taux de blocage et la popularité du service sont des paramètres critiques qui impactent fortement la satisfaction et l'engagement de l’utilisateur, tandis que, le temps de démarrage a moins d’impact. Ensuite, les approches subjectives de QoE comme le Mean Opinion Score (MOS) ont été traité dans cette thèse, où les utilisateurs sont appelés à donner une note de satisfaction en fonction des informations de contextes. Une analyse statistique des résultats obtenus à partir de tests utilisateurs a montré que le type de terminal et de contenu sont des paramètres qui impactent fortement le MOS. En plus, des modèles mathématiques d’estimation de QoE en fonction des informations de contextes ont été proposés. Enfin, deux techniques d’optimisations ont été proposées : Le MDASH (MOS Dynamic Adaptive Streaming over HTTP) pour l’optimisation vidéo de flux partageant les mêmes ressources, de manière à garantir une certaine QoE pour tous les utilisateurs. Et une optimisation de livraison, basée sur des fonctions d’utilités dans laquelle, une fonction globale d'utilité est calculée en fonction de différentes contraintes (qui dépendent fortement des stratégies des acteurs de la chaîne de livraison) / With the network heterogeneity and increasing demand of multimedia services, Quality of Experience (QoE) becomes a crucial determinant of the success or failure of these services. In this thesis, we first propose to analyze the impact of quality metrics on user engagement, in order to understand the effects of video metrics (video startup time, average bitrate, buffering ratio) and content popularity on user engagement. Our results show that video buffering and content popularity are critical parameters which strongly impacts the end-user’s satisfaction and user engagement, while the video startup time appears as less significant. On other hand, we consider subjective approaches such as the Mean Opinion Score (MOS) for evaluating QoE, in which users are required to give their assessment according to contextual information. A detailed statistical analysis of our study shows the existence of non-trivial parameters impacting MOS (the type of device and the content type). We propose mathematical models to develop functional relationships between the QoE and the context information which in turn permits us to estimate the QoE. A video content optimization technique called MDASH (for MOS Dynamic Adaptive Streaming over HTTP) is proposed, which improves the perceived QoE for different video sessions sharing the same local network, while taking QoE fairness among users as a leitmotiv. We also propose a utility-based approach for video delivery optimization, in which a global utility function is computed based on different constraints (e.g. target strategies coming from the actors of the delivery chain)
23

Quel son spatialisé pour la vidéo 3D ? : influence d'un rendu Wave Field Synthesis sur l'expérience audio-visuelle 3D / Which spatialized sound for 3D video ? : influence of a Wave Field Synthesis rendering on 3D audio-visual experience

Moulin, Samuel 03 April 2015 (has links)
Le monde du divertissement numérique connaît depuis plusieurs années une évolution majeure avec la démocratisation des technologies vidéo 3D. Il est désormais commun de visualiser des vidéos stéréoscopiques sur différents supports : au cinéma, à la télévision, dans les jeux vidéos, etc. L'image 3D a considérablement évolué mais qu'en est-il des technologies de restitution sonore associées ? La plupart du temps, le son qui accompagne la vidéo 3D est basé sur des effets de latéralisation, plus au moins étendus (stéréophonie, systèmes 5.1). Il est pourtant naturel de s'interroger sur le besoin d'introduire des événements sonores en lien avec l'ajout de cette nouvelle dimension visuelle : la profondeur. Plusieurs technologies semblent pouvoir offrir une description sonore 3D de l'espace (technologies binaurales, Ambisonics, Wave Field Synthesis). Le recours à ces technologies pourrait potentiellement améliorer la qualité d'expérience de l'utilisateur, en termes de réalisme tout d'abord grâce à l'amélioration de la cohérence spatiale audio-visuelle, mais aussi en termes de sensation d'immersion. Afin de vérifier cette hypothèse, nous avons mis en place un système de restitution audio-visuelle 3D proposant une présentation visuelle stéréoscopique associée à un rendu sonore spatialisé par Wave Field Synthesis. Trois axes de recherche ont alors été étudiés : 1 / Perception de la distance en présentation unimodale ou bimodale. Dans quelle mesure le système audio-visuel est-il capable de restituer des informations spatiales relatives à la distance, dans le cas d'objets sonores, visuels, ou audio-visuels ? Les expériences menées montrent que la Wave Field Synthesis permet de restituer la distance de sources sonores virtuelles. D'autre part, les objets visuels et audio-visuels sont localisés avec plus de précisions que les objets uniquement sonores. 2 / Intégration multimodale suivant la distance. Comment garantir une perception spatiale audio-visuelle cohérente de stimuli simples ? Nous avons mesuré l'évolution de la fenêtre d'intégration spatiale audio-visuelle suivant la distance, c'est-à-dire les positions des stimuli audio et visuels pour lesquelles la fusion des percepts a lieu. 3 / Qualité d'expérience audio-visuelle 3D. Quel est l'apport du rendu de la profondeur sonore sur la qualité d'expérience audio-visuelle 3D ? Nous avons tout d'abord évalué la qualité d'expérience actuelle, lorsque la présentation de contenus vidéo 3D est associée à une bande son 5.1, diffusée par des systèmes grand public (système 5.1, casque, et barre de son). Nous avons ensuite étudié l'apport du rendu de la profondeur sonore grâce au système audio-visuel proposé (vidéo 3D associée à la Wave Field Synthesis). / The digital entertainment industry is undergoing a major evolution due to the recent spread of stereoscopic-3D videos. It is now possible to experience 3D by watching movies, playing video games, and so on. In this context, video catches most of the attention but what about the accompanying audio rendering? Today, the most often used sound reproduction technologies are based on lateralization effects (stereophony, 5.1 surround systems). Nevertheless, it is quite natural to wonder about the need of introducing a new audio technology adapted to this new visual dimension: the depth. Many alternative technologies seem to be able to render 3D sound environments (binaural technologies, ambisonics, Wave Field Synthesis). Using these technologies could potentially improve users' quality of experience. It could impact the feeling of realism by adding audio-visual spatial congruence, but also the immersion sensation. In order to validate this hypothesis, a 3D audio-visual rendering system is set-up. The visual rendering provides stereoscopic-3D images and is coupled with a Wave Field Synthesis sound rendering. Three research axes are then studied: 1/ Depth perception using unimodal or bimodal presentations. How the audio-visual system is able to render the depth of visual, sound, and audio-visual objects? The conducted experiments show that Wave Field Synthesis can render virtual sound sources perceived at different distances. Moreover, visual and audio-visual objects can be localized with a higher accuracy in comparison to sound objects. 2/ Crossmodal integration in the depth dimension. How to guarantee the perception of congruence when audio-visual stimuli are spatially misaligned? The extent of the integration window was studied at different visual object distances. In other words, according to the visual stimulus position, we studied where sound objects should be placed to provide the perception of a single unified audio-visual stimulus. 3/ 3D audio-visual quality of experience. What is the contribution of sound depth rendering on the 3D audio-visual quality of experience? We first assessed today's quality of experience using sound systems dedicated to the playback of 5.1 soundtracks (5.1 surround system, headphones, soundbar) in combination with 3D videos. Then, we studied the impact of sound depth rendering using the set-up audio-visual system (3D videos and Wave Field Synthesis).
24

Méthodes pour l'évaluation et la prédiction de la Qualité d'expérience, la préférence et l'inconfort visuel dans les applications multimédia. Focus sur la TV 3D stéréoscopique

Li, Jing 12 June 2013 (has links) (PDF)
La technologie multimédia vise à améliorer l'expérience visuelle des spectateurs, notamment sur le plan de l'immersion. Les développements récents de la TV HD, TV 3D, et TV Ultra HD s'inscrivent dans cette logique. La qualité d'expérience (QoE) multimédia implique plusieurs dimensions perceptuelles. Dans le cas particulier de la TV 3D stéréoscopique, trois dimensions primaires ont été identifiées dans la littérature: qualité d'image, qualité de la profondeur et confort visuel. Dans cette thèse, deux questions fondamentales sur la QoE sont étudiés. L'une a pour objet "comment évaluer subjectivement le caractère multidimensionnel de la QoE". L'autre s'intéresse à une dimension particuliére de QoE, "la mesure de l'inconfort et sa prédiction?". Dans la première partie, les difficultés de l'évaluation subjective de la QoE sont introduites, les mérites de méthodes de type "Comparaison par paire" (Paired Comparison en anglais) sont analysés. Compte tenu des inconvénients de la méthode de Comparaison par paires, un nouveau formalisme basé sur un ensemble de comparaisons par paires optimisées, est proposé. Celui-ci est évalué au travers de différentes expériences subjectives. Les résultats des tests confirment l'efficacité et la robustesse de ce formalisme. Un exemple d'application dans le cas de l'étude de l'évaluation des facteurs influençant la QoE est ensuite présenté. Dans la seconde partie, l'influence du mouvement tri-dimensionnel (3D) sur l'inconfort visuel est étudié. Un modèle objectif de l'inconfort visuel est proposé. Pour évaluer ce modèle, une expérience subjective de comparaison par paires a été conduite. Ce modèle de prédiction conduit à des corrélations élevées avec les données subjectives. Enfin, une étude sur des mesures physiologiques tentant de relier inconfort visuel et fréquence de clignements des yeux présentée.
25

Évaluer l'apport du binaural dans une application mobile audiovisuelle / Assessing the quality of experience of audiovisual services in a context of mobility : contribution of sound immersion

Moreira, Julian 10 July 2019 (has links)
Les terminaux mobiles offrent à ce jour des performances de plus en plus élevées (CPU, résolution de l’écran, capteurs optiques, etc.) Cela rehausse la qualité vidéo des services média, que ce soit pour le visionnage de contenu vidéo (streaming, TV, etc.) ou pour des applications interactives telles que le jeu vidéo. Mais cette évolution concernant l'image n'est pas ou peu suivie par l'intégration de systèmes de restitution audio de haute qualité dans ce type de terminal. Or, parallèlement à ces évolutions concernant l'image, des solutions de son spatialisé sur casque, à travers notamment la technique de restitution binaurale basée sur l'utilisation de filtres HRTF (Head Related Transfer Functions) voient le jour.Dans ce travail de thèse, nous nous proposons d’évaluer l’intérêt que peut présenter le son binaural lorsqu'il est utilisé sur une application mobile audiovisuelle. Une partie de notre travail a consisté à déterminer les différents sens que l’on pouvait donner au terme « application mobile audiovisuelle » et parmi ces sens ceux qui d’une part étaient pertinents et d’autre part pouvaient donner lieu à une évaluation comparative avec ou sans son binaural.Le couplage entre son binaural et visuel sur mobile occasionne en premier lieu une question d’ordre perceptive : comment peut-on organiser spatialement une scène virtuelle dont le son peut se déployer tout autour de l’utilisateur, et dont le visuel est restreint à un si petit écran ? La première partie de cette thèse est consacrée à cette question. Nous menons une expérience visant à étudier le découplage spatial possible entre un son binaural et un visuel rendus sur smartphone. Cette expérience révèle une forte tolérance de l’être humain face aux dégradations spatiales pouvant survenir entre les deux modalités. En particulier, l’absence d’individualisation des HRTF, ainsi qu’un très grand découplage en élévation ne semblent pas affecter la perception. Par ailleurs, les sujets semblent envisager la scène « comme si » ils y étaient eux-mêmes directement projetés, à la place de la caméra, et cela indépendamment de leur propre distance à l’écran. Tous ces résultats suggèrent la possibilité d’une association entre son binaural et visuel sur mobile dans des conditions d’utilisation proches du grand public.Dans la seconde partie de la thèse, nous tentons de répondre à la question de l’apport du binaural en déployant une expérience « hors les murs », dans un contexte plausible d’utilisation grand public. Trente sujets jouent dans leur vie quotidienne à un jeu vidéo de type Infinite Runner, développé pour l’occasion en deux versions, une avec du son binaural, et l’autre avec du son monophonique. L’expérience dure cinq semaines, à raison de deux sessions par jour. Ce protocole procède de la méthode dite "Experience Sampling Method", sur l’état de l’art de laquelle nous nous sommes appuyés. Nous calculons à chaque session des notes d’immersion, de mémorisation et de performance, et nous comparons les notes obtenues entre les deux versions sonores. Les résultats indiquent une immersion significativement meilleure pour le binaural. La mémorisation et la performance ne sont en revanche pas soumises à un effet statistiquement significatif du rendu sonore. Au-delà des résultats, cette expérience nous permet de discuter de la question de la validité des données en fonction de la méthode de déploiement, en confrontant notamment bien-fondé théorique et faisabilité pratique. / In recent years, smartphone and tablet global performances have been increased significantly (CPU, screen resolution, webcams, etc.). This can be particularly observed with video quality of mobile media services, such as video streaming applications, or interactive applications (e.g., video games). However, these evolutions barely go with the integration of high quality sound restitution systems. Beside these evolutions though, new technologies related to spatialized sound on headphones have been developed, namely the binaural restitution model, using HRTF (Head Related Transfer Functions) filters.In this thesis, we assess the potential contribution of the binaural technology to enhance the quality of experience of an audiovisual mobile application. A part of our work has been dedicated to define what is an “audiovisual mobile application”, what kind of application could be fruitfully experienced with a binaural sound, and among those applications which one could lead to a comparative experiment with and without binaural.In a first place, the coupling of a binaural sound with a mobile-rendered visual tackles a question related to perception: how to spatially arrange a virtual scene whose sound can be spread all around the user, while its visual is limited to a very small space? We propose an experiment in these conditions to study how far a sound and a visual can be moved apart without breaking their perceptual fusion. The results reveal a strong tolerance of subjects to spatial discrepancies between the two modalities. Notably, the absence or presence of individualization for the HRTF filters, and a large separation in elevation between sound and visual don’t seem to affect the perception. Besides, subjects consider the virtual scene as if they were projected inside, at the camera’s position, no matter what distance to the phone they sit. All these results suggest that an association between a binaural sound and a visual on a smartphone could be used by the general public.In the second part, we address the main question of the thesis, i.e., the contribution of binaural, and we conduct an experiment in a realistic context of use. Thirty subjects play an Infinite Runner video game in their daily lives. The game was developed for the occasion in two versions, a monophonic one and a binaural one. The experiment lasts five weeks, at a rate of two sessions per day, which relates to a protocol known as the “Experience Sampling Method”. We collect at each session notes of immersion, memorization and performance, and compare the notes between the monophonic sessions and the binaural ones. Results indicate a significantly better immersion in the binaural sessions. No effect of sound rendering was found for memorization and performance. Beyond the contribution of the binaural, we discuss about the protocol, the validity of the collected data, and oppose theoretical considerations to practical feasibility.

Page generated in 0.0824 seconds