Spelling suggestions: "subject:"codage video"" "subject:"codage vidas""
11 |
Codage de sources distribuées : Outils et Applications à la compression vidéoToto-Zarasoa, Velotiaray 29 November 2010 (has links) (PDF)
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation.
|
12 |
Pré-analyse de la vidéo pour un codage adapté. Application au codage de la TVHD en flux H.264Brouard, Olivier 20 July 2010 (has links) (PDF)
Les méthodes d'optimisation d'un codeur vidéo classique ne traitent l'information à réduire que d'un point de vue signal et sont donc « bas niveau ». Bien que des travaux intégrant des propriétés du SVH soient proposés pour l'évaluation de la qualité, ou améliorer les techniques de codage, ces méthodes sont peu retenues au niveau des standards. Les travaux de recherche se portent davantage sur l'enrichissement des nouvelles normes, tel que le standard H.264. Cependant, les méthodes « haut niveau » obtiennent des performances encourageantes. Nous proposons donc une méthode de pré-analyse de la vidéo, qui intègre un modèle de l'attention visuelle. Le but est d'analyser la vidéo en tenant compte des informations haut niveau, pour transmettre au codeur le jeu de paramètres optimal afin d'exploiter au mieux les outils de codage. Les études réalisées pour modéliser l'attention visuelle ont mis en évidence le caractère primordial du contraste de mouvement. Notre méthode de pré-analyse détecte d'abord les objets en mouvement (par rapport à celui de la caméra), puis calcule les cartes de saillance permettant de déterminer les zones visuellement importantes. Nous proposons deux applications de codage (qui peuvent être utilisées conjointement) en fonction des informations obtenues après la pré-analyse, ainsi que l'évaluation de leurs performances. La première propose de modifier adaptativement la structure du GOP en fonction du contenu spatiotemporel de la vidéo. La deuxième concerne une application de compression de la vidéo avec une qualité visuelle différenciée guidée par les cartes de saillance. Les performances sont analysées à partir de tests d'évaluation subjective de la qualité.
|
13 |
Adaptive Multicast Live Streaming for A/V Conferencing Systems over Software-Defined Networks / Diffusion multipoint adaptable pour les systèmes de télé- et visioconférences déployés sur les réseaux à définition logicielleAl Hasrouty, Christelle 04 December 2018 (has links)
Les applications en temps réel, telles que les systèmes de conférence multi-utilisateurs, ont des exigences de qualité de service élevées pour garantir une qualité d'expérience décente. De nos jours, la plupart de ces conférences sont effectuées sur des appareils sans fil. Ainsi, les appareils mobiles hétérogènes et la dynamique du réseau doivent être correctement gérés pour fournir une bonne qualité d’expérience. Dans cette thèse, nous proposons deux algorithmes pour construire et gérer des sessions de conférence basées sur un réseau défini par logiciel qui utilise à la fois la distribution multicast et l’adaptation de flux. Le premier algorithme configure la conférence téléphonique en créant des arborescences de multidiffusion pour chaque participant. Ensuite, il place de manière optimale les emplacements et les règles d’adaptation des flux sur le réseau afin de minimiser la consommation de bande passante. Nous avons créé deux versions de cet algorithme: le premier, basé sur les arborescences les plus courtes, minimise la latence, tandis que le second, basé sur les arborescences, minimise la consommation de bande passante. Le deuxième algorithme adapte les arborescences de multidiffusion en fonction des modifications du réseau qui se produisent pendant un appel. Il ne recalcule pas les arbres, mais ne déplace que les emplacements et les règles d’adaptation des flux. Cela nécessite un calcul très faible au niveau du contrôleur, ce qui rend notre proposition rapide et hautement réactive. Des résultats de simulation étendus confirment l'efficacité de notre solution en termes de temps de traitement et d'économies de bande passante par rapport aux systèmes de conférence existants basés sur une unité de contrôle multipoint et une multidiffusion de couche d'application. / Real-time applications, such as Multi-party conferencing systems, have strong Quality of Service requirements for ensuring a decent Quality of Experience. Nowadays, most of these conferences are performed on wireless devices. Thus, heterogeneous mobile devices and network dynamics must be properly managed to provide a good quality of experience. In this thesis, we propose two algorithms for building and maintaining conference sessions based on Software-Defined Network that uses both multicast distribution and streams adaptation. The first algorithm set up the conference call by building multicast trees for each participant. Then, it optimally places the stream adaptation locations and rules inside the network in order to minimize the bandwidth consumption. We have created two versions of this algorithm: the first one, based on the shortest path trees is minimizing the latency, while the second one, based on spanning trees is minimizing the bandwidth consumption. The second algorithm adapts the multicast trees according to the network changes occurring during a call. It does not recompute the trees, but only relocates the locations and rules of stream adaptation. It requires very low computation at the controller, thus making our proposal fast and highly reactive. Extensive simulation results confirm the efficiency of our solution in terms of processing time and bandwidth savings compared to existing conferencing systems based on a Multipoint Control Unit and Application Layer Multicast.
|
14 |
Optimisation du codage HEVC par des moyens de pré-analyse et/ou pré-codage du contenu / HEVC encoder optimization with pre-analysis and/or pre-encoding of the video contentDhollande, Nicolas 21 April 2016 (has links)
La compression vidéo HEVC standardisée en 2013 offre des gains de compression dépassant les 50% par rapport au standard de compression précédent MPEG4-AVC/H.264. Ces gains de compression se paient par une augmentation très importante de la complexité de codage. Si on ajoute à cela l’augmentation de complexité générée par l’accroissement de résolution et de fréquence image du signal vidéo d’entrée pour passer de la Haute Définition (HD) à l’Ultra Haute Définition (UHD), on comprend vite l’intérêt des techniques de réduction de complexité pour le développement de codeurs économiquement viables. En premier lieu, un effort particulier a été réalisé pour réduire la complexité des images Intra. Nous proposons une méthode d'inférence des modes de codage à partir d'un pré-codage d'une version réduite en HD de la vidéo UHD. Ensuite, nous proposons une méthode de partitionnement rapide basée sur la pré-analyse du contenu. La première méthode offre une réduction de complexité d'un facteur 3 et la deuxième, d'un facteur 6, contre une perte de compression proche de 5%. En second lieu, nous avons traité le codage des images Inter. En mettant en œuvre une solution d'inférence des modes de codage UHD à partir d'un pré-codage au format HD, la complexité de codage est réduite d’un facteur 3 en considérant les 2 flux produits et d’un facteur 9.2 sur le seul flux UHD, pour une perte en compression proche de 3%. Appliqué à une configuration de codage proche d'un système réellement déployé, l'apport de notre algorithme reste intéressant puisqu'il réduit la complexité de codage du flux UHD d’un facteur proche de 2 pour une perte de compression limitée à 4%. Les stratégies de réduction de complexité mises en œuvre au cours de cette thèse pour le codage Intra et Inter offrent des perspectives intéressantes pour le développement de codeurs HEVC UHD plus économes en ressources de calculs. Elles sont particulièrement adaptées au domaine de la WebTV/OTT qui prend une part croissante dans la diffusion de la vidéo et pour lequel le signal vidéo est codé à des résolutions multiples pour adresser des réseaux et des terminaux de capacités variées. / The High Efficiency Video Coding (HEVC) standard was released in 2013 which reduced network bandwidth by a factor of 2 compared to the prior standard H.264/AVC. These gains are achieved by a very significant increase in the encoding complexity. Especially with the industrial demand to shift in format from High Definition (HD) to Ultra High Definition (UHD), one can understand the relevance of complexity reduction techniques to develop cost-effective encoders. In our first contribution, we attempted new strategies to reduce the encoding complexity of Intra-pictures. We proposed a method with inference rules on the coding modes from the modes obtained with pre-encoding of the UHD video down-sampled in HD. We, then, proposed a fast partitioning method based on a pre-analysis of the content. The first method reduced the complexity by a factor of 3x and the second one, by a factor of 6, with a loss of compression efficiency of 5%. As a second contribution, we adressed the Inter-pictures. By implementing inference rules in the UHD encoder, from a HD pre-encoding pass, the encoding complexity is reduced by a factor of 3x when both HD and UHD encodings are considered, and by 9.2x on just the UHD encoding, with a loss of compression efficiency of 3%. Combined with an encoding configuration imitating a real system, our approach reduces the complexity by a factor of close to 2x with 4% of loss. These strategies built during this thesis offer encouraging prospects for implementation of low complexity HEVC UHD encoders. They are fully adapted to the WebTV/OTT segment that is playing a growing part in the video delivery, in which the video signal is encoded with different resolution to reach heterogeneous devices and network capacities.
|
15 |
Mécanismes Cross-Layer pour le streaming vidéo dans les réseaux WIMAX / Cross-Layer Mechanisms for video streaming in WIMAX NetworksAbdallah, Alaeddine 09 December 2010 (has links)
Poussé par la demande croissante de services multimédia dans les réseaux Internet à haut débit, la technologie WIMAX a émergé comme une alternative compétitive à la solution filaire d’accès à haut débit. L’IEEE 802.16 constitue une solution qui offre des débits élevés en assurant une qualité de service (QoS) satisfaisante. En particulier, elle est adaptée aux applications multimédia qui ont des contraintes de QoS à satisfaire. Cependant, avec la présence d’utilisateurs hétérogènes qui ont des caractéristiques diverses en termes de bande passante, de conditions radio et de ressources disponibles, de nouveaux défis posés doivent être résolus. En effet, les applications multimédia doivent interagir avec leur environnement pour informer le réseau d’accès de leurs besoins en QoS et s’adapter dynamiquement aux variations des conditions du réseau.Dans ce contexte, nous proposons deux solutions pour la transmission des flux vidéo sur les réseaux 802.16 sur la base de l’approche Cross-layer. Nous nous intéressons à la fois à la transmission unicast et multicast sur le lien montant et descendant d’une ou plusieurs cellules WIMAX.Premièrement, nous proposons une architecture Cross-Layer qui permet l’adaptation et l’optimisation du streaming vidéo en fonction des ressources disponibles. Nous avons défini une entité CLO (Cross-Layer Optimizer) qui exploite des messages de gestion des flux de service, échangés entre BS et SS, au niveau MAC, pour déterminer l’adaptation nécessaire et optimale afin d’assurer le bon fonctionnement de l’application. Les adaptations se produisent en deux temps, lors de l'admission du flux et au cours de la session de streaming. L’analyse des performances, par simulations, de notre solution montre l’efficacité du CLO à adapter, d’une façon dynamique, le débit vidéo en fonction des conditions du réseau afin d’assurer une QoS optimale.Deuxièmement, nous proposons une solution de streaming multicast des flux vidéo dans les réseaux WIMAX. Cette solution permet de trouver un compromis entre la diversité des clients, en termes de conditions radio, de schémas de modulation et de ressources disponibles, ainsi que le format de codage vidéo hiérarchique SVC, pour offrir la meilleure qualité vidéo y compris pour les clients ayant de faibles conditions radio. En effet, cette solution permet à chaque utilisateur d’obtenir une qualité vidéo proportionnellement à ses conditions radio et à sa bande passante disponible. Pour atteindre cet objectif, plusieurs groupes multicast sont formés par couches vidéo SVC. Cette solution permet d’optimiser davantage les ressources radio et ainsi d’augmenter la capacité globale du système. / Driven by the increasing demand for multimedia services in broadband Internet networks, WIMAX technology has emerged as a competitive alternative to the wired broadband access solutions. The IEEE 802.16 is a solution that provides high throughput by ensuring a satisfactory QoS. In particular, it is suitable for multimedia applications that have strict QoS constraints. However, the users’ heterogeneity and diversity in terms of bandwidth, radio conditions and available resources, pose new deployment challenges. Indeed, multimedia applications need to interact with their environment to inform the access network about their QoS requirements and dynamically adapt to changing network conditions.In this context, we propose two solutions for video streaming over 802.16 networks based on Cross-Layer approach. We are interested in both unicast and multicast transmissions in uplink and downlink of one or more WIMAX cells.First, we proposed an architecture that enables Cross-Layer adaptation and optimization of video streaming based on available resources. We defined the entity CLO (Cross-Layer Optimizer) that takes benefits from service flow management messages, exchanged between BS and SS, at the MAC level, to determine the necessary adaptations / adjustment to ensure optimal delivery of the application. Adaptations occur at two epochs, during the admission of the video stream and during the streaming phase. The performance analysis, performed through simulations, shows the effectiveness of the CLO to adapt in a dynamic way, the video data rate depending on network conditions, and thus guarantee an optimal QoS.Second, we proposed a solution that enables IP multicast video delivery in WIMAX network. This solution allows finding the compromise between the diversity of end-user requirements, in terms of radio conditions, modulation schemes and available resources, along with the SVC hierarchy video format, to offer the best video quality even for users with low radio conditions. Indeed, we define a multicast architecture that allows each user to get a video quality proportionally to its radio conditions and its available bandwidth. Towards this end, several IP multicast groups are created depending on the SVC video layers. Subsequently, our solution allows optimizing the use of radio resources by exploiting the different modulations that can be selected by the end-users.
|
16 |
Optimisation des techniques de compression d'images fixes et de vidéo en vue de la caractérisation des matériaux : applications à la mécanique / Optimization of compression techniques for still images and video for characterization of materials : mechanical applicationsEseholi, Tarek Saad Omar 17 December 2018 (has links)
Cette thèse porte sur l’optimisation des techniques de compression d'images fixes et de vidéos en vue de la caractérisation des matériaux pour des applications dans le domaine de la mécanique, et s’inscrit dans le cadre du projet de recherche MEgABIt (MEchAnic Big Images Technology) soutenu par l’Université Polytechnique Hauts-de-France. L’objectif scientifique du projet MEgABIt est d’investiguer dans l’aptitude à compresser de gros volumes de flux de données issues d’instrumentation mécanique de déformations à grands volumes tant spatiaux que fréquentiels. Nous proposons de concevoir des algorithmes originaux de traitement dans l’espace compressé afin de rendre possible au niveau calculatoire l’évaluation des paramètres mécaniques, tout en préservant le maximum d’informations fournis par les systèmes d’acquisitions (imagerie à grande vitesse, tomographie 3D). La compression pertinente de la mesure de déformation des matériaux en haute définition et en grande dynamique doit permettre le calcul optimal de paramètres morpho-mécaniques sans entraîner la perte des caractéristiques essentielles du contenu des images de surface mécaniques, ce qui pourrait conduire à une analyse ou une classification erronée. Dans cette thèse, nous utilisons le standard HEVC (High Efficiency Video Coding) à la pointe des technologies de compression actuelles avant l'analyse, la classification ou le traitement permettant l'évaluation des paramètres mécaniques. Nous avons tout d’abord quantifié l’impact de la compression des séquences vidéos issues d’une caméra ultra-rapide. Les résultats expérimentaux obtenus ont montré que des taux de compression allant jusque 100 :1 pouvaient être appliqués sans dégradation significative de la réponse mécanique de surface du matériau mesurée par l’outil d’analyse VIC-2D. Finalement, nous avons développé une méthode de classification originale dans le domaine compressé d’une base d’images de topographie de surface. Le descripteur d'image topographique est obtenu à partir des modes de prédiction calculés par la prédiction intra-image appliquée lors de la compression sans pertes HEVC des images. La machine à vecteurs de support (SVM) a également été introduite pour renforcer les performances du système proposé. Les résultats expérimentaux montrent que le classificateur dans le domaine compressé est robuste pour la classification de nos six catégories de topographies mécaniques différentes basées sur des méthodologies d'analyse simples ou multi-échelles, pour des taux de compression sans perte obtenus allant jusque 6: 1 en fonction de la complexité de l'image. Nous avons également évalué les effets des types de filtrage de surface (filtres passe-haut, passe-bas et passe-bande) et de l'échelle d'analyse sur l'efficacité du classifieur proposé. La grande échelle des composantes haute fréquence du profil de surface est la mieux appropriée pour classer notre base d’images topographiques avec une précision atteignant 96%. / This PhD. thesis focuses on the optimization of fixed image and video compression techniques for the characterization of materials in mechanical science applications, and it constitutes a part of MEgABIt (MEchAnic Big Images Technology) research project supported by the Polytechnic University Hauts-de-France (UPHF). The scientific objective of the MEgABIt project is to investigate the ability to compress large volumes of data flows from mechanical instrumentation of deformations with large volumes both in the spatial and frequency domain. We propose to design original processing algorithms for data processing in the compressed domain in order to make possible at the computational level the evaluation of the mechanical parameters, while preserving the maximum of information provided by the acquisitions systems (high-speed imaging, tomography 3D). In order to be relevant image compression should allow the optimal computation of morpho-mechanical parameters without causing the loss of the essential characteristics of the contents of the mechanical surface images, which could lead to wrong analysis or classification. In this thesis, we use the state-of-the-art HEVC standard prior to image analysis, classification or storage processing in order to make the evaluation of the mechanical parameters possible at the computational level. We first quantify the impact of compression of video sequences from a high-speed camera. The experimental results obtained show that compression ratios up to 100: 1 could be applied without significant degradation of the mechanical surface response of the material measured by the VIC-2D analysis tool. Then, we develop an original classification method in the compressed domain of a surface topography database. The topographical image descriptor is obtained from the prediction modes calculated by intra-image prediction applied during the lossless HEVC compression of the images. The Support vector machine (SVM) is also introduced for strengthening the performance of the proposed system. Experimental results show that the compressed-domain topographies classifier is robust for classifying the six different mechanical topographies either based on single or multi-scale analyzing methodologies. The achieved lossless compression ratios up to 6:1 depend on image complexity. We evaluate the effects of surface filtering types (high-pass, low-pass, and band-pass filter) and the scale of analysis on the efficiency of the proposed compressed-domain classifier. We verify that the high analysis scale of high-frequency components of the surface profile is more appropriate for classifying our surface topographies with accuracy of 96 %.
|
17 |
Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribuéPetrazzuoli, Giovanni 14 January 2013 (has links) (PDF)
Le codage vidéo distribué est un paradigme qui consiste en encoder indépendamment deux sources corrélées mais à les décoder conjointement. Wyner and Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion du codage de source conjoint sous quelques contraintes. Cette caractéristique rend le codage de source distribué très attractif pour applications qui demandent un encodeur à bas complexité (comme par example des réseaux des senseurs sans fil) ou pour éviter tout sorte de communication entre les source (comme dans les systèmes multi-vues). Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément mais elles sont encodées conjointement. Dans l'architecture de Stanford, la flux vidéo est séparée en trames clés (TC) et Wyner-Ziv (TWZ). Seulement les trames clés sont envoyées au décodeur. Les trames Wyner-Ziv sont donné en entrée à un codeur systématique de canal et les bits de parité sont envoyés au décodeur. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelé information adjacente, en interpolant les trames déjà disponibles au décodeur. L'information adjacente, qui peut être considérée comme une version bruitée de la vraie trame Wyner-Ziv, est corrigées par les bits de parité envoyées par l'encodeur. Dans cette thèse, on a étudié plusieurs algorithmes pour la génération de l'information adjacente dans le cadre du codage vidéo distribué multi-vues pour ce qui concerne et interpolation temporelle et l'interpolation inter-vue. Tous les algorithmes proposés donne des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Une deuxième contribution concerne le format vidéo multi-vues plus profondeur. Dans le cadre du paradigme du streaming interactive pour la vidéo multi-vues, le codage vidéo distribué assure la continuité de la reproduction pendant le streaming, puisque les trames Wyner-Ziv dont décodées indépendamment des trames de référence qui sont disponibles au décodeur. On a proposé plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans ce contexte-là.
|
18 |
Techniques d'amélioration des performances de compression dans le cadre du codage vidéo distribuéAbou El Ailah, Abdalbassir 14 December 2012 (has links) (PDF)
Le codage vidéo distribué (DVC) est une technique récemment proposée dans le cadre du codage vidéo, et qui convient surtout à une nouvelle classe d'applications telles que la surveillance vidéo sans fil, les réseaux de capteurs multimédia, et les téléphones mobiles. En DVC, une information adjacente (SI) est estimée au décodeur en se basant sur les trames décodées disponibles, et utilisée pour le décodage et la reconstruction des autres trames. Dans cette thèse, nous proposons de nouvelles techniques qui permettent d'améliorer la qualité de la SI. Tout d'abord, le raffinement itératif de la SI est réalisé après le décodage de chaque sous-bande DCT. Ensuite, une nouvelle méthode de génération de la SI est proposée, qui utilise l'estimation des vecteurs de mouvement dans les deux sens et le raffinement Quad-tree. Ensuite, de nouvelles approches sont proposées afin de combiner les estimations globale et locale en utilisant les différences entre les blocs correspondants et la technique SVM. En plus, des algorithmes sont proposés pour améliorer la fusion au cours du décodage. En outre, les objets segmentés des trames de référence sont utilisés dans la fusion, en utilisant les courbes élastiques et la compensation de mouvement basée-objets. De nombreuses simulations ont été effectuées pour tester les performances des techniques proposés et qui montrent des gains importants par rapport au codeur classique DISCOVER. Par ailleurs, les performances de DVC obtenues en appliquant les algorithmes proposés surpassent celles de H.264/AVC Intra et H.264/AVC No motion pour les séquences testées. En plus, l'écart vis-à-vis de H.264/AVC Inter (IB...IB) est considérablement réduit.
|
19 |
Stratégies d'encodage pour codeur vidéo scalablePitrey, Yohann 16 September 2009 (has links) (PDF)
Les travaux de cette thèse ont pour but de développer des stratégies de régulation de débit pour le codage vidéo scalable MPEG-4 SVC. Plusieurs approches sont proposées, en fonction des besoins en termes de précision et de la complexité désirée. La qualité du flux vidéo décodé est également prise en compte afin d'améliorer l'impression visuelle. La multiplication des moyens de transmission et la diversification des appareils capables de lire du contenu vidéo contraignent les diffuseurs à dépenser beaucoup de temps et de moyens pour être en mesure de fournir une qualité de vidéo optimale quel que soit le contexte. La vidéo scalable a été développée en réponse à ce besoin d'adaptation des contenus vidéo aux différents contextes de diffusion. Le standard H.264/MPEG-4 SVC (Scalable Video Coding) propose trois types de scalabilité (spatiale, temporelle et en qualité), qui permettent d'adapter la résolution, le nombre d'images par seconde et la qualité du flux en fonction des besoins. Un flux vidéo unique est encodé, contentant plusieurs couches de résolution différentes codées les unes par rapport aux autres, de façon à rendre le codage de l'ensemble plus efficace. La régulation de débit permet d'adapter le débit en sortie de l'encodeur pour respecter des contraintes liées à la transmission ou au décodage du flux vidéo. À partir d'une consigne donnée, le budget à respecter est réparti entre les différents éléments du flux. Un modèle de débit est ensuite utilisé pour anticiper le comportement du débit en fonction des paramètres d'encodage afin de respecter les contraintes imposées au flux. À partir de cette problématique, deux approches sont proposées. La première se base sur un pré-encodage de chaque image pour fournir une base de calcul au modèle de débit. Elle permet d'obtenir une régulation très précise, avec une erreur entre le budget alloué et le débit effectif inférieure à 7\% sur les trois types de scalabilité. La seconde approche utilise les informations rassemblées dans les images précédentes comme base pour le modèle de débit de l'image à encoder. Elle ne requiert pas de pré-encodage, et ne pénalise pas la complexité du processus d'encodage. En outre, la perte de performances par rapport à l'approche en deux passes est minime et la consigne de débit par seconde est respectée de manière précise. Enfin, une méthode permettant de réduire les variations de la qualité est proposée pour améliorer l'impression visuelle ressentie par l'utilisateur. Les résultats montrent que la méthode présentée est capable de réguler le débit avec une grande précision sur les trois types de scalabilité, tout en réduisant les variations de la qualité et en conservant une complexité de calculs très faible. Ces atouts la rendent non seulement intéressante du point de vue des performances, mais également applicable dans des contextes pratiques où les ressources en temps sont limitées.
|
20 |
Machine virtuelle universelle pour codage vidéo reconfigurableGorin, Jérôme 22 November 2011 (has links) (PDF)
Cette thèse propose un nouveau paradigme de représentation d'applications pour les machines virtuelles, capable d'abstraire l'architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d'application qui abstrait les instructions des machines et sur un modèle d'exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S'ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d'exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d'abord développé une représentation " universelle " d'applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l'application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de " Représentation Canonique et Minimale " d'acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d'abstraction d'instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d'une " Machine Virtuelle Universelle " (MVU) dont la spécificité est de gérer les mécanismes d'adaptation, d'optimisation et d'ordonnancement à partir de l'infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L'une des applications de cette thèse est la modélisation par graphe flux de données d'un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d'utilisation dépasse le domaine vidéo pour s'appliquer à d'autres domaine de traitement du signal (3D, son, photo...)
|
Page generated in 0.0413 seconds