Spelling suggestions: "subject:"transformée"" "subject:"transformé""
1 |
Multiple transforms for video coding / Transformées multiples pour le codage vidéoArrufat Batalla, Adrià 11 December 2015 (has links)
Les codeurs vidéo état de l’art utilisent des transformées pour assurer une représentation compacte du signal. L’étape de transformation constitue le domaine dans lequel s’effectue la compression, pourtant peu de variabilité dans les types de transformations est constatée dans les systèmes de codage vidéo normalisés : souvent, une seule transformée est considérée, habituellement la transformée en cosinus discrète (DCT). Récemment, d’autres transformées ont commencé à être considérées en complément de la DCT. Par exemple, dans le dernier standard de compression vidéo, nommé HEVC (High Efficiency Video Coding), les blocs de taille 4x4 peuvent utiliser la transformée en sinus discrète (DST), de plus, il est également possible de ne pas les transformer. Ceci révèle un intérêt croissant pour considérer une pluralité de transformées afin d’augmenter les taux de compression. Cette thèse se concentre sur l’extension de HEVC au travers de l’utilisation de multiples transformées. Après une introduction générale au codage vidéo et au codage par transformée, une étude détaillée de deux méthodes de construction de transformations est menée : la transformée de Karhunen Loève (KLT) et une transformée optimisée en débit et distorsion sont considérées. Ces deux méthodes sont comparées entre-elles en substituant les transformées utilisées par HEVC. Une expérimentation valide la pertinence des approches. Un schéma de codage qui incorpore et augmente l’utilisation de multiples transformées est alors introduit : plusieurs transformées sont mises à disposition de l’encodeur, qui sélectionne celle qui apporte le meilleur compromis dans le plan débit distorsion. Pour ce faire, une méthode de construction qui permet de concevoir des systèmes comportant de multiples transformations est décrite. Avec ce schéma de codage, le débit est significativement réduit par rapport à HEVC, tout particulièrement lorsque les transformées sont nombreuses et complexes à mettre en oeuvre. Néanmoins, ces améliorations viennent au prix d’une complexité accrue en termes d’encodage, de décodage et de contrainte de stockage. En conséquence, des simplifications sont considérées dans la suite du document, qui ont vocation à limiter l’impact en réduction de débit. Une première approche est introduite dans laquelle des transformées incomplètes sont motivées. Les transformations de ce type utilisent un seul vecteur de base, et sont conçues pour travailler de concert avec les transformations de HEVC. Cette technique est évaluée et apporte une réduction de complexité significative par rapport au précédent système, bien que la réduction de débit soit modeste. Une méthode systématique, qui détermine les meilleurs compromis entre le nombre de transformées et l’économie de débit est alors définie. Cette méthode utilise deux types différents de transformée : basés sur des transformées orthogonales séparables et des transformées trigonométriques discrètes (DTT) en particulier. Plusieurs points d’opération sont présentés qui illustrent plusieurs compromis complexité / gain en débit. Ces systèmes révèlent l’intérêt de l’utilisation de transformations multiples pour le codage vidéo. / State of the art video codecs use transforms to ensure a compact signal representation. The transform stage is where compression takes place, however, little variety is observed in the type of transforms used for standardised video coding schemes: often, a single transform is considered, usually a Discrete Cosine Transform (DCT). Recently, other transforms have started being considered in addition to the DCT. For instance, in the latest video coding standard, High Efficiency Video Coding (HEVC), the 4x4 sized blocks can make use of the Discrete Sine Transform (DST) and, in addition, it also possible not to transform them. This fact reveals an increasing interest to consider a plurality of transforms to achieve higher compression rates. This thesis focuses on extending HEVC through the use of multiple transforms. After a general introduction to video compression and transform coding, two transform designs are studied in detail: the Karhunen Loève Transform (KLT) and a Rate-Distortion Optimised Transform are considered. These two methods are compared against each other by replacing the transforms in HEVC. This experiment validates the appropriateness of the design. A coding scheme that incorporates and boosts the use of multiple transforms is introduced: several transforms are made available to the encoder, which chooses the one that provides the best rate-distortion trade-off. Consequently, a design method for building systems using multiple transforms is also described. With this coding scheme, significant amounts of bit-rate savings are achieved over HEVC, especially when using many complex transforms. However, these improvements come at the expense of increased complexity in terms of coding, decoding and storage requirements. As a result, simplifications are considered while limiting the impact on bit-rate savings. A first approach is introduced, in which incomplete transforms are used. This kind of transforms use one single base vector and are conceived to work as companions of the HEVC transforms. This technique is evaluated and provides significant complexity reductions over the previous system, although the bit-rate savings are modest. A systematic method, which specifically determines the best trade-offs between the number of transforms and bit-rate savings, is designed. This method uses two different types of transforms based separable orthogonal transforms and Discrete Trigonometric Transforms (DTTs) in particular. Several designs are presented, allowing for different complexity and bitrate savings trade-offs. These systems reveal the interest of using multiple transforms for video coding.
|
2 |
Représentations Temps-Fréquence et Temps-Echelle Bilinéaires: Synthèse et ContributionsGonçalves, Paulo 26 November 1993 (has links) (PDF)
Cette thèse est consacrée à l'étude des distributions énergétiques temps-fréquence et temps-échelle, qui sont deux types de représentations conjointes bilinéaires de signaux. Bien que leurs vocations respectives diffèrent, on montre dans une première partie qu'il est possible d'unifier le cadre de leur étude en les présentant comme des représentations unitaires dans un espace de Hilbert, de groupes algébriques munis de règes opératorielles particulières. Ainsi, la classe de Cohen, représentation unitaire du groupe de Weyl-Heisenberg, est attachée à des propriétés naturelles de covariance par translation en temps et en fréquence. Les distributions temps-échelle de la classe affine étant, quant à elles, des représentations du groupe affine, sont précisément les distributions covariantes par translation en temps et changement d'échelle. Ce faisant, il est ensuite possible d'élargir le champ des distributions covariantes par un couple spécifique d'opérateurs en faisant usage d'équivalences unitaires entre classe de représentations. Un autre aspect de ces représentations bilinéaires, qui est abordé dans la deuxième partie de la thèse, est lié aux formes quadratiques qui les sous-tendent. Celles-ci sont notamment responsables de l'existence d'interférences obéissant à des règles de construction géométriques en lien avec la nature des opérateurs mis en jeu. Ces règles de construction sont formalisées dans le cas de certaines distributions affines localisées, et les prédictions théoriques sont confrontées à des résultats de simulation. Enfin dans une dernière partie, nous abordons certaines situations pour lesquelles les caractérisations temps-échelle sont d'un recours avantageux face aux analyses temps-fréquence. Parmi les problématiques soulevées (qui incluent la tolérance à l'effet Doppler et l'estimation spectrale de bruits en « 1/f »), l'estimation de singularités du type hölderienne occupe une place importante dans la mesure où ces dernières développent une structuration en loi d'échelle que les représentations affines permettent de révéler.
|
3 |
Optimisation de codes correcteurs d’effacements par application de transformées polynomiales / Optimisation of erasure codes by applying polynomial transformsDetchart, Jonathan 05 December 2018 (has links)
Les codes correcteurs d’effacements sont aujourd’hui une solution bien connueutilisée pour fiabiliser les protocoles de communication ou le stockage distribué desdonnées. La plupart de ces codes sont basés sur l’arithmétique des corps finis, définissantl’addition et la multiplication sur un ensemble fini d’éléments, nécessitantsouvent des opérations complexes à réaliser. En raison de besoins en performancetoujours plus importants, ces codes ont fait l’objet de nombreuses recherches dans lebut d’obtenir de meilleures vitesses d’exécution, tout en ayant la meilleure capacitéde correction possible. Nous proposons une méthode permettant de transformer les éléments de certains corps finis en éléments d’un anneau afin d’y effectuer toutes les opérations dans lebut de simplifier à la fois le processus de codage et de décodage des codes correcteursd’effacements, sans aucun compromis sur les capacités de correction. Nous présentonségalement une technique de réordonnancement des opérations, permettant deréduire davantage le nombre d’opérations nécessaires au codage grâce à certainespropriétés propres aux anneaux utilisés. Enfin, nous analysons les performances decette méthode sur plusieurs architectures matérielles, et détaillons une implémentationsimple, basée uniquement sur des instructions xor et s’adaptant beaucoupplus efficacement que les autres implémentations à un environnement d’exécutionmassivement parallèle. / Erasure codes are widely used to cope with failures for nearly all of today’snetworks communications and storage systems. Most of these codes are based onfinite field arithmetic, defining the addition and the multiplication over a set offinite elements. These operations can be very complex to perform. As a matter offact, codes performance improvements are still an up to date topic considering thecurrent data growth explosion. We propose a method to transform the elements of some finite fields into ring elements and perform the operations in this ring to simplify both coding and decoding of erasure codes, without any threshold on the correction capacities.We also present a scheduling technique allowing to reduce the number of operations thanks to some particular properties of the ring structure. Finally, we analyse the performance ofsuch a method considering several hardware architectures and detail a simple implementation, using only xor operations, fully scalable over a multicore environment.
|
4 |
Graph based transforms for compression of new imaging modalities / Transformées basées graphes pour la compression de nouvelles modalités d’imageRizkallah, Mira 26 April 2019 (has links)
En raison de la grande disponibilité de nouveaux types de caméras capturant des informations géométriques supplémentaires, ainsi que de l'émergence de nouvelles modalités d'image telles que les champs de lumière et les images omnidirectionnelles, il est nécessaire de stocker et de diffuser une quantité énorme de hautes dimensions. Les exigences croissantes en matière de streaming et de stockage de ces nouvelles modalités d’image nécessitent de nouveaux outils de codage d’images exploitant la structure complexe de ces données. Cette thèse a pour but d'explorer de nouvelles approches basées sur les graphes pour adapter les techniques de codage de transformées d'image aux types de données émergents où les informations échantillonnées reposent sur des structures irrégulières. Dans une première contribution, de nouvelles transformées basées sur des graphes locaux sont conçues pour des représentations compactes des champs de lumière. En tirant parti d’une conception minutieuse des supports de transformées locaux et d’une procédure d’optimisation locale des fonctions de base , il est possible d’améliorer considérablement le compaction d'énergie. Néanmoins, la localisation des supports ne permettait pas d'exploiter les dépendances à long terme du signal. Cela a conduit à une deuxième contribution où différentes stratégies d'échantillonnage sont étudiées. Couplés à de nouvelles méthodes de prédiction, ils ont conduit à des résultats très importants en ce qui concerne la compression quasi sans perte de champs de lumière statiques. La troisième partie de la thèse porte sur la définition de sous-graphes optimisés en distorsion de débit pour le codage de contenu omnidirectionnel. Si nous allons plus loin et donnons plus de liberté aux graphes que nous souhaitons utiliser, nous pouvons apprendre ou définir un modèle (ensemble de poids sur les arêtes) qui pourrait ne pas être entièrement fiable pour la conception de transformées. La dernière partie de la thèse est consacrée à l'analyse théorique de l'effet de l'incertitude sur l'efficacité des transformées basées graphes. / Due to the large availability of new camera types capturing extra geometrical information, as well as the emergence of new image modalities such as light fields and omni-directional images, a huge amount of high dimensional data has to be stored and delivered. The ever growing streaming and storage requirements of these new image modalities require novel image coding tools that exploit the complex structure of those data. This thesis aims at exploring novel graph based approaches for adapting traditional image transform coding techniques to the emerging data types where the sampled information are lying on irregular structures. In a first contribution, novel local graph based transforms are designed for light field compact representations. By leveraging a careful design of local transform supports and a local basis functions optimization procedure, significant improvements in terms of energy compaction can be obtained. Nevertheless, the locality of the supports did not permit to exploit long term dependencies of the signal. This led to a second contribution where different sampling strategies are investigated. Coupled with novel prediction methods, they led to very prominent results for quasi-lossless compression of light fields. The third part of the thesis focuses on the definition of rate-distortion optimized sub-graphs for the coding of omni-directional content. If we move further and give more degree of freedom to the graphs we wish to use, we can learn or define a model (set of weights on the edges) that might not be entirely reliable for transform design. The last part of the thesis is dedicated to theoretically analyze the effect of the uncertainty on the efficiency of the graph transforms.
|
5 |
Réplication optimiste et cohérence des données dans les environnements collaboratifs répartisOster, Gérald 03 November 2005 (has links) (PDF)
Les systèmes d'édition collaborative permettent à plusieurs utilisateurs d'éditer simultanément un document. Aujourd'hui, l'édition collaborative massive est une réalité. Il ne s'agit plus d'éditer à quelques utilisateurs mais à des milliers d'utilisateurs répartis dans le monde. Les éditeurs collaboratifs actuels n'ont pas été conçus pour supporter un nombre si important d'utilisateurs. Les problèmes soulevés ne sont pas d'ordre technologique, ils remettent en cause les fondements algorithmiques des éditeurs. L'objectif de cette thèse est de proposer des algorithmes adaptés à l'édition collaborative massive. Nous montrons qu'un tel algorithme doit assurer trois critères : convergence des données, préservation des intentions et passage à l'échelle. Au regard de l'état de l'art, seul le modèle des transformées opérationnelles (OT) peut concilier ces trois critères.<br />La première contribution de cette thèse montre que l'approche OT conçue pour des éditeurs temps réel peut être utilisée pour réaliser des outils asynchrones. Nous avons réalisé un gestionnaire de configurations dénommé SO6. La seconde contribution est une approche formelle à la conception et à la vérification de fonctions de transformation pour le modèle OT. Cette approche repose sur un démonstrateur automatique de théorème. Avec cette approche, nous montrons que toutes les fonctions de transformation proposées jusqu'ici sont fausses. La troisième et dernière contribution de ce travail est un nouvel algorithme de réplication optimiste (WOOT) adapté à l'édition collaborative massive de structures linéaires. Ce modèle repose sur le calcul monotone d'une extension linéaire des ordres partiels formés par les relations entre les différents éléments de la structure.
|
6 |
Théorie du Mouvement du Satellite Artificiel :<br />Développement des Equations du Mouvement Moyen -<br />Application à l'Etude des Longues Périodes -Métris, Gilles 17 December 1991 (has links) (PDF)
L'objet de ce travail est l'élaboration d'une méthode permettant d'obtenir<br />des informations géodynamiques à partir des variations à longues périodes<br />du mouvement du satellite artificiel. Les phénomènes à courtes périodes<br />sont parfois difficiles à modéliser précisément, et sont toujours<br />à l'origine de difficultés numériques lors de l'intégration du sytème différentiel du mouvement sur de longues périodes de temps. C'est pourquoi nous proposons d'étudier directement la partie du mouvement ne contenant pas de variations à courtes périodes (périodes inférieures à 1 jour).<br /> Dans l'évolution des variables qui décrivent le mouvement du satellite, il est possible de séparer artificiellement les variations à courtes périodes et les variations à longues périodes (y compris les variations séculaires). Ces dernières décrivent un mouvement fictif que nous désignons par mouvement moyen centré. Nous donnons un algorithme permettant de construire le système différentiel décrivant le mouvement moyen centré par transformation analytique du système initial. Pour la plupart des perturbations, nous avons pu utiliser le formalisme hamiltonien et la théorie des transformations canoniques par méthode de Lie. Nous avons ainsi traité les perturbations dues au potentiel terrestre, à un troisième corps (Lune, Soleil, planétes), aux marées terrestres et océaniques. Cela a nécessité des calculs algébriques très volumineux que nous avons réalisés à l'aide d'un manipulateur de séries.<br />Le système différentiel moyen obtenu peut être intégré numériquement avec un très grand pas de calcul (environ 12 heures au lieu de quelques minutes pour le sytème initial). Le temps de calcul est ainsi divisé par un facteur supérieur à 10 (le gain diffère selon les perturbations) et les erreurs numériques sont insignifiantes. Des calculs précis sur des arcs continus de plusieurs dizaines d'années deviennent alors beaucoup plus accessibles. Les résultats issus de l'intégration peuvent être comparés à des observations<br />convenablement prétraitées. Des observations simulées nous ont permis<br />de valider la méthode.
|
7 |
Cohérence des données dans les environnements d'édition collaborativeMolli, Pascal 26 April 2007 (has links) (PDF)
Les outils d'édition collaborative permettent à un groupe de personnes distribuées dans le temps, dans l'espace et à travers les organisations, de travailler ensemble sur les mêmes documents. Un système d'édition collaborative efficace doit permettre à n'importe qui de modifier n'importe quel type de données à n'importe quel moment. Cela pose des problèmes de maintient de la cohérence des données au sein des ces systèmes. Nous présentons trois approches de maintient de la cohérence dans les systèmes collaboratifs distribués: une approche transactionnelle, une approche basée sur les transformées opérationnelles et une approche basée sur les types commutatifs répliqués.
|
8 |
Transformées orientées par blocs pour le codage vidéo hybrideRobert, Antoine 18 February 2008 (has links) (PDF)
Cette thèse s'intéresse à améliorer les codeurs vidéo actuels tels que H.264 MPEG-4/AVC en utilisant avantageusement des informations structurelles contenues dans les images codées. Dans ce contexte, on observe que tous codeurs vidéo utilisent une étape de transformation permettant de décorréler mathématiquement les informations traitées afin d'en diminuer le coût de codage entropique. D'autre part, on remarque que toutes les images traitées qu'elles soient prédites ou non, possèdent des structures géométriques très marquées. Une étude des transformées existantes et possibles pour ces codeurs vidéo montre que peu d'entre elles (DCT, en ondelettes, à recouvrement, DCT sous forme lifting...) permettent de représenter efficacement ces structures géométriques des images. L'état de l'art de ces transformées exploitant les structures géométriques est porté historiquement par les ondelettes de seconde génération comme les contourlets, les bandelettes ou les directionlets. Mais, plusieurs études plus récentes utilisent des approches DCT, basées blocs, avec des orientations afin de mieux représenter ces structures géométriques. L'objectif de notre étude est d'améliorer le codage des images résiduelles H.264/AVC, issues de prédictions spatiales (Intra) ou temporelles (Inter), en utilisant leurs structures géométriques. Une première approche de ce travail de thèse nous a conduits à analyser et exploiter des méthodes connues de l'état de l'art. Pour cela, nous avons déni un schéma sous forme lifting réalisant les opérations de la DCT H.264/AVC. Ce schéma permet de voir cette DCT comme une transformée en ondelettes et donc de disposer d'une approche commune. On peut alors lui appliquer des outils de seconde génération an qu'elle représente au mieux les structures géométriques des images. Et, une version de transformée à recouvrement en pré- et post-traitements a été utilisée dans le codeur H.264/AVC. Une seconde approche de nos recherches a été de dénir une méthode d'orientation par pré- et post-traitements associée à un parcours adapté des coefficients quantifiés produits. Le pré-traitement de cette méthode d'orientation réalise des pseudo-rotations permettant de redresser les blocs des images vers l'horizontale ou la verticale. Cette opération est réalisée par cisaillements, soit par permutations circulaires des pixels, améliorant la décorrélation de la DCT qui suit sans présenter les défauts inhérents aux approches de l'état de l'art. Cette méthode, insérée dans un codeur H.264/AVC, présente de bonnes performances de codage. Cependant, le coût des informations d'orientation, sélectionnées selon un critère débit-distorsion, est élevé dégradant ces performances dans les bas débits, la méthode restant plus efficace que H.264/AVC dans les hauts débits (QP < 30). Les coefficients quantifiés issus de la méthode d'orientation précédente sont ensuite parcourus à la verticale, à l'horizontale ou en zigzag suivant les redressements appliqués ou le type de partitions. Cette adaptation de parcours permet de légèrement conserver du débit améliorant ainsi notre méthode globale qui devient plus efficaces que H.264/AVC dans les moyens débits (QP < 35).
|
9 |
Etude asymptotique des algorithmes stochastiques et calcul des prix des options ParisiennesLelong, Jérôme 14 September 2007 (has links) (PDF)
La première partie de cette thèse est consacrée à l'étude des algorithmes stochastiques aléatoirement tronqués de Chen et Zhu. La première étude de cet algorithme concerne sa convergence presque sûre. Dans le second chapitre, nous poursuivons l'étude de cet algorithme en nous intéressant à sa vitesse de convergence. Nous considérons également une version moyenne mobile de cet algorithme. Enfin nous terminons par quelques applications à la finance.<br />La seconde partie de cette thèse s'intéresse à l'évaluation des options parisiennes en s'appuyant sur les travaux de Chesney, Jeanblanc et Yor. La méthode d'évaluation se base sur l'obtention de formules fermées pour les transformées de Laplace des prix par rapport à la maturité. Nous établissons ces formules pour les options parisiennes simple et double barrières. Nous étudions ensuite une méthode d'inversion numérique de ces transformées dont nous établissons la précision.
|
10 |
Inférence statistique par des transformées de Fourier pour des modèles de régression semi-paramétriquesVimond, Myriam 12 July 2007 (has links) (PDF)
Dans cette thèse, nous étudions des modèles semi-paramétriques dits de forme invariante. Ces modèles consistent en l'observation d'un nombre fixés de fonctions de régression identiques à un opérateur de déformation paramétriques près. Ce type de modèles trouve des applications dans les problèmes d'alignement de signaux continus (images 2D, rythmes biologiques, ...) ou discrets (electroencéphalogramme, ...). Pour différents groupes de déformations, nous proposons des M-estimateurs pour les paramètres caractérisant les opérateurs associés aux fonctions de régression. Ces estimateurs minimisent ou maximisent des fonctions de contraste, construites à partir de la moyenne synchronisée des transformées de Fourier des données. De plus, pour l'un des modèles étudiés, nous prouvons l'efficacité semi-paramétrique de cet estimateur ainsi défini, et nous proposons un test d'adéquation du modèle de forme invariante construit à partir d'une des fonctions de contraste.
|
Page generated in 0.4143 seconds