Spelling suggestions: "subject:"initialisation"" "subject:"initialisations""
11 |
Développement précoce de la segmentation des formes sonores : unités rythmiques, voyelles puis consonnes / Early development in segmenting word forms : rhythmic units, vowels and then consonantsNishibayashi, Léo-Lyuki 18 November 2014 (has links)
Les mots étant rarement produits hors contexte phrastique, les enfants vont devoir les extraire du flux de parole pour les apprendre. Les probabilités de transition (Saffran et al., 1996) et les unités rythmiques (Nazzi et al., 2006) seraient cruciales à l'émergence de la segmentation. Les formes sonores segmentées seront par la suite mémorisées en représentations phonétiquement détaillées. Cependant, selon Nespor et al. (2003) les consonnes seraient plus impliquées au niveau lexical que les voyelles, proposant un biais consonantique dans la reconnaissance des formes sonores segmentées. Le premier axe de ma thèse s'intéresse aux capacités précoces de segmentation chez les enfants francophones nés à terme et prématurés afin de déterminer quand elles émergent et dans quelle mesure les unités rythmiques sont impliquées. Le second s'intéresse à l'émergence et à l'origine du biais consonantique. Les résultats montrent que (1) les enfants nés à terme et prématurés sont capables de segmenter la parole en utilisant l'unité syllabique dès 6 mois ; (2) d'un biais vocalique à 6 mois, les enfants francophones, acquièrent un biais consonantique à 8 mois dans la reconnaissance de formes sonores segmentées ; (3) le biais consonantique proviendrait donc de l'acquisition des propriétés acoustiques/phonétiques de la langue maternelle. / Since words are rarely produced in isolation, one of the first steps in acquiring new words is to segment them from continuous speech. Transitional probabilities (Saffran et al., 1996) and rhythmic units (Nazzi et al., 2006) have been proposed to be crucial at segmentation onset. Segmented word forms will then have to be stored as phonetically-specified representations for future recognition. However, Nespor et al. (2003) hypothesized that consonants, more than vowels, are involved at the lexical level, proposing a consonant bias in early word processing.The first part of my dissertation investigates preterm and full-term infants' segmentation abilities to determine when they emerge and to what extent rhythmic units are involved. The second part investigates the emergence and origin of the consonant bias in recognizing segmented word forms with full-term infants. Results show that (1) both preterm and full-term 6-month-olds are able to segment speech by using syllabic units; (2) French-learning infants switch from a vowel bias at 6 months to an adult-like consonant bias in recognizing segmented word forms; (3) the consonant bias emerging between 6 and 8 months of age, it would result from the processing and learning of the acoustic/phonetic properties on the language being acquired.
|
12 |
Étude de la dynamique de spin du trou dans les boîtes quantiques d'InAs/GaAs : pompage optique, relaxation, effets nucléairesFras, François 02 December 2011 (has links) (PDF)
Le spin d'un porteur dans une boîte quantique semiconductrice constitue une observable bien protégée des mécanismes de relaxation fonctionnant dans les matériaux massif, et constitue ainsi un candidat prometteur pour devenir un nouveau support de l'information, dans des dispositifs pour l'électronique de spin et le calcul quantique. Dans cette thèse, plusieurs aspects de la dynamique de spin du trou dans les BQs d'InAs sont abordés. La première partie est consacrée à la description microscopique de l'expérience pompe-sonde résolue en polarisation ainsi qu'à l'exposé des mécanismes de polarisation de spin du trou sous excitation résonnante et non résonnante. Dans un second temps, la question des mécanismes qui induisent la relaxation complète du spin du trou est adressée. La polarisation de spin du trou relaxe partiellement par interaction hyperfine dans un temps caractéristique d'environ 10 ns. Pour étudier des dynamiques plus longues, nous avons mis au point une technique de détection originale permettant de sonder des dynamiques millisecondes. Afin de confirmer la nature exacte des processus mis en jeux, les dépendances du temps de relaxation de spin du trou en fonction du champ magnétique et de la température ont été étudiées. Nous avons également mené une étude sur la possibilité de polariser les spin nucléaires de la boîte quantique. La polarisation dynamique des noyaux a déjà été observée dans les boites quantiques. Néanmoins cette polarisation a toujours été associée à l'électron. Nous avons obtenu une signature de la polarisation nucléaire qui pourrait être induite par le spin du trou. Cette polarisation nucléaire se manifeste par un champ magnétique effectif sur le trou de l'ordre du milliTesla. La polarisation nucléaire dotée d'un temps de vie de spin très long (ms) peut, à son tour devenir, un support robuste de l'information de spin. Le dernier traite de la cohérence du Qbit formé par le spin du trou. Pour obtenir des informations sur ce point, nous avons réaliser des expériences en champ magnétique transverse où l'on mesure la projection du spin suivant une direction orthogonale à la base des états stationnaires de l'énergie. A travers la synchronisation des modes de précession des différentes boîtes quantiques, nous avons déterminé le temps de cohérence intrinsèque du spin du trou aux alentours d'une microseconde. Une valeur de cette ordre démontre, d'une part, l'intérêt du spin du trou en tant que brique élémentaire pour coder l'information quantique, et d'autre part, ouvre la porte à des manipulations fines comme le contrôle de la phase du Qbit par effet Stark optique.
|
13 |
Codage multi-vues multi-profondeur pour de nouveaux services multimédia / Multiview video plus depth coding for new multimedia servicesMora, Elie-Gabriel 04 February 2014 (has links)
Les travaux effectués durant cette thèse de doctorat ont pour but d’augmenter l’efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L’héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d’encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l’estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d’une vue de base reconstruite, puis l’extrapole au niveau d’une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d’une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. / This PhD. thesis deals with improving the coding efficiency in 3D-HEVC. We propose both constrained approaches aimed towards standardization, and also more innovative approaches based on optical flow. In the constrained approaches category, we first propose a method that predicts the depth Intra modes using the ones of the texture. The inheritance is driven by a criterion measuring how much the two are expected to match. Second, we propose two simple ways to improve inter-view motion prediction in 3D-HEVC. The first adds an inter-view disparity vector candidate in the Merge list and the second modifies the derivation process of this disparity vector. Third, an inter-component tool is proposed where the link between the texture and depth quadtree structures is exploited to save both runtime and bits through a joint coding of the quadtrees. In the more innovative approaches category, we propose two methods that are based on a dense motion vector field estimation using optical flow. The first computes such a field on a reconstructed base view. It is then warped at the level of a dependent view where it is inserted as a dense candidate in the Merge list of prediction units in that view. The second method improves the view synthesis process: four fields are computed at the level of the left and right reference views using a past and a future temporal reference. These are then warped at the level of the synthesized view and corrected using an epipolar constraint. The four corresponding predictions are then blended together. Both methods bring significant coding gains which confirm the potential of such innovative solutions.
|
14 |
Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillages / Initialize and Calibrate a Dynamic Stochastic Microsimulation Model : application to the SimVillages ModelLenormand, Maxime 12 December 2012 (has links)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l’exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d’une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d’étude, de carrière, d’union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d’un ménage, vit dans une commune et possède un statut au regard de l’emploi. Cette population synthétique est l’état initial du modèle. 2 / un modèle permettant de simuler une table d’origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d’estimer le nombre d’emplois dans les services de proximité dans une commune donnée en fonction de son nombre d’habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d’échantillonnage séquentiel de type Approximate Bayesian Computation. / The purpose of this thesis is to develop statistical tools to initialize and to calibrate dynamic stochastic microsimulation models, starting from their application to the SimVillages model (developed within the European PRIMA project). This model includes demographic and economic dynamics applied to the population of a set of rural municipalities. Each individual, represented explicitly in a household living in a municipality, possibly working in another, has its own life trajectory. Thus, model includes rules for the choice of study, career, marriage, birth children, divorce, migration, and death. We developed, implemented and tested the following models : • a model to generate a synthetic population from aggregate data, where each individual lives in a household in a municipality and has a status with regard to employment. The synthetic population is the initial state of the model. • a model to simulate a table of origin-destination commuting from aggregate data in order to assign a place of work for each individual working outside his municipality of residence. • a sub-model to estimate the number of jobs in local services in a given municipality in terms of its number of inhabitants and its neighbors in terms of service. • a method to calibrate the unknown SimVillages model parameters in order to satisfy a set of criteria. This method is based on a new Approximate Bayesian Computation algorithm using importance sampling. When applied to a toy example and to the SimVillages model, our algorithm is 2 to 8 times faster than the three main sequential ABC algorithms currently available.
|
15 |
Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillagesLenormand, Maxime 12 December 2012 (has links) (PDF)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. 2 / un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
|
16 |
Apprentissage des réseaux de neurones profonds et applications en traitement automatique de la langue naturelleGlorot, Xavier 11 1900 (has links)
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles.
La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples.
Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix
de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds.
Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche
de désambiguation de sens. / Machine learning aims to leverage data in order for computers to solve problems of interest. Despite being invented close to sixty years ago, Artificial Neural Networks (ANN) remain an area of active research and a powerful tool. Their resurgence in the context of deep learning has led to dramatic improvements in various domains from computer vision and speech processing to natural language processing.
The quantity of available data and the computing power are always increasing, which is desirable to train high capacity models such as deep ANNs. However, some intrinsic learning difficulties, such as local minima, remain problematic. Deep learning aims to find solutions to these problems, either by adding some regularisation or improving optimisation. Unsupervised pre-training or Dropout are examples of such solutions.
The two first articles presented in this thesis follow this line of research. The first analyzes the problem of vanishing/exploding gradients in deep architectures. It shows that simple choices, like the activation function or the weights initialization, can have an important impact. We propose the normalized initialization scheme to improve learning. The second focuses on the activation function, where we propose the rectified linear unit. This work was the first to emphasise the use of linear by parts activation functions for deep supervised neural networks, which is now an essential component of such models.
The last two papers show some applications of ANNs to Natural Language Processing. The first focuses on the specific subject of domain adaptation in the context of sentiment analysis, using Stacked Denoising Auto-encoders. It remains state of the art to this day. The second tackles learning with multi-relational data using an energy based model which can also be applied to the task of word-sense disambiguation.
|
17 |
Un couplage de modèles hydrologique et hydraulique adapté à la modélisation et à la prévision des crues à cinétique rapide – Application au cas du bassin versant du Gardon (France). / A coupling of hydrologic and hydraulic models appropriate for modelling and forecasting fast floods – Application to the Gardon river basin (France).Laganier, Olivier 29 August 2014 (has links)
Les bassins versants du pourtour méditerranéen français sont touchés par des pluies parfois intenses et à fort cumuls, qui peuvent engendrer des crues à cinétique rapide. Les derniers exemples majeurs en date sont ceux de l’Aude en 1999, du Gard en 2002 et du Var en 2010, dont les conséquences furent dramatiques. Ces travaux de thèse visent à évaluer une approche de modélisation complémentaire aux outils dont disposent déjà les Services de Prévision des Crues pour la prévision des crues à cinétique rapide : le couplage de modèles hydrologique et hydraulique, qui est a priori adapté pour la modélisation à l’échelle des grands bassins méditerranéens, de superficies supérieures à 1 000 km² (Ardèche, Cèze, Gardon, Vidourle…). Des éléments de réponses aux 4 questions suivantes sont recherchés : 1) le couplage est-il adapté pour la modélisation des débits atteints lors d’évènements passés, d’importance intermédiaire ? 2) le couplage est-il performant pour la modélisation des débits, cotes atteintes, et extension d’inondation, observés lors d’un épisode majeur? 3) comment envisager d’améliorer la modélisation des apports latéraux non-jaugés au modèle hydraulique, tout en adoptant une démarche adaptée à la prévision ? 4) le couplage est-il performant en prévision ? Le couplage employé combine le modèle hydrologique SCS-LR de la plateforme ATHYS (Bouvier et al., 2004), et le code de modélisation hydraulique 1D MASCARET (EDF-CETMEF, 2011). Il est appliqué au bassin versant du Gardon (2 040 km²), dans le sud de la France. / The French catchments around the Mediterranean Sea are affected by intense rains, which can cause fast and flash floods. The last major events are the one of the Aude river in 1999, of the Gard area in 2002, and of the Var area in 2010, whose consequences were tragic. This PhD intends to assess a modeling strategy complementary to the tools that are already used by the regional flood warning services: the coupling of hydrologic and hydraulic models, which is a priori well-adapted for the modelling of catchments of large-scale areas (larger than 1 000 km²) around the Mediterranean Sea (such as the ones of the Ardèche river, the Cèze river, the Vidourle river, the Gardon river…). The works aim at bringing elements of responses to the following questions: 1) is the coupling adapted to the modelling of floods hydrographs of past events of moderate importance? 2) in case of an extreme event (like in September 2002), is the coupling effective for the modelling of discharges, of water levels, and of flood extension? 3) how can we improve the modelling of ungauged lateral inflows to the hydraulic model, while applying a method adapted to forecasting? 4) Is the coupling efficient at forecasting? The coupling used combines the SCS-LR hydrologic model of the ATHYS platform (Bouvier et al., 2004), and the MASCARET 1D hydraulic model (EDF-CETMEF, 2011). It is applied to the Gardon river basin (2 040 km²), in the South of France.
|
18 |
Design, Implementation and Analysis of a Description Model for Complex Archaeological Objects / Elaboration, mise en œuvre et analyse d’un mod`ele de description d’objets arch´eologiques complexesOzturk, Aybuke 09 July 2018 (has links)
La céramique est l'un des matériaux archéologiques les plus importants pour aider à la reconstruction des civilisations passées. Les informations à propos des objets céramiques complexes incluent des données textuelles, numériques et multimédias qui posent plusieurs défis de recherche abordés dans cette thèse. D'un point de vue technique, les bases de données de céramiques présentent différents formats de fichiers, protocoles d'accès et langages d'interrogation. Du point de vue des données, il existe une grande hétérogénéité et les experts ont différentes façons de représenter et de stocker les données. Il n'existe pas de contenu et de terminologie standard, surtout en ce qui concerne la description des céramiques. De plus, la navigation et l'observation des données sont difficiles. L'intégration des données est également complexe en raison de laprésence de différentes dimensions provenant de bases de données distantes, qui décrivent les mêmes catégories d'objets de manières différentes.En conséquence, ce projet de thèse vise à apporter aux archéologues et aux archéomètres des outils qui leur permettent d'enrichir leurs connaissances en combinant différentes informations sur les céramiques. Nous divisons notre travail en deux parties complémentaires : (1) Modélisation de données archéologiques complexes, et (2) Partitionnement de données (clustering) archéologiques complexes. La première partie de cette thèse est consacrée à la conception d'un modèle de données archéologiques complexes pour le stockage des données céramiques. Cette base de donnée alimente également un entrepôt de données permettant des analyses en ligne (OLAP). La deuxième partie de la thèse est consacrée au clustering (catégorisation) des objets céramiques. Pour ce faire, nous proposons une approche floue, dans laquelle un objet céramique peut appartenir à plus d'un cluster (d'une catégorie). Ce type d'approche convient bien à la collaboration avec des experts, enouvrant de nouvelles discussions basées sur les résultats du clustering.Nous contribuons au clustering flou (fuzzy clustering) au sein de trois sous-tâches : (i) une nouvelle méthode d'initialisation des clusters flous qui maintient linéaire la complexité de l'approche ; (ii) un indice de qualité innovant qui permet de trouver le nombre optimal de clusters ; et (iii) l'approche Multiple Clustering Analysis qui établit des liens intelligents entre les données visuelles, textuelles et numériques, ce qui permet de combiner tous les types d'informations sur les céramiques. Par ailleurs, les méthodes que nous proposons pourraient également être adaptées à d'autres domaines d'application tels que l'économie ou la médecine. / Ceramics are one of the most important archaeological materials to help in the reconstruction of past civilizations. Information about complex ceramic objects is composed of textual, numerical and multimedia data, which induce several research challenges addressed in this thesis. From a technical perspective, ceramic databases have different file formats, access protocols and query languages. From a data perspective, ceramic data are heterogeneous and experts have differentways of representing and storing data. There is no standardized content and terminology, especially in terms of description of ceramics. Moreover, data navigation and observation are difficult. Data integration is also difficult due to the presence of various dimensions from distant databases, which describe the same categories of objects in different ways.Therefore, the research project presented in this thesis aims to provide archaeologists and archaeological scientists with tools for enriching their knowledge by combining different information on ceramics. We divide our work into two complementary parts: (1) Modeling of Complex Archaeological Data and (2) Clustering Analysis of Complex Archaeological Data. The first part of this thesis is dedicated to the design of a complex archaeological database model for the storage of ceramic data. This database is also used to source a data warehouse for doing online analytical processing (OLAP). The second part of the thesis is dedicated to an in-depth clustering (categorization) analysis of ceramic objects. To do this, we propose a fuzzy approach, where ceramic objects may belong to more than one cluster (category). Such a fuzzy approach is well suited for collaborating with experts, by opening new discussions based on clustering results.We contribute to fuzzy clustering in three sub-tasks: (i) a novel fuzzy clustering initialization method that keeps the fuzzy approach linear; (ii) an innovative quality index that allows finding the optimal number of clusters; and (iii) the Multiple Clustering Analysis approach that builds smart links between visual, textual and numerical data, which assists in combining all types ofceramic information. Moreover, the methods we propose could also be adapted to other application domains such as economy or medicine.
|
19 |
Initialize and Calibrate a Dynamic Stochastic Microsimulation Model: Application to the SimVillages ModelLenormand, Maxime 12 December 2012 (has links) (PDF)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants: * un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. * un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. * un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. * une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
|
20 |
Codage multi-vues multi-profondeur pour de nouveaux services multimédiaMora, Elie Gabriel 04 February 2014 (has links) (PDF)
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.
|
Page generated in 0.0974 seconds