• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • Tagged with
  • 9
  • 9
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Allocation de puissance en ligne dans un réseau IoT dynamique et non-prédictible / Online power allocation in a dynamic and umpredictable iot network

Marcastel, Alexandre 21 February 2019 (has links)
L’Internet des Objets (IoT) est envisagé pour interconnecter des objets communicants et autonomes au sein du même réseau, qui peut être le réseau Internet ou un réseau de communication sans fil. Les objets autonomes qui composent les réseaux IoT possèdent des caractéristiques très différentes, que ce soit en terme d’application, de connectivité, de puissance de calcul, de mobilité ou encore de consommation de puissance. Le fait que tant d’objets hétérogènes partagent un même réseau soulève de nombreux défis tels que : l’identification des objets, l’efficacité énergétique, le contrôle des interférences du réseau, la latence ou encore la fiabilité des communications. La densification du réseau couplée à la limitation des ressources spectrales (partagées entre les objets) et à l’efficacité énergétique obligent les objets à optimiser l’utilisation des ressources fréquentielles et de puissance de transmission. De plus, la mobilité des objets au sein du réseau ainsi que la grande variabilité de leur comportement changent la dynamique du réseau qui devient imprévisible. Dans ce contexte, il devient difficile pour les objets d’utiliser des algorithmes d’allocation de ressources classiques, qui se basent sur une connaissance parfaite ou statistique du réseau. Afin de transmettre de manière efficace, il est impératif de développer de nouveaux algorithmes d’allocation de ressources qui sont en mesure de s’adapter aux évolutions du réseau. Pour cela, nous allons utiliser des outils d’optimisation en ligne et des techniques d’apprentissage. Dans ce cadre nous allons exploiter la notion du regret qui permet de comparer l’efficacité d’une allocation de puissance dynamique à la meilleure allocation de puissance fixe calculée à posteriori. Nous allons aussi utiliser la notion de non-regret qui garantit que l’allocation de puissance dynamique donne des résultats asymptotiquement optimaux . Dans cette thèse, nous nous sommes concentrés sur le problème de minimisation de puissance sous contrainte de débit. Ce type de problème permet de garantir une certaine efficacité énergétique tout en assurant une qualité de service minimale des communications. De plus, nous considérons des réseaux de type IoT et ne faisons donc aucune hypothèse quant aux évolutions du réseau. Un des objectifs majeurs de cette thèse est la réduction de la quantité d’information nécessaire à la détermination de l’allocation de puissance dynamique. Pour résoudre ce problème, nous avons proposé des algorithmes inspirés du problème du bandit manchot, problème classique de l’apprentissage statistique. Nous avons montré que ces algorithmes sont efficaces en terme du regret lorsque l’objet a accès à un vecteur, le gradient ou l’estimateur non-biaisé du gradient, comme feedback d’information. Afin de réduire d’avantage la quantité d’information reçue par l’objet, nous avons proposé une méthode de construction d’un estimateur du gradient basé uniquement sur une information scalaire. En utilisant cet estimateur nous avons présenté un algorithme efficace d’allocation de puissance. / One of the key challenges in Internet of Things (IoT) networks is to connect numerous, heterogeneous andautonomous devices. These devices have different types of characteristics in terms of: application, computational power, connectivity, mobility or power consumption. These characteristics give rise to challenges concerning resource allocation such as: a) these devices operate in a highly dynamic and unpredictable environments; b) the lack of sufficient information at the device end; c) the interference control due to the large number of devices in the network. The fact that the network is highly dynamic and unpredictable implies that existing solutions for resource allocation are no longer relevant because classical solutions require a perfect or statistical knowledge of the network. To address these issues, we use tools from online optimization and machine learning. In the online optimization framework, the device only needs to have strictly causal information to define its online policy. In order to evaluate the performance of a given online policy, the most commonly used notion is that of the regret, which compares its performance in terms of loss with a benchmark policy, i.e., the best fixed strategy computed in hindsight. Otherwise stated, the regret measures the performance gap between an online policy and the best mean optimal solution over a fixed horizon. In this thesis, we focus on an online power minimization problem under rate constraints in a dynamic IoT network. To address this issue, we propose a regret-based formulation that accounts for arbitrary network dynamics, using techniques used to solve the multi-armed bandit problem. This allows us to derive an online power allocation policy which is provably capable of adapting to such changes, while relying solely on strictly causal feedback. In so doing, we identify an important tradeoff between the amount of feedback available at the transmitter side and the resulting system performance. We first study the case in which the device has access to a vector, either the gradient or an unbiased estimated of the gradient, as information feedback. To limit the feedback exchange in the network our goal is to reduce it as mush as possible. Therefore, we study the case in which the device has access to only a loss-based information (scalar feedback). In this case, we propose a second online algorithm to determine an efficient and adaptative power allocation policy.
2

Event summarization on social media stream : retrospective and prospective tweet summarization / Synthèse d'évènement dans les médias sociaux : résumé rétrospectif et prospectif de microblogs

Chellal, Abdelhamid 17 September 2018 (has links)
Le contenu généré dans les médias sociaux comme Twitter permet aux utilisateurs d'avoir un aperçu rétrospectif d'évènement et de suivre les nouveaux développements dès qu'ils se produisent. Cependant, bien que Twitter soit une source d'information importante, il est caractérisé par le volume et la vélocité des informations publiées qui rendent difficile le suivi de l'évolution des évènements. Pour permettre de mieux tirer profit de ce nouveau vecteur d'information, deux tâches complémentaires de recherche d'information dans les médias sociaux ont été introduites : la génération de résumé rétrospectif qui vise à sélectionner les tweets pertinents et non redondant récapitulant "ce qui s'est passé" et l'envoi des notifications prospectives dès qu'une nouvelle information pertinente est détectée. Notre travail s'inscrit dans ce cadre. L'objectif de cette thèse est de faciliter le suivi d'événement, en fournissant des outils de génération de synthèse adaptés à ce vecteur d'information. Les défis majeurs sous-jacents à notre problématique découlent d'une part du volume, de la vélocité et de la variété des contenus publiés et, d'autre part, de la qualité des tweets qui peut varier d'une manière considérable. La tâche principale dans la notification prospective est l'identification en temps réel des tweets pertinents et non redondants. Le système peut choisir de retourner les nouveaux tweets dès leurs détections où bien de différer leur envoi afin de s'assurer de leur qualité. Dans ce contexte, nos contributions se situent à ces différents niveaux : Premièrement, nous introduisons Word Similarity Extended Boolean Model (WSEBM), un modèle d'estimation de la pertinence qui exploite la similarité entre les termes basée sur le word embedding et qui n'utilise pas les statistiques de flux. L'intuition sous- jacente à notre proposition est que la mesure de similarité à base de word embedding est capable de considérer des mots différents ayant la même sémantique ce qui permet de compenser le non-appariement des termes lors du calcul de la pertinence. Deuxièmement, l'estimation de nouveauté d'un tweet entrant est basée sur la comparaison de ses termes avec les termes des tweets déjà envoyés au lieu d'utiliser la comparaison tweet à tweet. Cette méthode offre un meilleur passage à l'échelle et permet de réduire le temps d'exécution. Troisièmement, pour contourner le problème du seuillage de pertinence, nous utilisons un classificateur binaire qui prédit la pertinence. L'approche proposée est basée sur l'apprentissage supervisé adaptatif dans laquelle les signes sociaux sont combinés avec les autres facteurs de pertinence dépendants de la requête. De plus, le retour des jugements de pertinence est exploité pour re-entrainer le modèle de classification. Enfin, nous montrons que l'approche proposée, qui envoie les notifications en temps réel, permet d'obtenir des performances prometteuses en termes de qualité (pertinence et nouveauté) avec une faible latence alors que les approches de l'état de l'art tendent à favoriser la qualité au détriment de la latence. Cette thèse explore également une nouvelle approche de génération du résumé rétrospectif qui suit un paradigme différent de la majorité des méthodes de l'état de l'art. Nous proposons de modéliser le processus de génération de synthèse sous forme d'un problème d'optimisation linéaire qui prend en compte la diversité temporelle des tweets. Les tweets sont filtrés et regroupés d'une manière incrémentale en deux partitions basées respectivement sur la similarité du contenu et le temps de publication. Nous formulons la génération du résumé comme étant un problème linéaire entier dans lequel les variables inconnues sont binaires, la fonction objective est à maximiser et les contraintes assurent qu'au maximum un tweet par cluster est sélectionné dans la limite de la longueur du résumé fixée préalablement. / User-generated content on social media, such as Twitter, provides in many cases, the latest news before traditional media, which allows having a retrospective summary of events and being updated in a timely fashion whenever a new development occurs. However, social media, while being a valuable source of information, can be also overwhelming given the volume and the velocity of published information. To shield users from being overwhelmed by irrelevant and redundant posts, retrospective summarization and prospective notification (real-time summarization) were introduced as two complementary tasks of information seeking on document streams. The former aims to select a list of relevant and non-redundant tweets that capture "what happened". In the latter, systems monitor the live posts stream and push relevant and novel notifications as soon as possible. Our work falls within these frameworks and focuses on developing a tweet summarization approaches for the two aforementioned scenarios. It aims at providing summaries that capture the key aspects of the event of interest to help users to efficiently acquire information and follow the development of long ongoing events from social media. Nevertheless, tweet summarization task faces many challenges that stem from, on one hand, the high volume, the velocity and the variety of the published information and, on the other hand, the quality of tweets, which can vary significantly. In the prospective notification, the core task is the relevancy and the novelty detection in real-time. For timeliness, a system may choose to push new updates in real-time or may choose to trade timeliness for higher notification quality. Our contributions address these levels: First, we introduce Word Similarity Extended Boolean Model (WSEBM), a relevance model that does not rely on stream statistics and takes advantage of word embedding model. We used word similarity instead of the traditional weighting techniques. By doing this, we overcome the shortness and word mismatch issues in tweets. The intuition behind our proposition is that context-aware similarity measure in word2vec is able to consider different words with the same semantic meaning and hence allows offsetting the word mismatch issue when calculating the similarity between a tweet and a topic. Second, we propose to compute the novelty score of the incoming tweet regarding all words of tweets already pushed to the user instead of using the pairwise comparison. The proposed novelty detection method scales better and reduces the execution time, which fits real-time tweet filtering. Third, we propose an adaptive Learning to Filter approach that leverages social signals as well as query-dependent features. To overcome the issue of relevance threshold setting, we use a binary classifier that predicts the relevance of the incoming tweet. In addition, we show the gain that can be achieved by taking advantage of ongoing relevance feedback. Finally, we adopt a real-time push strategy and we show that the proposed approach achieves a promising performance in terms of quality (relevance and novelty) with low cost of latency whereas the state-of-the-art approaches tend to trade latency for higher quality. This thesis also explores a novel approach to generate a retrospective summary that follows a different paradigm than the majority of state-of-the-art methods. We consider the summary generation as an optimization problem that takes into account the topical and the temporal diversity. Tweets are filtered and are incrementally clustered in two cluster types, namely topical clusters based on content similarity and temporal clusters that depends on publication time. Summary generation is formulated as integer linear problem in which unknowns variables are binaries, the objective function is to be maximized and constraints ensure that at most one post per cluster is selected with respect to the defined summary length limit.
3

Synthèse de parole expressive à partir du texte : Des phonostyles au contrôle gestuel pour la synthèse paramétrique statistique / Expressive Text-to-Speech Synthesis : From Phonostyles to Gestural Control for Parametric Statistic Synthesis

Evrard, Marc 30 September 2015 (has links)
L’objectif de cette thèse est l’étude et la conception d’une plateforme de synthèse de parole expressive.Le système de synthèse — LIPS3, développé dans le cadre de ce travail, incorpore deux éléments : un module linguistique et un module de synthèse paramétrique par apprentissage statistique (construit à l’aide de HTS et de STRAIGHT). Le système s’appuie sur un corpus monolocuteur conçu, enregistréet étiqueté à cette occasion.Une première étude, sur l’influence de la qualité de l’étiquetage du corpus d’apprentissage, indique que la synthèse paramétrique statistique est robuste aux erreurs de labels et d’alignement. Cela répond au problème de la variation des réalisations phonétiques en parole expressive.Une seconde étude, sur l’analyse acoustico-phonétique du corpus permet la caractérisation de l’espace expressif utilisé par la locutrice pour réaliser les consignes expressives qui lui ont été fournies. Les paramètres de source et les paramètres articulatoires sont analysés suivant les classes phonétiques, ce qui permet une caractérisation fine des phonostyles.Une troisième étude porte sur l’intonation et le rythme. Calliphony 2.0 est une interface de contrôlechironomique temps-réel permettant la modification de paramètres prosodiques (f0 et tempo) des signaux de synthèse sans perte de qualité, via une manipulation directe de ces paramètres. Une étude sur la stylisation de l’intonation et du rythme par contrôle gestuel montre que cette interface permet l’amélioration, non-seulement de la qualité expressive de la parole synthétisée, mais aussi de la qualité globale perçue en comparaison avec la modélisation statistique de la prosodie.Ces études montrent que la synthèse paramétrique, combinée à une interface chironomique, offre une solution performante pour la synthèse de la parole expressive, ainsi qu’un outil d’expérimentation puissant pour l’étude de la prosodie. / The subject of this thesis was the study and conception of a platform for expressive speech synthesis.The LIPS3 Text-to-Speech system — developed in the context of this thesis — includes a linguistic module and a parametric statistical module (built upon HTS and STRAIGHT). The system was based on a new single-speaker corpus, designed, recorded and annotated.The first study analyzed the influence of the precision of the training corpus phonetic labeling on the synthesis quality. It showed that statistical parametric synthesis is robust to labeling and alignment errors. This addresses the issue of variation in phonetic realizations for expressive speech.The second study presents an acoustico-phonetic analysis of the corpus, characterizing the expressive space used by the speaker to instantiate the instructions that described the different expressive conditions. Voice source parameters and articulatory settings were analyzed according to their phonetic classes, which allowed for a fine phonostylistic characterization.The third study focused on intonation and rhythm. Calliphony 2.0 is a real-time chironomic interface that controls the f0 and rhythmic parameters of prosody, using drawing/writing hand gestures with a stylus and a graphic tablet. These hand-controlled modulations are used to enhance the TTS output, producing speech that is more realistic, without degradation as it is directly applied to the vocoder parameters. Intonation and rhythm stylization using this interface brings significant improvement to the prototypicality of expressivity, as well as to the general quality of synthetic speech.These studies show that parametric statistical synthesis, combined with a chironomic interface, offers an efficient solution for expressive speech synthesis, as well as a powerful tool for the study of prosody.
4

Réseaux causaux probabilistes à grande échelle : un nouveau formalisme pour la modélisation du traitement de l'information cérébrale

Labatut, Vincent 18 December 2003 (has links) (PDF)
La compréhension du fonctionnement cérébral passe par l'étude des relations entre les structures cérébrales et les fonctions cognitives qu'elles implémentent. Les études en activation, qui permettent d'obtenir, grâce aux techniques de neuroimagerie fonctionnelle, des données sur l'activité cérébrale pendant l'accomplissement d'une tâche cognitive, visent à étudier ces liens. Ces études, ainsi que de nombreux travaux chez l'animal, suggèrent que le support neurologique des fonctions cognitives est constitué de réseaux à grande échelle d'aires corticales et de régions sous-corticales interconnectées. Cependant, la mise en correspondance simple entre réseaux activés et tâche accomplie est insuffisante pour comprendre comment l'activation découle du traitement de l'information par le cerveau. De plus, le traitement cérébral est très complexe, et les mesures fournies par la neuroimagerie sont incomplètes, indirectes, et de natures différentes, ce qui complique grandement l'interprétation des données obtenues. Un outil de modélisation explicite des mécanismes de traitement et de propagation de l'information cérébrale dans les réseaux à grande échelle est nécessaire pour palier ces défauts et permettre l'interprétation des mesures de l'activité cérébrale en termes de traitement de l'information. Nous proposons ici un formalisme original répondant à ces objectifs et aux contraintes imposées par le système à modéliser, le cerveau. Il est basé sur une approche graphique causale et probabiliste, les réseaux bayésiens dynamiques, et sur une représentation duale de l'information. Nous considérons le cerveau comme un ensemble de régions fonctionnelles anatomiquement interconnectées, chaque région étant un centre de traitement de l'information qui peut être modélisé par un noeud du réseau bayésien. L'information manipulée dans le formalisme au niveau d'un noeud est l'abstraction du signal généré par l'activité de la population neuronale correspondante. Ceci nous conduit à représenter l'information cérébrale sous la forme d'un couple numérique/symbolique, permettant de tenir compte respectivement du niveau d'activation et de la configuration des neurones activés. Ce travail se situe dans le prolongement d'un projet visant à développer une approche causale originale pour la modélisation du traitement de l'information dans des réseaux cérébraux à grande échelle et l'interprétation des données de neuroimagerie. L'aspect causal permet d'exprimer explicitement des hypothèses sur le fonctionnement cérébral. Notre contribution est double. Au niveau de l'intelligence artificielle, l'utilisation de variables aléatoires labellisées dans des réseaux bayésiens dynamiques nous permet de définir des mécanismes d'apprentissage non-supervisés originaux. Sur le plan des neurosciences computationnelles, nous proposons un nouveau formalisme causal, plus adapté à la représentation du fonctionnement cérébral au niveau des réseaux d'aires que les réseaux de neurones formels, et présentant plus de plausibilité biologique que les autres approches causales, en particulier les réseaux causaux qualitatifs.
5

Contribution à l'apprentissage statistique à base de modèles génératifs pour données complexes.

Jacques, Julien 28 November 2012 (has links) (PDF)
Ce mémoire synthétise les activités de recherche que j'ai menées de 2005 à 2012, sur la thématique de l'apprentissage statistique des données complexes, abordée par le biais de modèles probabilistes paramétriques génératifs. Plusieurs types de données complexes sont considérées. Les données issues de populations différentes ont été abordées en proposant des modèles de lien paramétriques entre populations, permettant d'adapter les modèles statistiques d'une population vers l'autre, en évitant une lourde collecte de nouvelles données. Les données de rang, définissant un classement d'objets selon un ordre de préférence, les données ordinales, qui sont des données qualitatives ayant des modalités ordonnées, et les données fonctionnelles, où l'observation statistique consiste en une ou plusieurs courbes, ont également été étudies. Pour ces trois types de données, des modèles génératifs probabilistes ont été définis et utilisés en classification automatique de données multivariées. Enfin les données de grande dimension, que l'on rencontre lorsque le nombre de variables du problème dépasse celui des observations, ont été étudiées dans un cadre de régression. Deux approches, fruits de deux thèses de doctorat que je co-encadre, sont proposés: l'une utilisant des algorithmes d'optimisation combinatoire pour explorer de façon efficace l'espace des variables, et l'autre définissant un modèle de régression regroupant ensemble les variables ayant un effet similaire.
6

On the links between capital flows and monetary policies / Liens entre flux de capitaux et politiques monétaires

Dell'Eva, Cyril 07 October 2016 (has links)
Cette thèse étudie deux grandes problématiques économiques étant étroitement liées. D’une part, il est question d’analyser à quelles conditions les taux de change présentent des relations de long terme communes. D’autre part, une analyse en profondeur concernant les investissements sur devises connus sous le terme anglais de « carry trades » est proposée. Le taux de change étant un des déterminants du rendement de ces investissements, le lien entre les deux problématiques apparaît clairement. Ces problématiques sont traitées à travers la mobilisation d’outils théoriques et empiriques. Ce travail aboutit à plusieurs conclusions. Concernant les mouvements communs de long terme entre les taux de change, ils dépendent du degré d’intégration des économies ainsi que de la similarité de leurs politiques monétaires. Concernant les investissements sur devises, cette thèse démontre que les banques centrales des petites économies ouvertes ont tout intérêt à fixer une cible d’inflation ainsi qu’une cible d’afflux de capitaux afin d’éviter l’effet déstabilisateur des « carry trades ». Cette politique sera efficace uniquement si la banque centrale est transparente concernant ses cibles de long terme. Pour finir, après la crise financière de 2008, la banque centrale Néo-Zélandaise a changé de comportement vis-à-vis des « carry trades » en provenance du Japon. En effet, après la crise, la banque centrale y a répondu de manière à stabiliser l’économie. Cependant, les investissements en provenance des Etats-Unis sont toujours déstabilisateurs pour l’économie Néo-Zélandaise, surtout lorsque les Etats-Unis utilisent une politique d’assouplissement quantitatif. / This thesis investigates two main issues in economics. On the one hand, we investigate under which conditions cointegration between exchange rates is likely to appear. On the other hand, this thesis proposes to investigate how carry trades affect small open economies. Given that the exchange rate is a main determinant of carry trades’ returns, these two topics are obviously linked. These two issues are investigated both through theoretical and empirical tools. Concerning long run comovements between exchange rates, this thesis reveals that they depend on the degree of linkages between two economies and on the way central banks set their monetary policies. Concerning carry trades, this work sheds light on the fact that small open economies central banks should have both an inflation and a capital inflows target to suppress the destabilizing effect of carry trades. Moreover, such a policy would be efficient only if the central banks are transparent concerning their long run targets. Finally, in this thesis we show that the Reserve Bank of New Zealand (RBNZ) has changed its reaction to Japan-sourced carry trades after the 2008 global financial crisis (GFC). Indeed, after the GFC, the RBNZ responded in a stabilizing way to Japan-sourced carry trades. However, after the GFC, the RBNZ still responded in a destabilizing way to US-sourced carry trades. Our work also reveals that carry trades destabilize even more New-Zealand’s economy when the US are engaged in a quantitative easing policy.
7

Implications of adaptive learning for the design of optimal monetary policy / Les implications de l’apprentissage adaptatif pour la conception de la politique monétaire optimale

André, Marine Charlotte 26 September 2018 (has links)
La thèse étudie les implications des anticipations des agents privés formées avec l’apprentissage adaptatif pour la politique monétaire optimale dans des modèles Nouveau Keynésien. Les résultats obtenus sont comparés avec la littérature adoptant l’hypothèse d’anticipations rationnelles. La banque centrale fait l’arbitrage intertemporel introduit par les anticipations à apprentissage adaptatif entre stabiliser l’inflation maintenant et dans le futur. La distorsion générée par ces anticipations rend la politique monétaire davantage agressive, même si la présence du marché financier diminue légèrement l’agressivité de la politique monétaire. Il est optimal pour le gouvernement de choisir un banquier central libéral, ce résultat peut être mitigé par un contrat d’inflation linéaire. Un autre résultat est qu’il est optimal pour la banque centrale d’être moins indépendante en termes d’instruments par rapport aux anticipations rationnelles. La possibilité de contrôle robuste de la politique monétaire est limitée par l’apprentissage adaptatif en économie fermée, et encore plus limitée en économie ouverte. Mes travaux de recherche donnent des recommandations nouvelles. / The dissertation studies the implications of private agents expectations formed with adaptive learning for the optimal monetary policy using New Keynesian models. The obtained results are compared with the literature adopting the hypothesis of rational expectations. The central bank makes the intertemporal trade-off between stabilizing current inflation or the future one that is introduced by adaptive learning expectations. The distortion which is introduced by this latter makes the monetary policy more aggressive, even if the presence of financial market slightly reduces the aggressiveness of the monetary policy. It is optimal for the government to choose a liberal central banker, but this result may be mitigated by adopting a linear inflation contract. Another result is that it is optimal for the central bank to be less instrument-independent compared to rational expectations. The possibility of robust control for monetary policy is limited by adaptive learning in a closed economy, and even more limited in an open economy. My research works give new recommendations for policy making.
8

Stabilité macroéconomique, apprentissage et politique monétaire : une approche comparative : modélisation DSGE versus modélisation multi-agents / Macroeconomic stability, learning and monetary policy : a comparative approach : DSGE modelling versus agent-based modelling

Zumpe, Martin Kai 14 September 2012 (has links)
Cette thèse analyse le rôle de l’apprentissage dans deux cadres de modélisation distincts. Dans le cas dunouveau modèle canonique avec apprentissage adaptatif, les caractéristiques les plus marquantes des dynamiquesd’apprentissage concernent la capacité des règles de politique monétaire à assurer la convergencevers l’équilibre en anticipations rationnelles. Le mécanisme de transmission de la politique monétaire estcelui de l’effet de substitution associé au canal de la consommation. Dans le cas d’un modèle multi-agentsqui relâche des hypothèses restrictives du nouveau modèle canonique, tout en restant structurellementproche de celui-ci, les variables agrégées évoluent à bonne distance de cet équilibre, et on observe desdynamiques nettement différentes. La politique monétaire influence les variables agrégées de manièremarginale via l’effet de revenu du canal de la consommation. En présence d’un processus d’apprentissagesocial évolutionnaire, l’économie converge vers un faible niveau d’activité économique. L’introductiond’un processus caractérisé par le fait que les agents apprennent individuellement à l’aide de leurs modèlesmentaux atténue le caractère dépressif des dynamiques d’apprentissage. Ces différences entre les deuxcadres de modélisation démontrent la difficulté de généraliser les résultats du nouveau modèle canonique. / This thesis analyses the role of learning in two different modelling frameworks. In the new canonicalmodel with adaptive learning, the most remarkable characteristics of the learning dynamics deal withthe capacity of monetary policy rules to guaranty convergence to the rational expectations equilibrium.The transmission mechanism of the monetary policy is based on the substitution effect associated to theconsumption channel. In the case of an agent-based model which relaxes some restrictive assumptionsof the new canonical model - but is endowed with a similar structure - aggregate variables evolve atsome distance from the rational expectations equilibrium. Monetary policy has a marginal impact onthe agregated variables via the wealth effect of the consumption channel. When agents learn accordingto an evolutionnary social learning process, the economy converges to regions of low economic activity.The introduction of a process where agents learn individually by using their mental models induces lessdepressive learning dynamics. These differences between the two modelling frameworks show that thegeneralisation of the results of the new canonical model is not easy to achieve.
9

Speaker adaptation of deep neural network acoustic models using Gaussian mixture model framework in automatic speech recognition systems / Utilisation de modèles gaussiens pour l'adaptation au locuteur de réseaux de neurones profonds dans un contexte de modélisation acoustique pour la reconnaissance de la parole

Tomashenko, Natalia 01 December 2017 (has links)
Les différences entre conditions d'apprentissage et conditions de test peuvent considérablement dégrader la qualité des transcriptions produites par un système de reconnaissance automatique de la parole (RAP). L'adaptation est un moyen efficace pour réduire l'inadéquation entre les modèles du système et les données liées à un locuteur ou un canal acoustique particulier. Il existe deux types dominants de modèles acoustiques utilisés en RAP : les modèles de mélanges gaussiens (GMM) et les réseaux de neurones profonds (DNN). L'approche par modèles de Markov cachés (HMM) combinés à des GMM (GMM-HMM) a été l'une des techniques les plus utilisées dans les systèmes de RAP pendant de nombreuses décennies. Plusieurs techniques d'adaptation ont été développées pour ce type de modèles. Les modèles acoustiques combinant HMM et DNN (DNN-HMM) ont récemment permis de grandes avancées et surpassé les modèles GMM-HMM pour diverses tâches de RAP, mais l'adaptation au locuteur reste très difficile pour les modèles DNN-HMM. L'objectif principal de cette thèse est de développer une méthode de transfert efficace des algorithmes d'adaptation des modèles GMM aux modèles DNN. Une nouvelle approche pour l'adaptation au locuteur des modèles acoustiques de type DNN est proposée et étudiée : elle s'appuie sur l'utilisation de fonctions dérivées de GMM comme entrée d'un DNN. La technique proposée fournit un cadre général pour le transfert des algorithmes d'adaptation développés pour les GMM à l'adaptation des DNN. Elle est étudiée pour différents systèmes de RAP à l'état de l'art et s'avère efficace par rapport à d'autres techniques d'adaptation au locuteur, ainsi que complémentaire. / Differences between training and testing conditions may significantly degrade recognition accuracy in automatic speech recognition (ASR) systems. Adaptation is an efficient way to reduce the mismatch between models and data from a particular speaker or channel. There are two dominant types of acoustic models (AMs) used in ASR: Gaussian mixture models (GMMs) and deep neural networks (DNNs). The GMM hidden Markov model (GMM-HMM) approach has been one of the most common technique in ASR systems for many decades. Speaker adaptation is very effective for these AMs and various adaptation techniques have been developed for them. On the other hand, DNN-HMM AMs have recently achieved big advances and outperformed GMM-HMM models for various ASR tasks. However, speaker adaptation is still very challenging for these AMs. Many adaptation algorithms that work well for GMMs systems cannot be easily applied to DNNs because of the different nature of these models. The main purpose of this thesis is to develop a method for efficient transfer of adaptation algorithms from the GMM framework to DNN models. A novel approach for speaker adaptation of DNN AMs is proposed and investigated. The idea of this approach is based on using so-called GMM-derived features as input to a DNN. The proposed technique provides a general framework for transferring adaptation algorithms, developed for GMMs, to DNN adaptation. It is explored for various state-of-the-art ASR systems and is shown to be effective in comparison with other speaker adaptation techniques and complementary to them.

Page generated in 0.0785 seconds