• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 231
  • 105
  • 23
  • 2
  • 1
  • Tagged with
  • 354
  • 138
  • 118
  • 95
  • 76
  • 71
  • 70
  • 63
  • 52
  • 47
  • 37
  • 34
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Encodage d'un signal audio dans un électroencéphalogramme

Moinnereau, Marc-Antoine January 2017 (has links)
Les interfaces cerveau-machine visent à établir un lien de communication entre le cerveau et un système externe à ce dernier. Les électroencéphalogrammes (EEG), dans ce contexte, ont l’avantage d’être non invasifs. Par contre, l’information sensorielle qui se retrouve dans un signal EEG est beaucoup moins ciblée que dans un signal neuronal acquis par une méthode invasive. De plus, étant donné que le cortex auditif est situé dans des repliements du tissu cortical, les neurones qui déchargent, suite à un stimulus auditif, sont parallèles à la surface corticale sur laquelle les EEG sont enregistrés. Par conséquent, l’information auditive qui se retrouve dans le canal EEG situé vis-à-vis du cortex auditif est faible. L’objectif principal de ce projet de recherche consiste donc à étudier la répartition de l’information auditive dans l’ensemble des canaux EEG. Pour ce faire, nous utilisons deux approches. Dans la première, nous tenterons d’estimer l’activité corticale sous-jacente à partir des signaux EEG en utilisant un modèle de couplage bande fréquence. En effet, certaines bandes de fréquences sont des bons prédicteurs des décharges neuronales. Cependant, cette approche n’a pas été validée pour le système auditif, nous confronterons donc l’estimation obtenue à une autre estimation en ayant recours à un modèle spécialisé pour l’encodage du signal de parole faisant appel aux processus ponctuels. Ce modèle prend en compte les dynamiques intrasèques des neurones et également des propriétés spectrotemporelles du stimulus d’entrée. Dans la seconde approche, nous étudierons la possibilité de classifier 3 voyelles (a, i et u) en fonction du nombre de canaux EEG utilisés ainsi que leur répartition sur le cuir chevelu. Nous aurons recours, pour cela, à un réservoir de neurone à décharge récurrent activé en entrée par les données EEG. Les résultats démontrent que l’information auditive se retrouve en fait dans l’ensemble des canaux EEG et qu’elle n’est pas confinée à un nombre restreint d’électrodes. Il est également montré que lorsque l’on utilise les 64 électrodes que comporte l’EEG pour classifier les 3 voyelles, on obtient une classification de l’ordre de 80%, mais aussi qu’un nombre limité de 10 électrodes suffit pour obtenir une classification satisfaisante et, qu’en plus, la position de ces électrodes sur le cuir chevelu est peu importante.
102

Boosting implicit learning with temporal regularities / Stimuler l'apprentissage implicite avec des régularités temporelles

Selchenkova, Tatiana 29 November 2013 (has links)
L'apprentissage implicite est une acquisition d'information complexe sans intention d'apprendre. Le but de cette thèse est de déterminer comment des régularités temporelles peuvent influencer l'apprentissage implicite d'une grammaire artificielle basée sur des structures de hauteur des notes. Selon la théorie de l'attention dynamique (Jones, 1976), il y a une synchronisation entre des régularités temporelles des événements externes et des oscillateurs internes qui guide l'attention à travers le temps et aide à développer les attentes perceptives et temporelles. Notre hypothèse est que des structures métriques fortes pourront stimuler l'apprentissage implicite. Nous faisons l'hypothèse que le fait de présenter des hauteurs de notes avec des structures métriques fortes permet de développer des attentes temporelles par rapport à l'arrivée du prochain évènement. Ces attentes facilitent le traitement de hauteur des notes et ensuite «boostent» l'apprentissage implicite de la grammaire artificielle. Trois études ont été réalisées pendant cette thèse. L'étude 1 était une étude comportementale dans laquelle nous avons étudié l'influence d'une présentation temporelle régulière (avec une métrique forte) vs. irrégulière sur l'apprentissage implicite d'une grammaire artificielle basée sur des structures de hauteur des notes. Les résultats ont montré que la présentation temporelle influence l'apprentissage implicite et que la présentation temporelle régulière représente un avantage pour l'apprentissage implicite par rapport à la présentation temporelle irrégulière. Dans une étude électrophysiologique (L'étude 2) nous avons étudié quelle présentation temporelle de la grammaire artificielle, rythmique avec une métrique forte ou isochrone, serait plus efficace pour apprendre implicitement la grammaire des hauteurs des notes. Les résultats électrophysiologiques ont montré que les structures métriques apportent un bénéfice supplémentaire à l'apprentissage implicite. Dans l'étude 3 nous avons étudié comment des structures métriques fortes permettent d'améliorer les capacités d'apprentissage implicite chez des patients avec des lésions dans le cortex frontal inférieur qui ont été décrits comme déficitaires pour apprendre des structures artificielles. Les résultats comportementaux et électrophysiologiques ont montré que les patients atteints de lésions dans le cortex frontal inférieur sont capables d'apprendre une nouvelle grammaire artificielle malgré leurs lésions et leur déficit syntaxique. Il pourrait être utile d'exploiter cet avantage de la présentation métrique chez les patients, pour qui un déficit de l'apprentissage implicite a été montré avec des matériaux non-métriques et non musicaux / The thesis aims to investigate how temporal regularities can influence the implicit learning of artificial pitch structures. Implicit learning refers to the acquisition of structure knowledge by mere exposure. According to the Dynamic Attending Theory proposed by Jones (Jones, 1976), internal attentional oscillators synchronize with external temporal regularities, helping to guide attention over time and to develop temporal and perceptual expectations about future events. We made the hypothesis that strongly metrical structures might boost implicit learning, and in particular, that the strongly metrical presentation of pitch structures helps listeners to develop temporal expectations about the occurrence of the next event and thus benefits to the processing of the pitch dimension, leading to better learning of the artificial material. Three studies were realized during this PhD thesis. In Study 1, we used a behavioral approach to investigate how regular and irregular temporal presentations of an artificial pitch grammar influence implicit learning. The data revealed that both types of temporal presentations can influence implicit learning, but that the regular presentation leads to an advantage over the irregular presentation. In Study 2, we used behavioral and electrophysiological methods to investigate which type of regular temporal presentation of the artificial grammar, i.e. strongly metrical or isochronous, leads to better implicit learning of pitch structures. Electrophysiological results showed that the metrical framework provided an additional benefit for the pitch structure learning. In Study 3, we investigated whether the strongly metrical presentation allows patients with left inferior frontal lesions (with previously reported deficits for implicit learning) to learn the artificial pitch grammar. Behavioral and electrophysiological results showed that patients with left inferior frontal gyrus lesions acquired the new artificial grammar despite their lesions and despite previously reported deficits in implicit learning and syntax processing of natural language. It might be useful to exploit the potential benefit of the strongly metrical presentation further in patients for who impaired IL has been shown with non-musical and non-metrical materials
103

Algorithmes de graphes pour la découverte de la topologie d'un réseau énergétique par la connaissance de ses flots / Algorithm of graphs for topology discovery for a energy network from flot knowledges

Ehounou, Joseph 02 October 2018 (has links)
Dans les réseaux énergétiques, la connaissance des équipements, leurs emplacements et leursfonctions sont les prérequis à l’exploitation de l’infrastucture. En effet, tout opérateur disposed’une carte appelée schéma synoptique indiquant les connexions entre les équipements. À partirde cette carte, sont prises des décisions pour un fonctionnement optimal du réseau.Ce schéma synoptique peut être érronné parce que des opérations de maintenance sur le réseaun’auraient pas été retranscrites ou mal saisies. Et cela peut entrainer des coûts supplémentairesd’exploitation du réseau énergetique.Nous considérons le réseau électrique d’un Datacenter. Ce réseau est composé d’une topologiephysique modélisée par un DAG sans circuit et de mesures électriques sur ces arcs. La particularitéde ce réseau est que les mesures contiennent des erreurs et cette topologie est inconnue c’est-à-direles arcs sont connus mais les extrémités des arcs sont inconnues. Dans le cas où ces mesuressont correctes alors la corrélation des arcs induit la matrice d’adjacence du line-graphe du graphenon-orienté sous-jacent de notre DAG. Un line-graphe est un graphe dans lequel chaque sommet etson voisinage peuvent être partitionnés par une ou deux cliques et que chaque arête est couvertepar une clique. Cependant, avec la présence des erreurs de mesures, nous avons un graphe avecdes arêtes en plus ou en moins qui n’est pas nécessairement un line-graphe. Si ce graphe est unline-graphe alors il n’est pas le line-graphe de notre DAG. Notre problème est de découvrir cettetopologie en se basant sur ces mesures électriques.Nous débutons par une étude bibliographique des corrélations de mesures possibles afin dedéterminer celle qui est pertinente pour notre problème. Ensuite nous proposons deux algorithmespour résoudre ce problème. Le premier algorithme est l’algorithme de couverture et il déterminel’ensemble des cliques qui couvre chaque sommet de notre graphe. Le second algorithme estl’algorithme de correction. Il ajoute ou supprime des arêtes au voisinage d’un sommet non couvertde telle sorte que son voisinage soit partitionné en une ou deux cliques. Enfin, nous évaluons lesperformances de nos algorithmes en vérifiant le nombre d’arêtes corrigées et la capacité à retournerle graphe le plus proche du line-graphe de notre DAG. / In energy network, the knowledge of equipments, their locations and their functions are theimportant information for the distributor service operator. In fact, each operator has a networkplan often named synoptic schema. That schema shows the interconnexion between equipments inthe network. From this schema, some management decisions have taken for ensuring an optimalperformance of a network.Sometimes, a synoptic schema has some mistakes because the maintenance operations, such aschanged the connexion between equipments or replaced equipments, have not been updated orhave been written with errors. And these mistakes increase exploitation cost in the energy network.We consider an electric network of a datacenter. This network consists of physical topologymodelised by a DAG without circuit and measurements are on the edges of a DAG. The mainpoint of the network is that measurements are some mistakes and the topology is unknown i.ewe know edges but the nodes of edges are unknown. When measurements are correct then thecorrelations between pairwise edges provide the adjacency matrix of the linegraph of undirectedgraph of the DAG. A linegraph is a graph in which each node and the neighbor are partitionnedby one or deux cliques. However, with the mistakes in measurements, the obtained graph is nota linegraph because it contains more or less edges. If the obtained graph is a linegraph then it isa linegraph of the other DAG. Our problem is to discovery the topology of the DAG with somemistakes in measurements.We start by the state of art in the measurement correlations in order to choose the good methodfor our problem. Then, we propose two algorithms to resolve our problem. The first algorithmis the cover algorithm and it returns the set of cliques in the graph. The second algorithm is acorrection algorithm which adds or deletes edges in the graph for getting a nearest linegraph ofthe DAG. In the last, we evaluate the performances of the algorithms by checking the number ofedges corrected and the ability to return a nearest linegraph of the DAG.
104

Visualisation de données dynamiques et complexes : des séries temporelles hiérarchiques aux graphes multicouches / Visualization of Dynamic and Complex Data : from Hierarchical Time Series to Multilayer Graphs

Cuenca Pauta, Erick 12 November 2018 (has links)
L'analyse de données de plus en plus complexes, volumineuses et issues de différentes sources (e.g. internet, médias sociaux, etc.) est une tâche difficile. Elle reste cependant cruciale dans de très nombreux domaines d'application. Elle implique, pour pouvoir en extraire des connaissances, de mieux comprendre la nature des données, leur évolution ou les nombreuses relations complexes qu'elles peuvent contenir. La visualisation d'informations s'intéresse aux méthodes de représentations visuelles et interactives permettant d'aider un utilisateur à extraire des connaissances. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous nous intéressons à la visualisation de longues séries temporelles hiérarchiques. Après avoir analysé les différentes approches existantes, nous présentons le système MultiStream permettant de visualiser, explorer et comparer l'évolution de séries organisées dans une structure hiérarchique. Nous illustrons son utilisation par deux exemples d'utilisation : émotions exprimées dans des médias sociaux et évolution des genres musicaux. Dans un second temps nous abordons la problématique de données complexes modélisées sous la forme de graphes multicouches (différentes types d'arêtes peuvent relier les n÷uds). Plus particulièrement nous nous intéressons au requêtage visuel de graphes volumineux en présentant VERTIGo un système qui permet de construire des requêtes, d'interroger un moteur spécifique, de visualiser/explorer les résultats à différentes niveaux de détail et de suggérer de nouvelles extensions de requêtes. Nous illustrons son utilisation à l'aide d'un graphe d'auteurs provenant de différentes communautés. / The analysis of data that is increasingly complex, large and from different sources (e.g. internet, social medias, etc.) is a dificult task. However, it remains crucial for many fields of application. It implies, in order to extract knowledge, to better understand the nature of the data, its evolution or the many complex relationships it may contain. Information visualization is about visual and interactive representation methods to help a user to extract knowledge. The work presented in this document takes place in this context. At first, we are interested in the visualization of large hierarchical time series. After analyzing the different existing approaches, we present the MultiStream system for visualizing, exploring and comparing the evolution of the series organized into a hierarchical structure. We illustrate its use by two examples: emotions expressed in social media and the evolution of musical genres. In a second time, we tackle the problem of complex data modeled in the form of multilayer graphs (different types of edges can connect the nodes). More specifically, we are interested in the visual querying of large graphs and we present VERTIGo, a system which makes it possible to build queries, to launch them on a specific engine, to visualize/explore the results at different levels of details and to suggest new query extensions. We illustrate its use with a graph of co-authors from different communities.
105

Exctraction de chroniques discriminantes / Discriminant chronicle mining

Dauxais, Yann 13 April 2018 (has links)
De nombreuses données sont enregistrées dans le cadre d'applications variées et leur analyse est un challenge abordé par de nombreuses études. Parmi ces différentes applications, cette thèse est motivée par l'analyse de parcours patients pour mener des études de pharmaco-épidémiologie. La pharmaco-épidémiologie est l'étude des usages et effets de produits de santé au sein de populations définies. Le but est donc d'automatiser ce type d'étude en analysant des données. Parmi les méthodes d'analyses de données, les approches d'extraction de motifs extraient des descriptions de comportements, appelées motifs, caractérisant ces données. L'intérêt principal de telles approches est de donner un aperçu des comportements décrivant les données. Dans cette thèse, nous nous intéressons à l'extraction de motifs temporels discriminants au sein de séquences temporelles, c'est-à-dire une liste d'évènements datés. Les motifs temporels sont des motifs représentant des comportements par leur dimension temporelle. Les motifs discriminants sont des motifs représentant les comportements apparaissant uniquement pour une sous-population bien définie. Alors que les motifs temporels sont essentiels pour décrire des données temporelles et que les motifs discriminants le sont pour décrire des différences de comportement, les motifs temporels discriminants ne sont que peu étudiés. Dans cette thèse, le modèle de chronique discriminante est proposé pour combler le manque d'approches d'extraction de motifs temporels discriminants. Une chronique est un motif temporelle représentable sous forme de graphe dont les nœuds sont des évènements et les arêtes sont des contraintes temporelles numériques. Le modèle de chronique a été choisi pour son expressivité concernant la dimension temporelle. Les chroniques discriminantes sont, de ce fait, les seuls motifs temporels discriminants représentant numériquement l'information temporelle. Les contributions de cette thèse sont : (i) un algorithme d'extraction de chroniques discriminantes (DCM), (ii) l'étude de l'interprétabilité du modèle de chronique au travers de sa généralisation et (iii) l'application de DCM sur des données de pharmaco-épidémiologie. L'algorithme DCM est dédié à l'extraction de chroniques discriminantes et basé sur l'algorithme d'extraction de règles numériques Ripperk . Utiliser Ripperk permet de tirer avantage de son efficacité et de son heuristique incomplète évitant la génération de motifs redondants. La généralisation de cet algorithme permet de remplacer Ripperk par n'importe quel algorithme de machine learning. Les motifs extraits ne sont donc plus forcément des chroniques mais une forme généralisée de celles-ci. Un algorithme de machine learning plus expressif extrait des chroniques généralisées plus expressives mais impacte négativement leur interprétabilité. Le compromis entre ce gain en expressivité, évalué au travers de la précision de classification, et cette perte d'interprétabilité, est comparé pour plusieurs types de chroniques généralisées. L'intérêt des chroniques discriminantes à représenter des comportements et l'efficacité de DCM est validée sur des données réelles et synthétiques dans le contexte de classification à base de motifs. Des chroniques ont finalement été extraites à partir des données de pharmaco-épidémiologie et présentées aux cliniciens. Ces derniers ont validés l'intérêt de celles-ci pour décrire des comportements d'épidémiologie discriminants. / Data are recorded for a wide range of application and their analysis is a great challenge addressed by many studies. Among these applications, this thesis was motivated by analyzing care pathway data to conduct pharmaco-epidemiological studies. Pharmaco-epidemiology is the study of the uses and effects of healthcare products in well defined populations. The goal is then to automate this study by analyzing data. Within the data analysis approaches, pattern mining approaches extract behavior descriptions, called patterns, characterizing the data. Patterns are often easily interpretable and give insights about hidden behaviors described by the data. In this thesis, we are interested in mining discriminant temporal patterns from temporal sequences, i.e. a list of timestamped events. Temporal patterns represent expressively behaviors through their temporal dimension. Discriminant patterns are suitable adapted for representing behaviors occurring specifically in small subsets of a whole population. Surprisingly, if temporal patterns are essential to describe timestamped data and discriminant patterns are crucial to identify alternative behaviors that differ from mainstream, discriminant temporal patterns received little attention up to now. In this thesis, the model of discriminant chronicles is proposed to address the lack of interest in discriminant temporal pattern mining approaches. A chronicle is a temporal pattern representable as a graph whose nodes are events and vertices are numerical temporal constraints. The chronicle model was choosen because of its high expressiveness when dealing with temporal sequences and also by its unique ability to describe numerically the temporal dimension among other discriminant pattern models. The contribution of this thesis, centered on the discriminant chronicle model, is threefold: (i) a discriminant chronicle model mining algorithm (DCM), (ii) the study of the discriminant chronicle model interpretability through its generalization and (iii) the DCM application on a pharmaco-epidemiology case study. The DCM algorithm is an efficient algorithm dedicated to extract discriminant chronicles and based on the Ripperk numerical rule learning algorithm. Using Ripperk allows to take advantage to its efficiency and its incomplete heuristic dedicated to avoid redundant patterns. The DCM generalization allows to swap Ripperk with alternative machine learning algorithms. The extracted patterns are not chronicles but a generalized form of chronicles. More expressive machine learning algorithms extract more expressive generalized chronicles but impact negatively their interpretability. The trade-off between this expressiveness gain, evaluated by classification accuracy, and this interpretability loss, is compared for several types of generalized chronicles. The interest of the discriminant chronicle model and the DCM efficiency is validated on synthetic and real datasets in pattern-based classification context. Finally, chronicles are extracted from a pharmaco-epidemiology dataset and presented to clinicians who validated them to be interesting to describe epidemiological behaviors.
106

Apport des observations par lidar spatial pour comprendre l'effet radiatif des nuages dans l'infrarouge / Use of space-lidar observations to understand the longwave cloud radiative effect

Vaillant De Guélis, Thibault 09 November 2017 (has links)
Parce que les processus nuageux sont des processus complexes qui opèrent à des échelles spatiales très différentes, l'évolution de l'effet radiatif des nuages (CRE) dans un climat qui se réchauffe est incertaine. Afin de mieux comprendre l'évolution du CRE, il est utile de l'exprimer en fonction de propriétés nuageuses fondamentales et observables. Dans l'infrarouge (LW), l'altitude des nuages est une des propriétés fondamentales, ainsi que leur couverture et leur opacité. Les observations collectées par le lidar spatial CALIOP durant la dernière décennie nous ont permis d'exprimer le CRE LW en fonction de cinq propriétés nuageuses. Nous montrons que le CRE LW dépend linéairement de l'altitude des nuages. Cette linéarité permet de décomposer les variations du CRE LW en contributions dues aux cinq propriétés nuageuses. On observe ainsi que la couverture des nuages opaques a piloté les variations du CRE LW durant la dernière décennie. L'analyse de simulations climatiques suivant la même approche à l'aide d'un simulateur lidar montre que les variations du CRE LW dans le climat actuel sont pilotées par l'altitude des nuages opaques, en désaccord avec les observations. Lorsqu'on étend cette analyse aux rétroactions nuageuses LW simulées dans un climat futur, on remarque que celles-ci sont également pilotées par l'altitude des nuages opaques. Ces résultats suggèrent que les observations par lidar spatial apportent une forte contrainte observationnelle sur les rétroactions nuageuses LW, qui sont l'une des principales sources d'incertitude dans les prévisions d'évolution de la température moyenne globale dues aux activités humaines. / Because cloud processes are complex processes which operate at very different spatial scales, the evolution of the cloud radiative effect (CRE) in a warming climate is uncertain. To improve our understanding of the evolution of the CRE, it is useful to express it as a function of fundamental and observable cloud properties. In the infrared (LW), the altitude of clouds is one of the fundamental properties, together with their cover and opacity. The observations collected by the space-lidar CALIOP during the last decade allowed us to express the LW CRE using five cloud properties. We show that the LW CRE depends linearly on the cloud altitude. This linearity allows to decompose the variations of the LW CRE into contributions due to the five cloud properties. We observe that the cover of the opaque clouds drove the variations of the LW CRE during the last decade. The analysis of climate simulations performing the same approach by means of a lidar simulator shows that the variations of the LW CRE in the current climate are driven by the opaque cloud altitude, in disagreement with the observations. When we extend this analysis to the LW cloud feedback simulated in a future climate, we notice that they are also driven by the opaque cloud altitude. These results suggest that the space-lidar observations bring a strong observational constraint on the LW cloud feedbacks, which are one of the main sources of uncertainty in predicting future global average temperature evolution due to human activities.
107

Observation satellitaire et modélisation de l'albédo des forêts sur le territoire français métropolitain : dynamiques temporelles et impacts radiatifs / Remote sensing and modelling forest albedo in mainland France : temporal dynamics and radiative impacts

Planque, Carole 07 February 2018 (has links)
Les forêts ont un impact sur le climat mais cet effet est incertain, notamment dans les régions soumises à un climat tempéré. En effet, les processus biogéochimiques et biophysiques caractéristiques des forêts tempérées peuvent avoir un effet soit de refroidissement soit de réchauffement du climat. Une première étape dans l'amélioration de l'évaluation de l'effet climatique des forêts est d'avancer dans la modélisation de l'ensemble de leurs processus biogéochimiques et biophysiques dans les LSM (" Land Surface Model "), utilisés dans les modèles atmosphériques de prévision du temps et du climat. L'albédo de surface est identifié comme une variable clé pour l'étude de l'impact des forêts en termes de forçage radiatif. Pourtant, elle est représentée de façon très simplifiée dans la plupart des LSM, où elle est bien souvent non évolutive. Dans ce contexte, l'objectif de cette thèse est de contribuer à l'amélioration de la représentation de l'albédo de surface dans les LSM. Il s'est agi en particulier d'identifier à partir d'observations satellitaires les variables biophysiques qui pilotent l'albédo de surface des forêts dans l'espace et dans le temps. Un modèle prédictif de l'albédo des forêts aux échelles spatiales considérées par les LSM a été développé. La France métropolitaine a été choisie comme région d'étude et la période allant de 2001 à 2013 a été considérée. Il a été mis en évidence que, sur cette période, 94.4% de la surface occupée par les forêts présente un cycle saisonnier de l'albédo relativement stable d'une année à l'autre. Parmi les 5.6% restants, les changements ont été induits par des modifications soudaines du couvert végétal mais également par un "verdissement" de certaines forêts. Dans le but d'identifier les variables qui pilotent les variations saisonnières de l'albédo de surface des forêts, une nouvelle méthode permettant de désagréger les albédos de surface satellitaires, en albédo du sol nu et de la végétation, a été développée. Les albédos du sol obtenus présentent une dynamique temporelle inter- et intra-annuelle qui est corrélée avec celle de l'humidité superficielle du sol. La variabilité temporelle de l'albédo du sol moyen peut être caractérisée par son écart type, qui est de 0.016. La valeur obtenue par des méthodes pré-existantes est de 0 à 0.004. D'autre part, le cycle saisonnier de l'albédo du sol est cohérent avec le régime des pluies : les valeurs mensuelles moyennes maximales correspondent aux mois les moins pluvieux. C'est vrai dans 68 % des cas, contre 32 % pour l'albédo de surface. Les valeurs moyennes de l'albédo de la végétation (sol) ont été estimées avec une incertitude de 2 % (10 %). Ces albédos désagrégés dynamiques ont permis de construire des cycles annuels moyens. Ces derniers sont utilisés pour forcer le modèle prédictif de l'albédo des forêts fondé sur des variables pouvant être simulées par les LSM. Une validation par rapport à l'albédo de surface satellitaire MODIS a mis en évidence une erreur moyenne de 12% et 8 %, respectivement dans le VIS et dans le NIR (R de 0.63 dans le VIS), soit une amélioration par rapport aux autres méthodes (R de 0.45 dans le VIS). Cette désagrégation de l'albédo de surface a permis de mettre en évidence que l'effet des forêts tempérées sur le bilan d'énergie dépend de la saison, du type de forêt et du type de sol. Il est montré qu'en France métropolitaine, 77.3 % des forêts présentent un bilan radiatif pouvant entraîner un effet de réchauffement durant l'été. Si le verdissement de certaines forêts constaté dans cette thèse devait se généraliser, l'impact radiatif moyen durant l'été pourrait être de 0.187±0.04 W.m-2. La méthode de désagrégation développée durant cette thèse est en cours d'implémentation dans la chaîne opérationnelle du service LSA-SAF d'EUMETSAT. Elle pourra à terme permettre de développer une paramétrisation de ces albédos désagrégés dans les LSM. Cela permettra l'assimilation d'observations de l'albédo de surface dans les LSM. / The forests impact the climate but their effect is uncertain, in particular in the areas with temperate climate. In temperate forests, biogeochemical and biophysical processes can present either a cooling or a warming effect on climate. A first step to improve the evaluation of the climatic effect of forests is to go forward with the modeling of all biogeochemical and biophysical processes in LSMs ("Land Surface Models") used in the atmospheric models used for numerical weather forecast and climate predictions. Surface albedo is identified as a key variable of the impact of forests in terms of radiative forcing. However, surface albedo is represented in a simplified way in LSMs and is, more often than not, non-evolutive. In this context, the objective of this PhD work is to contribute to the improvement of surface albedo modeling in LSMs. A step forward was to identify the biophysical variables which drive the surface albedo of forests in space and time, using satellite observations. A predictive model of the forest albedo was developed considering the spatial resolution used in LSMs. Mainland France was selected as a study area from 2001 to 2013. It was shown that over this period, 94.4% of the forest area presented a relatively stable seasonal albedo cycle, from one year to another. Among the remaining 5.6%, changes in albedo were induced by sudden changes in the vegetation cover, but also in some forests by an increase in greenness. With the aim of identifying the variables which drive the seasonal variations of the surface albedo of forests, a new method was developed to split satellite-derived surface albedo into soil and vegetation albedo values. Soil albedo showed inter- and intra-annual temporal dynamics which are correlated with top soil moisture. The temporal variability of the average soil albedo can be described by its standard deviation, which is of 0.016. In comparison, the values obtained with preexisting methods range from 0 to 0.004. In addition, the seasonal cycle of soil albedo is consistent with the rainfall regime: the yearly maximum average monthly albedo matches the months with less precipitation. This was the case for 68% of forest pixels, against 32% using surface albedo instead of soil albedo. The median values of the vegetation (soil) albedo were estimated with an uncertainty of 2% (10%). These disaggregated albedo values (soil and vegetation) were used to produce average annual cycles. The latter are used to force the predictive model of the forest albedo which is based on LSMs' simulated variables. The validation was conducted using MODIS satellite-derived surface albedo observations. Average error values of 12% and 8% were obtained in the VIS and the NIR spectral domains, respectively (R of 0.63 in the VIS). This is an improvement with respect to pre-existing methods (R of 0.45 in the VIS). Disaggregating surface albedo showed that the effect of temperate forests on the radiative budget depends on season, forest type and soil type. Over mainland France, 77.3% of the forests present a radiative impact which can lead to a warming effect during the summer. If the increase in greenness detected in some forests were to spread to all French forests, the average radiative impact during the summer could be as large as 0.187± 0.04 W.m-2. The disaggregation method developed during this PhD work is under implementation in the operational chain of the EUMETSAT LSA-SAF service. Thanks to this implementation it could be eventually possible to parameterize disaggregated albedo values in LSMs. This will allow the assimilation of surface albedo observations in LSMs.
108

Excès de liquidité monétaire, objectif d'inflation et stabilité financière / Global excess liquidity, inflation targeting and financial stability

Mohamed Cheik, Hamidou Issoufa 19 February 2013 (has links)
Les évolutions récentes des prix des actifs (actions, immobilier) enregistrées au cours de la dernière décennie ont ravivé le débat sur l'origine de certains dés ajustements (bulles) et sur leur impact dans l'économie réelle. En effet les prix des actifs réagissent à l'excès de création monétaire (la base monétaire mondiale croissant plus vite que la production mondiale) dans un régime de basse inflation. Cette thèse cherche à éclaircir le lien entre les conditions de liquidité et les prix contribuant à rendre les économies plus sensibles aux chocs financiers (par exemple à la suite de l'éclatement d'une bulle des prix des actifs). Nous avons vu ensuite, dans quelle mesure la politique monétaire doit réagir face à cette menace par une analyse des implications de l'existence de l'excès de liquidité monétaire sur la politique d' « inflation targeting » de la banque centrale. Pour résorber l'excès de liquidité et assurer la stabilité financière, les banques centrales doivent-elles tenir compte des prix d'actifs dans la formulation de la politique monétaire? / Recent developments in asset prices (stocks, real estate) during the last decade have revived the debate on the origin of some unbalances (bubbles) and their impact on the real economy. Indeed asset prices respond to liquidity glut (the global monetary base growing faster than world production) in a low inflation regime. In this thesis, we try to clarify the relationship between liquidity conditions and prices which may render economies more vulnerable to financial shocks (e.g. as a result of the bursting of asset prices bubble). Thereafter, we examine how monetary policy should respond to this threat by analyzing the implications of the existence of liquidity glut on the "inflation targeting" policy. To deal with liquidity glut and ensure financial stability, should central banks have to consider asset prices in their design of monetary policy?
109

Représentations parcimonieuses et apprentissage de dictionnaires pour la classification et le clustering de séries temporelles / Time warp invariant sparse coding and dictionary learning for time series classification and clustering

Varasteh Yazdi, Saeed 15 November 2018 (has links)
L'apprentissage de dictionnaires à partir de données temporelles est un problème fondamental pour l’extraction de caractéristiques temporelles latentes, la révélation de primitives saillantes et la représentation de données temporelles complexes. Cette thèse porte sur l’apprentissage de dictionnaires pour la représentation parcimonieuse de séries temporelles. On s’intéresse à l’apprentissage de représentations pour la reconstruction, la classification et le clustering de séries temporelles sous des transformations de distortions temporelles. Nous proposons de nouveaux modèles invariants aux distortions temporelles.La première partie du travail porte sur l’apprentissage de dictionnaire pour des tâches de reconstruction et de classification de séries temporelles. Nous avons proposé un modèle TWI-OMP (Time-Warp Invariant Orthogonal Matching Pursuit) invariant aux distorsions temporelles, basé sur un opérateur de maximisation du cosinus entre des séries temporelles. Nous avons ensuite introduit le concept d’atomes jumelés (sibling atomes) et avons proposé une approche d’apprentissage de dictionnaires TWI-kSVD étendant la méthode kSVD à des séries temporelles.Dans la seconde partie du travail, nous nous sommes intéressés à l’apprentissage de dictionnaires pour le clustering de séries temporelles. Nous avons proposé une formalisation du problème et une solution TWI-DLCLUST par descente de gradient.Les modèles proposés sont évalués au travers plusieurs jeux de données publiques et réelles puis comparés aux approches majeures de l’état de l’art. Les expériences conduites et les résultats obtenus montrent l’intérêt des modèles d’apprentissage de représentations proposés pour la classification et le clustering de séries temporelles. / Learning dictionary for sparse representing time series is an important issue to extract latent temporal features, reveal salient primitives and sparsely represent complex temporal data. This thesis addresses the sparse coding and dictionary learning problem for time series classification and clustering under time warp. For that, we propose a time warp invariant sparse coding and dictionary learning framework where both input samples and atoms define time series of different lengths that involve varying delays.In the first part, we formalize an L0 sparse coding problem and propose a time warp invariant orthogonal matching pursuit based on a new cosine maximization time warp operator. For the dictionary learning stage, a non linear time warp invariant kSVD (TWI-kSVD) is proposed. Thanks to a rotation transformation between each atom and its sibling atoms, a singular value decomposition is used to jointly approximate the coefficients and update the dictionary, similar to the standard kSVD. In the second part, a time warp invariant dictionary learning for time series clustering is formalized and a gradient descent solution is proposed.The proposed methods are confronted to major shift invariant, convolved and kernel dictionary learning methods on several public and real temporal data. The conducted experiments show the potential of the proposed frameworks to efficiently sparse represent, classify and cluster time series under time warp.
110

Apprentissage profond pour l'analyse de l'EEG continu / Deep learning for continuous EEG analysis

Sors, Arnaud 27 February 2018 (has links)
Ces travaux de recherche visent à développer des méthodes d’apprentissage automatique pour l’analyse de l’électroencéphalogramme (EEG) continu. L’EEG continu est une modalité avantageuse pour l’évaluation fonctionnelle des états cérébraux en réanimation ou pour d’autres applications. Cependant son utilisation aujourd’hui demeure plus restreinte qu’elle ne pourrait l’être, car dans la plupart des cas l’interprétation est effectuée visuellement par des spécialistes.Les sous-parties de ce travail s’articulent autour de l’évaluation pronostique du coma post-anoxique, choisie comme application pilote. Un petit nombre d’enregistrement longue durée a été réalisé, et des enregistrements existants ont été récupérés au CHU Grenoble.Nous commençons par valider l’efficacité des réseaux de neurones profonds pour l’analyse EEG d’échantillons bruts. Nous choisissons à cet effet de travailler sur la classification de stades de sommeil. Nous utilisons un réseau de neurones convolutionnel adapté pour l’EEG que nous entrainons et évaluons sur le jeu de données SHHS (Sleep Heart Health Study). Cela constitue le premier system neuronal à cette échelle (5000 patients) pour l’analyse du sommeil. Les performances de classification atteignent ou dépassent l’état de l’art.En utilisation réelle, pour la plupart des applications cliniques le défi principal est le manque d’annotations adéquates sur les patterns EEG ou sur de court segments de données (et la difficulté d’en établir). Les annotations disponibles sont généralement haut niveau (par exemple, le devenir clinique) est sont donc peu nombreuses. Nous recherchons comment apprendre des représentations compactes de séquences EEG de façon non-supervisée/semi-supervisée. Le domaine de l’apprentissage non supervisé est encore jeune. Pour se comparer aux travaux existants nous commençons avec des données de type image, et investiguons l’utilisation de réseaux adversaires génératifs (GANs) pour l’apprentissage adversaire non-supervisé de représentations. La qualité et la stabilité de différentes variantes sont évaluées. Nous appliquons ensuite un GAN de Wasserstein avec pénalité sur les gradients à la génération de séquences EEG. Le système, entrainé sur des séquences mono-piste de patients en coma post anoxique, est capable de générer des séquences réalistes. Nous développons et discutons aussi des idées originales pour l’apprentissage de représentations en alignant des distributions dans l’espace de sortie du réseau représentatif.Pour finir, les signaux EEG multipistes ont des spécificités qu’il est souhaitable de prendre en compte dans les architectures de caractérisation. Chaque échantillon d’EEG est un mélange instantané des activités d’un certain nombre de sources. Partant de ce constat nous proposons un système d’analyse composé d’un sous-système d’analyse spatiale suivi d’un sous-système d’analyse temporelle. Le sous-système d’analyse spatiale est une extension de méthodes de séparation de sources construite à l’aide de couches neuronales avec des poids adaptatifs pour la recombinaison des pistes, c’est à dire que ces poids ne sont pas appris mais dépendent de caractéristiques du signal d’entrée. Nous montrons que cette architecture peut apprendre à réaliser une analyse en composantes indépendantes, si elle est entrainée sur une mesure de non-gaussianité. Pour l’analyse temporelle, des réseaux convolutionnels classiques utilisés séparément sur les pistes recombinées peuvent être utilisés. / The objective of this research is to explore and develop machine learning methods for the analysis of continuous electroencephalogram (EEG). Continuous EEG is an interesting modality for functional evaluation of cerebral state in the intensive care unit and beyond. Today its clinical use remains more limited that it could be because interpretation is still mostly performed visually by trained experts. In this work we develop automated analysis tools based on deep neural models.The subparts of this work hinge around post-anoxic coma prognostication, chosen as pilot application. A small number of long-duration records were performed and available existing data was gathered from CHU Grenoble. Different components of a semi-supervised architecture that addresses the application are imagined, developed, and validated on surrogate tasks.First, we validate the effectiveness of deep neural networks for EEG analysis from raw samples. For this we choose the supervised task of sleep stage classification from single-channel EEG. We use a convolutional neural network adapted for EEG and we train and evaluate the system on the SHHS (Sleep Heart Health Study) dataset. This constitutes the first neural sleep scoring system at this scale (5000 patients). Classification performance reaches or surpasses the state of the art.In real use for most clinical applications, the main challenge is the lack of (and difficulty of establishing) suitable annotations on patterns or short EEG segments. Available annotations are high-level (for example, clinical outcome) and therefore they are few. We search how to learn compact EEG representations in an unsupervised/semi-supervised manner. The field of unsupervised learning using deep neural networks is still young. To compare to existing work we start with image data and investigate the use of generative adversarial networks (GANs) for unsupervised adversarial representation learning. The quality and stability of different variants are evaluated. We then apply Gradient-penalized Wasserstein GANs on EEG sequences generation. The system is trained on single channel sequences from post-anoxic coma patients and is able to generate realistic synthetic sequences. We also explore and discuss original ideas for learning representations through matching distributions in the output space of representative networks.Finally, multichannel EEG signals have specificities that should be accounted for in characterization architectures. Each EEG sample is an instantaneous mixture of the activities of a number of sources. Based on this statement we propose an analysis system made of a spatial analysis subsystem followed by a temporal analysis subsystem. The spatial analysis subsystem is an extension of source separation methods built with a neural architecture with adaptive recombination weights, i.e. weights that are not learned but depend on features of the input. We show that this architecture learns to perform Independent Component Analysis if it is trained on a measure of non-gaussianity. For temporal analysis, standard (shared) convolutional neural networks applied on separate recomposed channels can be used.

Page generated in 0.0925 seconds