• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

La dynamique de l'estime de soi et du soi physique : Un regard nouveau sur la variabilité et le fonctionnement des modèles hiérarchiques

Fortes-Bourbousson, Marina 10 December 2003 (has links) (PDF)
A partir d'une approche idiographique et dynamique, nous avons revisité les conceptions classiques de trait, d'état de personnalité et de variabilité de l'estime globale de soi et du soi physique. Ce travail met en exergue, chez l'adulte, un fonctionnement itératif de moyenne mobile avec différenciation, conçu comme un ajustement dynamique. La mise en évidence de la nature fractale des séries temporelles suggère que le soi puisse être considéré comme un système dynamique complexe. Ces premières conclusions nous ont amené à réévaluer la structure hiérarchique de l'estime globale de soi et du soi physique, non plus dans une perspective nomothétique, mais à partir de séries temporelles individuelles. Dépassant certaines limites des approches classiques, l'utilisation de la théorie des systèmes dynamiques permet d'apporter des réponses quant aux processus d'influence qui gouvernent le fonctionnement de ce système : l'effet réciproque. Ce travail offre de nouvelles perspectives théoriques, méthodologiques et cliniques dans le champ de la psychologie sociale.
32

Algorithmes de graphes pour la découverte de la topologie d'un réseau énergétique par la connaissance de ses flots / Algorithm of graphs for topology discovery for a energy network from flot knowledges

Ehounou, Joseph 02 October 2018 (has links)
Dans les réseaux énergétiques, la connaissance des équipements, leurs emplacements et leursfonctions sont les prérequis à l’exploitation de l’infrastucture. En effet, tout opérateur disposed’une carte appelée schéma synoptique indiquant les connexions entre les équipements. À partirde cette carte, sont prises des décisions pour un fonctionnement optimal du réseau.Ce schéma synoptique peut être érronné parce que des opérations de maintenance sur le réseaun’auraient pas été retranscrites ou mal saisies. Et cela peut entrainer des coûts supplémentairesd’exploitation du réseau énergetique.Nous considérons le réseau électrique d’un Datacenter. Ce réseau est composé d’une topologiephysique modélisée par un DAG sans circuit et de mesures électriques sur ces arcs. La particularitéde ce réseau est que les mesures contiennent des erreurs et cette topologie est inconnue c’est-à-direles arcs sont connus mais les extrémités des arcs sont inconnues. Dans le cas où ces mesuressont correctes alors la corrélation des arcs induit la matrice d’adjacence du line-graphe du graphenon-orienté sous-jacent de notre DAG. Un line-graphe est un graphe dans lequel chaque sommet etson voisinage peuvent être partitionnés par une ou deux cliques et que chaque arête est couvertepar une clique. Cependant, avec la présence des erreurs de mesures, nous avons un graphe avecdes arêtes en plus ou en moins qui n’est pas nécessairement un line-graphe. Si ce graphe est unline-graphe alors il n’est pas le line-graphe de notre DAG. Notre problème est de découvrir cettetopologie en se basant sur ces mesures électriques.Nous débutons par une étude bibliographique des corrélations de mesures possibles afin dedéterminer celle qui est pertinente pour notre problème. Ensuite nous proposons deux algorithmespour résoudre ce problème. Le premier algorithme est l’algorithme de couverture et il déterminel’ensemble des cliques qui couvre chaque sommet de notre graphe. Le second algorithme estl’algorithme de correction. Il ajoute ou supprime des arêtes au voisinage d’un sommet non couvertde telle sorte que son voisinage soit partitionné en une ou deux cliques. Enfin, nous évaluons lesperformances de nos algorithmes en vérifiant le nombre d’arêtes corrigées et la capacité à retournerle graphe le plus proche du line-graphe de notre DAG. / In energy network, the knowledge of equipments, their locations and their functions are theimportant information for the distributor service operator. In fact, each operator has a networkplan often named synoptic schema. That schema shows the interconnexion between equipments inthe network. From this schema, some management decisions have taken for ensuring an optimalperformance of a network.Sometimes, a synoptic schema has some mistakes because the maintenance operations, such aschanged the connexion between equipments or replaced equipments, have not been updated orhave been written with errors. And these mistakes increase exploitation cost in the energy network.We consider an electric network of a datacenter. This network consists of physical topologymodelised by a DAG without circuit and measurements are on the edges of a DAG. The mainpoint of the network is that measurements are some mistakes and the topology is unknown i.ewe know edges but the nodes of edges are unknown. When measurements are correct then thecorrelations between pairwise edges provide the adjacency matrix of the linegraph of undirectedgraph of the DAG. A linegraph is a graph in which each node and the neighbor are partitionnedby one or deux cliques. However, with the mistakes in measurements, the obtained graph is nota linegraph because it contains more or less edges. If the obtained graph is a linegraph then it isa linegraph of the other DAG. Our problem is to discovery the topology of the DAG with somemistakes in measurements.We start by the state of art in the measurement correlations in order to choose the good methodfor our problem. Then, we propose two algorithms to resolve our problem. The first algorithmis the cover algorithm and it returns the set of cliques in the graph. The second algorithm is acorrection algorithm which adds or deletes edges in the graph for getting a nearest linegraph ofthe DAG. In the last, we evaluate the performances of the algorithms by checking the number ofedges corrected and the ability to return a nearest linegraph of the DAG.
33

Visualisation de données dynamiques et complexes : des séries temporelles hiérarchiques aux graphes multicouches / Visualization of Dynamic and Complex Data : from Hierarchical Time Series to Multilayer Graphs

Cuenca Pauta, Erick 12 November 2018 (has links)
L'analyse de données de plus en plus complexes, volumineuses et issues de différentes sources (e.g. internet, médias sociaux, etc.) est une tâche difficile. Elle reste cependant cruciale dans de très nombreux domaines d'application. Elle implique, pour pouvoir en extraire des connaissances, de mieux comprendre la nature des données, leur évolution ou les nombreuses relations complexes qu'elles peuvent contenir. La visualisation d'informations s'intéresse aux méthodes de représentations visuelles et interactives permettant d'aider un utilisateur à extraire des connaissances. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous nous intéressons à la visualisation de longues séries temporelles hiérarchiques. Après avoir analysé les différentes approches existantes, nous présentons le système MultiStream permettant de visualiser, explorer et comparer l'évolution de séries organisées dans une structure hiérarchique. Nous illustrons son utilisation par deux exemples d'utilisation : émotions exprimées dans des médias sociaux et évolution des genres musicaux. Dans un second temps nous abordons la problématique de données complexes modélisées sous la forme de graphes multicouches (différentes types d'arêtes peuvent relier les n÷uds). Plus particulièrement nous nous intéressons au requêtage visuel de graphes volumineux en présentant VERTIGo un système qui permet de construire des requêtes, d'interroger un moteur spécifique, de visualiser/explorer les résultats à différentes niveaux de détail et de suggérer de nouvelles extensions de requêtes. Nous illustrons son utilisation à l'aide d'un graphe d'auteurs provenant de différentes communautés. / The analysis of data that is increasingly complex, large and from different sources (e.g. internet, social medias, etc.) is a dificult task. However, it remains crucial for many fields of application. It implies, in order to extract knowledge, to better understand the nature of the data, its evolution or the many complex relationships it may contain. Information visualization is about visual and interactive representation methods to help a user to extract knowledge. The work presented in this document takes place in this context. At first, we are interested in the visualization of large hierarchical time series. After analyzing the different existing approaches, we present the MultiStream system for visualizing, exploring and comparing the evolution of the series organized into a hierarchical structure. We illustrate its use by two examples: emotions expressed in social media and the evolution of musical genres. In a second time, we tackle the problem of complex data modeled in the form of multilayer graphs (different types of edges can connect the nodes). More specifically, we are interested in the visual querying of large graphs and we present VERTIGo, a system which makes it possible to build queries, to launch them on a specific engine, to visualize/explore the results at different levels of details and to suggest new query extensions. We illustrate its use with a graph of co-authors from different communities.
34

Observation satellitaire et modélisation de l'albédo des forêts sur le territoire français métropolitain : dynamiques temporelles et impacts radiatifs / Remote sensing and modelling forest albedo in mainland France : temporal dynamics and radiative impacts

Planque, Carole 07 February 2018 (has links)
Les forêts ont un impact sur le climat mais cet effet est incertain, notamment dans les régions soumises à un climat tempéré. En effet, les processus biogéochimiques et biophysiques caractéristiques des forêts tempérées peuvent avoir un effet soit de refroidissement soit de réchauffement du climat. Une première étape dans l'amélioration de l'évaluation de l'effet climatique des forêts est d'avancer dans la modélisation de l'ensemble de leurs processus biogéochimiques et biophysiques dans les LSM (" Land Surface Model "), utilisés dans les modèles atmosphériques de prévision du temps et du climat. L'albédo de surface est identifié comme une variable clé pour l'étude de l'impact des forêts en termes de forçage radiatif. Pourtant, elle est représentée de façon très simplifiée dans la plupart des LSM, où elle est bien souvent non évolutive. Dans ce contexte, l'objectif de cette thèse est de contribuer à l'amélioration de la représentation de l'albédo de surface dans les LSM. Il s'est agi en particulier d'identifier à partir d'observations satellitaires les variables biophysiques qui pilotent l'albédo de surface des forêts dans l'espace et dans le temps. Un modèle prédictif de l'albédo des forêts aux échelles spatiales considérées par les LSM a été développé. La France métropolitaine a été choisie comme région d'étude et la période allant de 2001 à 2013 a été considérée. Il a été mis en évidence que, sur cette période, 94.4% de la surface occupée par les forêts présente un cycle saisonnier de l'albédo relativement stable d'une année à l'autre. Parmi les 5.6% restants, les changements ont été induits par des modifications soudaines du couvert végétal mais également par un "verdissement" de certaines forêts. Dans le but d'identifier les variables qui pilotent les variations saisonnières de l'albédo de surface des forêts, une nouvelle méthode permettant de désagréger les albédos de surface satellitaires, en albédo du sol nu et de la végétation, a été développée. Les albédos du sol obtenus présentent une dynamique temporelle inter- et intra-annuelle qui est corrélée avec celle de l'humidité superficielle du sol. La variabilité temporelle de l'albédo du sol moyen peut être caractérisée par son écart type, qui est de 0.016. La valeur obtenue par des méthodes pré-existantes est de 0 à 0.004. D'autre part, le cycle saisonnier de l'albédo du sol est cohérent avec le régime des pluies : les valeurs mensuelles moyennes maximales correspondent aux mois les moins pluvieux. C'est vrai dans 68 % des cas, contre 32 % pour l'albédo de surface. Les valeurs moyennes de l'albédo de la végétation (sol) ont été estimées avec une incertitude de 2 % (10 %). Ces albédos désagrégés dynamiques ont permis de construire des cycles annuels moyens. Ces derniers sont utilisés pour forcer le modèle prédictif de l'albédo des forêts fondé sur des variables pouvant être simulées par les LSM. Une validation par rapport à l'albédo de surface satellitaire MODIS a mis en évidence une erreur moyenne de 12% et 8 %, respectivement dans le VIS et dans le NIR (R de 0.63 dans le VIS), soit une amélioration par rapport aux autres méthodes (R de 0.45 dans le VIS). Cette désagrégation de l'albédo de surface a permis de mettre en évidence que l'effet des forêts tempérées sur le bilan d'énergie dépend de la saison, du type de forêt et du type de sol. Il est montré qu'en France métropolitaine, 77.3 % des forêts présentent un bilan radiatif pouvant entraîner un effet de réchauffement durant l'été. Si le verdissement de certaines forêts constaté dans cette thèse devait se généraliser, l'impact radiatif moyen durant l'été pourrait être de 0.187±0.04 W.m-2. La méthode de désagrégation développée durant cette thèse est en cours d'implémentation dans la chaîne opérationnelle du service LSA-SAF d'EUMETSAT. Elle pourra à terme permettre de développer une paramétrisation de ces albédos désagrégés dans les LSM. Cela permettra l'assimilation d'observations de l'albédo de surface dans les LSM. / The forests impact the climate but their effect is uncertain, in particular in the areas with temperate climate. In temperate forests, biogeochemical and biophysical processes can present either a cooling or a warming effect on climate. A first step to improve the evaluation of the climatic effect of forests is to go forward with the modeling of all biogeochemical and biophysical processes in LSMs ("Land Surface Models") used in the atmospheric models used for numerical weather forecast and climate predictions. Surface albedo is identified as a key variable of the impact of forests in terms of radiative forcing. However, surface albedo is represented in a simplified way in LSMs and is, more often than not, non-evolutive. In this context, the objective of this PhD work is to contribute to the improvement of surface albedo modeling in LSMs. A step forward was to identify the biophysical variables which drive the surface albedo of forests in space and time, using satellite observations. A predictive model of the forest albedo was developed considering the spatial resolution used in LSMs. Mainland France was selected as a study area from 2001 to 2013. It was shown that over this period, 94.4% of the forest area presented a relatively stable seasonal albedo cycle, from one year to another. Among the remaining 5.6%, changes in albedo were induced by sudden changes in the vegetation cover, but also in some forests by an increase in greenness. With the aim of identifying the variables which drive the seasonal variations of the surface albedo of forests, a new method was developed to split satellite-derived surface albedo into soil and vegetation albedo values. Soil albedo showed inter- and intra-annual temporal dynamics which are correlated with top soil moisture. The temporal variability of the average soil albedo can be described by its standard deviation, which is of 0.016. In comparison, the values obtained with preexisting methods range from 0 to 0.004. In addition, the seasonal cycle of soil albedo is consistent with the rainfall regime: the yearly maximum average monthly albedo matches the months with less precipitation. This was the case for 68% of forest pixels, against 32% using surface albedo instead of soil albedo. The median values of the vegetation (soil) albedo were estimated with an uncertainty of 2% (10%). These disaggregated albedo values (soil and vegetation) were used to produce average annual cycles. The latter are used to force the predictive model of the forest albedo which is based on LSMs' simulated variables. The validation was conducted using MODIS satellite-derived surface albedo observations. Average error values of 12% and 8% were obtained in the VIS and the NIR spectral domains, respectively (R of 0.63 in the VIS). This is an improvement with respect to pre-existing methods (R of 0.45 in the VIS). Disaggregating surface albedo showed that the effect of temperate forests on the radiative budget depends on season, forest type and soil type. Over mainland France, 77.3% of the forests present a radiative impact which can lead to a warming effect during the summer. If the increase in greenness detected in some forests were to spread to all French forests, the average radiative impact during the summer could be as large as 0.187± 0.04 W.m-2. The disaggregation method developed during this PhD work is under implementation in the operational chain of the EUMETSAT LSA-SAF service. Thanks to this implementation it could be eventually possible to parameterize disaggregated albedo values in LSMs. This will allow the assimilation of surface albedo observations in LSMs.
35

Excès de liquidité monétaire, objectif d'inflation et stabilité financière / Global excess liquidity, inflation targeting and financial stability

Mohamed Cheik, Hamidou Issoufa 19 February 2013 (has links)
Les évolutions récentes des prix des actifs (actions, immobilier) enregistrées au cours de la dernière décennie ont ravivé le débat sur l'origine de certains dés ajustements (bulles) et sur leur impact dans l'économie réelle. En effet les prix des actifs réagissent à l'excès de création monétaire (la base monétaire mondiale croissant plus vite que la production mondiale) dans un régime de basse inflation. Cette thèse cherche à éclaircir le lien entre les conditions de liquidité et les prix contribuant à rendre les économies plus sensibles aux chocs financiers (par exemple à la suite de l'éclatement d'une bulle des prix des actifs). Nous avons vu ensuite, dans quelle mesure la politique monétaire doit réagir face à cette menace par une analyse des implications de l'existence de l'excès de liquidité monétaire sur la politique d' « inflation targeting » de la banque centrale. Pour résorber l'excès de liquidité et assurer la stabilité financière, les banques centrales doivent-elles tenir compte des prix d'actifs dans la formulation de la politique monétaire? / Recent developments in asset prices (stocks, real estate) during the last decade have revived the debate on the origin of some unbalances (bubbles) and their impact on the real economy. Indeed asset prices respond to liquidity glut (the global monetary base growing faster than world production) in a low inflation regime. In this thesis, we try to clarify the relationship between liquidity conditions and prices which may render economies more vulnerable to financial shocks (e.g. as a result of the bursting of asset prices bubble). Thereafter, we examine how monetary policy should respond to this threat by analyzing the implications of the existence of liquidity glut on the "inflation targeting" policy. To deal with liquidity glut and ensure financial stability, should central banks have to consider asset prices in their design of monetary policy?
36

Représentations parcimonieuses et apprentissage de dictionnaires pour la classification et le clustering de séries temporelles / Time warp invariant sparse coding and dictionary learning for time series classification and clustering

Varasteh Yazdi, Saeed 15 November 2018 (has links)
L'apprentissage de dictionnaires à partir de données temporelles est un problème fondamental pour l’extraction de caractéristiques temporelles latentes, la révélation de primitives saillantes et la représentation de données temporelles complexes. Cette thèse porte sur l’apprentissage de dictionnaires pour la représentation parcimonieuse de séries temporelles. On s’intéresse à l’apprentissage de représentations pour la reconstruction, la classification et le clustering de séries temporelles sous des transformations de distortions temporelles. Nous proposons de nouveaux modèles invariants aux distortions temporelles.La première partie du travail porte sur l’apprentissage de dictionnaire pour des tâches de reconstruction et de classification de séries temporelles. Nous avons proposé un modèle TWI-OMP (Time-Warp Invariant Orthogonal Matching Pursuit) invariant aux distorsions temporelles, basé sur un opérateur de maximisation du cosinus entre des séries temporelles. Nous avons ensuite introduit le concept d’atomes jumelés (sibling atomes) et avons proposé une approche d’apprentissage de dictionnaires TWI-kSVD étendant la méthode kSVD à des séries temporelles.Dans la seconde partie du travail, nous nous sommes intéressés à l’apprentissage de dictionnaires pour le clustering de séries temporelles. Nous avons proposé une formalisation du problème et une solution TWI-DLCLUST par descente de gradient.Les modèles proposés sont évalués au travers plusieurs jeux de données publiques et réelles puis comparés aux approches majeures de l’état de l’art. Les expériences conduites et les résultats obtenus montrent l’intérêt des modèles d’apprentissage de représentations proposés pour la classification et le clustering de séries temporelles. / Learning dictionary for sparse representing time series is an important issue to extract latent temporal features, reveal salient primitives and sparsely represent complex temporal data. This thesis addresses the sparse coding and dictionary learning problem for time series classification and clustering under time warp. For that, we propose a time warp invariant sparse coding and dictionary learning framework where both input samples and atoms define time series of different lengths that involve varying delays.In the first part, we formalize an L0 sparse coding problem and propose a time warp invariant orthogonal matching pursuit based on a new cosine maximization time warp operator. For the dictionary learning stage, a non linear time warp invariant kSVD (TWI-kSVD) is proposed. Thanks to a rotation transformation between each atom and its sibling atoms, a singular value decomposition is used to jointly approximate the coefficients and update the dictionary, similar to the standard kSVD. In the second part, a time warp invariant dictionary learning for time series clustering is formalized and a gradient descent solution is proposed.The proposed methods are confronted to major shift invariant, convolved and kernel dictionary learning methods on several public and real temporal data. The conducted experiments show the potential of the proposed frameworks to efficiently sparse represent, classify and cluster time series under time warp.
37

Apprentissage profond pour l'analyse de l'EEG continu / Deep learning for continuous EEG analysis

Sors, Arnaud 27 February 2018 (has links)
Ces travaux de recherche visent à développer des méthodes d’apprentissage automatique pour l’analyse de l’électroencéphalogramme (EEG) continu. L’EEG continu est une modalité avantageuse pour l’évaluation fonctionnelle des états cérébraux en réanimation ou pour d’autres applications. Cependant son utilisation aujourd’hui demeure plus restreinte qu’elle ne pourrait l’être, car dans la plupart des cas l’interprétation est effectuée visuellement par des spécialistes.Les sous-parties de ce travail s’articulent autour de l’évaluation pronostique du coma post-anoxique, choisie comme application pilote. Un petit nombre d’enregistrement longue durée a été réalisé, et des enregistrements existants ont été récupérés au CHU Grenoble.Nous commençons par valider l’efficacité des réseaux de neurones profonds pour l’analyse EEG d’échantillons bruts. Nous choisissons à cet effet de travailler sur la classification de stades de sommeil. Nous utilisons un réseau de neurones convolutionnel adapté pour l’EEG que nous entrainons et évaluons sur le jeu de données SHHS (Sleep Heart Health Study). Cela constitue le premier system neuronal à cette échelle (5000 patients) pour l’analyse du sommeil. Les performances de classification atteignent ou dépassent l’état de l’art.En utilisation réelle, pour la plupart des applications cliniques le défi principal est le manque d’annotations adéquates sur les patterns EEG ou sur de court segments de données (et la difficulté d’en établir). Les annotations disponibles sont généralement haut niveau (par exemple, le devenir clinique) est sont donc peu nombreuses. Nous recherchons comment apprendre des représentations compactes de séquences EEG de façon non-supervisée/semi-supervisée. Le domaine de l’apprentissage non supervisé est encore jeune. Pour se comparer aux travaux existants nous commençons avec des données de type image, et investiguons l’utilisation de réseaux adversaires génératifs (GANs) pour l’apprentissage adversaire non-supervisé de représentations. La qualité et la stabilité de différentes variantes sont évaluées. Nous appliquons ensuite un GAN de Wasserstein avec pénalité sur les gradients à la génération de séquences EEG. Le système, entrainé sur des séquences mono-piste de patients en coma post anoxique, est capable de générer des séquences réalistes. Nous développons et discutons aussi des idées originales pour l’apprentissage de représentations en alignant des distributions dans l’espace de sortie du réseau représentatif.Pour finir, les signaux EEG multipistes ont des spécificités qu’il est souhaitable de prendre en compte dans les architectures de caractérisation. Chaque échantillon d’EEG est un mélange instantané des activités d’un certain nombre de sources. Partant de ce constat nous proposons un système d’analyse composé d’un sous-système d’analyse spatiale suivi d’un sous-système d’analyse temporelle. Le sous-système d’analyse spatiale est une extension de méthodes de séparation de sources construite à l’aide de couches neuronales avec des poids adaptatifs pour la recombinaison des pistes, c’est à dire que ces poids ne sont pas appris mais dépendent de caractéristiques du signal d’entrée. Nous montrons que cette architecture peut apprendre à réaliser une analyse en composantes indépendantes, si elle est entrainée sur une mesure de non-gaussianité. Pour l’analyse temporelle, des réseaux convolutionnels classiques utilisés séparément sur les pistes recombinées peuvent être utilisés. / The objective of this research is to explore and develop machine learning methods for the analysis of continuous electroencephalogram (EEG). Continuous EEG is an interesting modality for functional evaluation of cerebral state in the intensive care unit and beyond. Today its clinical use remains more limited that it could be because interpretation is still mostly performed visually by trained experts. In this work we develop automated analysis tools based on deep neural models.The subparts of this work hinge around post-anoxic coma prognostication, chosen as pilot application. A small number of long-duration records were performed and available existing data was gathered from CHU Grenoble. Different components of a semi-supervised architecture that addresses the application are imagined, developed, and validated on surrogate tasks.First, we validate the effectiveness of deep neural networks for EEG analysis from raw samples. For this we choose the supervised task of sleep stage classification from single-channel EEG. We use a convolutional neural network adapted for EEG and we train and evaluate the system on the SHHS (Sleep Heart Health Study) dataset. This constitutes the first neural sleep scoring system at this scale (5000 patients). Classification performance reaches or surpasses the state of the art.In real use for most clinical applications, the main challenge is the lack of (and difficulty of establishing) suitable annotations on patterns or short EEG segments. Available annotations are high-level (for example, clinical outcome) and therefore they are few. We search how to learn compact EEG representations in an unsupervised/semi-supervised manner. The field of unsupervised learning using deep neural networks is still young. To compare to existing work we start with image data and investigate the use of generative adversarial networks (GANs) for unsupervised adversarial representation learning. The quality and stability of different variants are evaluated. We then apply Gradient-penalized Wasserstein GANs on EEG sequences generation. The system is trained on single channel sequences from post-anoxic coma patients and is able to generate realistic synthetic sequences. We also explore and discuss original ideas for learning representations through matching distributions in the output space of representative networks.Finally, multichannel EEG signals have specificities that should be accounted for in characterization architectures. Each EEG sample is an instantaneous mixture of the activities of a number of sources. Based on this statement we propose an analysis system made of a spatial analysis subsystem followed by a temporal analysis subsystem. The spatial analysis subsystem is an extension of source separation methods built with a neural architecture with adaptive recombination weights, i.e. weights that are not learned but depend on features of the input. We show that this architecture learns to perform Independent Component Analysis if it is trained on a measure of non-gaussianity. For temporal analysis, standard (shared) convolutional neural networks applied on separate recomposed channels can be used.
38

Knowledge extraction from uncertain and cyclic time series : application to Manual Wheelchair locomotion analysis / Extraction de connaissances de séries temporelles incertaines et cycliques : application à la locomotion en fauteuil roulant manuel

Siyou Fotso, Vanel Steve 11 December 2018 (has links)
Cette thèse appréhende des questions scientifiques d'un point de vue de la data science, dans le cadre de l'analyse des séries temporelles issues de la locomotion en fauteuil roulant manuel (FRM). Compression et classification des séries temporelles à l'aide de DTW : l'algorithme Dynamic Time Warping (DTW) est souvent utilisé car il permet d'éviter de petites distorsions entre les séries temporelles au cours de leur alignement. Cependant, DTW produit parfois des alignements pathologiques qui se produisent, lorsque au cours de la comparaison de deux séries temporelles X et Y, un point de données de la série temporelle X est comparé à une grande sous-séquence de Y. Nous démontrons que la compression de séries temporelles à l'aide de l'approximation par morceaux (Piecewise Aggregate Approximation) (PAA) augmente considérablement la qualité de l'alignement avec DTW. Classification non supervisée de séries temporelles basée sur la distance Frobenius : Un shapelet non supervisé (U-shapelet) est une sous-séquence d'une série temporelle utilisée pour segmenter un jeu de données. Notre but est de découvrir des u-shapelets sur des séries temporelles incertaines. Pour ce faire, nous proposons un score de dissimilarité robuste à l'incertitude appelé FOTS dont le calcul est basé sur la décomposition en vecteurs propres et la comparaison des matrices d'autocorrélation de la série temporelle. Ce score est robuste à la présence d'incertitude ; il n'est pas très sensible aux changements transitoires ; il permet de saisir des relations complexes entre des séries temporelles telles que les oscillations et les tendances, et il est également bien adapté à la comparaison de séries temporelles courtes. Le score FOTS a été utilisé avec l'algorithme Scalable Unsupervised Shapelet Discovery pour le clustering de 17 jeux de données, et il a montré une amélioration substantielle de la qualité du clustering par rapport à l'indice Rand. Représentation symbolique de série temporelles cycliques basée sur les propriétés des cycliques : L'analyse des séries temporelles cycliques de la biomécanique est basée sur la comparaison des propriétés de leurs cycles. En général, les algorithmes de fouille de données ignorent cette particularité, nous proposons une représentation symbolique des séries temporelles cycliques basées sur les propriétés de cycles, appelés SAX-P. Les chaînes de caractères résultantes peuvent être comparées en utilisant la distance de distorsion temporelle dynamique (DTW). L'application de SAX-P aux moments propulsifs de trois sujets (S1, S2, S3) se déplaçant en FRM a mis en évidence de caractère asymétrique de leur propulsion. La représentation symbolique SAX-P facilite l'interprétation clinique des résultats de classification. / This thesis addresses scientific issues from a data science perspective as part of the analysis of time series from manual wheelchair locomotion (FRM).Compression and classification with Dynamic Time Warping: Dyna- mic Time Warping (DTW) is a time series alignment algorithm that is often used because it considers that it exits small distortions between time series during their alignment. However, DTW sometimes produces pathological alignments that occur when, during the comparison of two time series X and Y, one data point of the time series X is compared to a large subsequence of data points of Y. In this chapter, we demonstrate that compressing time series using Piecewise Aggregate Approximation (PAA) is a simple strategy that greatly increases the quality of the alignment with DTW. This result is particularly true for synthetic data sets.Frobenius correlation based u-shapelets discovery for time series clustering: An unsupervised shapelet (u-shapelet) is a sub-sequence of a time series used for clustering a time series dataset. The purpose of this chapter is to discover u-shapelets on uncertain time series. To achieve this goal, we propose a dissimilarity score robust to uncertainty called FOTS whose computation is based on the eigen- vector decomposition and the comparison of the autocorrelation matrices of the time series. This score is robust to the presence of uncertainty; it is not very sensitive to transient changes; it allows capturing complex relationships between time series such as oscillations and trends, and it is also well adapted to the comparison of short time series. The FOTS score has been used with the Scalable Unsupervised Shapelet Discovery algorithm for the clustering of 17 datasets, and it has shown a substantial improvement in the quality of clustering with respect to the Rand Index. This work defines a novel framework for clustering of uncertain time series.Symbolic representation of cyclic time series based on properties of cycles: The analysis of cyclic time series from bio-mechanics is based on the comparison of the properties of their cycles. As usual algorithms of time series classification ignore this particularity, we propose a symbolic representation of cyclic time series based on the properties of cycles, named SAX-P. The resulting character strings can be compared using the Dynamic Time Warping distance. The application of SAX-P to propulsive moments of three subjects (S1, S2, S3) moving in Manual Wheelchair highlight the asymmetry of their propulsion. The symbolic representation SAX-P facilitates the reading of the cyclic time series and the clinical interpretation of the classification results.
39

Suivi des changements d'occupation et d'utilisation des sols d'origine anthropique et climatique à l'échelle régionale par télédétection moyenne résolution (application à la Bretagne)

Lecerf, Rémi 16 October 2008 (has links) (PDF)
Les données de télédétection disponibles jusqu'à présent ne permettaient pas d'envisager un suivi spatio-temporel détaillé de l'occupation et de l'utilisation des sols à l'échelle régionale dans des régions au paysage très fragmenté, en raison de leur résolution temporelle trop faible ou de leur couverture spatiale trop limitée. Les objectifs de cette thèse étaient d'une part d'évaluer des séries temporelles d'images de télédétection à moyenne résolution spatiale pour effectuer ce type de suivi et d'autre part d'identifier et de caractériser les changements d'usage des terres en région agricole intensive à travers l'évolution de deux indicateurs, le taux de couverture hivernale des sols et le ratio céréales-prairies. Pour cela, des séries temporelles MODIS ont été constituées sur la région Bretagne entre 2000 et 2008. Une chaîne de prétraitements et de traitements complète a été mise en œuvre. Elle comprend des méthodes déjà utilisées sur des images de télédétection, mais qui ont dû être adaptées aux séries temporelles MODIS, et des méthodes originales, notamment pour la phase de reconstruction des séries temporelles. Les résultats montrent des tendances d'évolution comme la diminution des prairies au détriment des céréales ou l'augmentation de l'implantation d'intercultures. Ils mettent aussi en évidence des changements ponctuels comme l'augmentation des céréales en 2006 et 2008 et du maïs en 2001. Les principaux facteurs de changements d'occupation et d'utilisation agricole du sol, qui sont des conditions climatiques particulières ou des changements de pratiques agricoles en fonction du contexte politique ou socio-économique, ont été identifiés
40

Prise en compte des fluctuations spatio-temporelles pluies-débits pour une meilleure gestion de la ressource en eau et une meilleure évaluation des risques

Hoang, Cong Tuan 30 November 2011 (has links) (PDF)
Réduire la vulnérabilité et accroître la résilience des sociétés d'aujourd'hui aux fortes précipitations et inondations exige de mieux caractériser leur très forte variabilité spatio-temporelle observable sur une grande gamme d'échelle. Nous mettons donc en valeur tout au long de cette thèse l'intérêt méthodologique d'une approche multifractale comme étant la plus appropriée pour analyser et simuler cette variabilité. Cette thèse aborde tout d'abord le problème de la qualité des données, qui dépend étroitement de la résolution temporelle effective de la mesure, et son influence sur l'analyse multifractale et la détermination de lois d'échelle des processus de précipitations. Nous en soulignons les conséquences pour l'hydrologie opérationnelle. Nous présentons la procédure SERQUAL qui permet de quantifier cette qualité et de sélectionner les périodes correspondant aux critères de qualité requise. Un résultat surprenant est que les longues chronologies de pluie ont souvent une résolution effective horaire et rarement de 5 minutes comme annoncée. Ensuite, cette thèse se penche sur les données sélectionnées pour caractériser la structure temporelle et le comportement extrême de la pluie. Nous analysons les sources d'incertitudes dans les méthodes multifractales " classiques " d'estimation des paramètres et nous en déduisons des améliorations pour tenir compte, par exemple, de la taille finie des échantillons et des limites de la dynamique des capteurs. Ces améliorations sont utilisées pour obtenir les caractéristiques multifractales de la pluie à haute résolution de 5 minutes pour plusieurs départements de la France (à savoir, les départements 38, 78, 83 et 94) et pour aborder la question de l'évolution des précipitations durant les dernières décennies dans le cadre du changement climatique. Cette étude est confortée par l'analyse de mosaïques radars concernant trois événements majeurs en région parisienne. Enfin, cette thèse met en évidence une autre application des méthodes développées, à savoir l'hydrologie karstique. Nous discutons des caractéristiques multifractales des processus de précipitation et de débit à différentes résolutions dans deux bassins versant karstiques au sud de la France. Nous analysons, en utilisant les mesures journalière, 30 minutes et 3 minutes, la relation pluie-débit dans le cadre multifractal. Ceci est une étape majeure dans la direction d'une définition d'un modèle multi-échelle pluie-débit du fonctionnement des bassins versants karstiques

Page generated in 0.0842 seconds