• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes non linéaires pour séries temporelles : prédiction par Double Quantification Vectorielle et sélection du délai en hautes dimensions

Simon, Geoffroy 15 June 2007 (has links)
De la finance à la climatologie, en passant par les processus industriels, nombreux sont les domaines où on rencontre des séries temporelles. L'analyse, la modélisation et la prédiction de séries temporelles constituent aujourd'hui encore des défis, sur le plan scientifique tout comme dans ces nombreux domaines d'applications. En alternative aux modèles linéaires, les modèles non linéaires sont utilisés ici pour l'analyse, la modélisation et la prédiction de séries temporelles. Les modèles non linéaires sont potentiellement plus performants que les modèles linéaires, mais les questions de sélection de structure de modèle, de prédiction à long terme ou de construction des régresseurs sont plus complexes à résoudre dans le cadre non linéaire. Les paramètres de structure de certains modèles et des méthodes de sélection de structure sont d'abord décrits. La sélection de structure par FastBootrap est complétée par un test statistique qui constitue un argument théorique en faveur de l'approximation par régression linéaire du terme d'optimisme du Bootstrap. La Double Quantification Vectorielle (DQV), modèle de prédiction à long terme de séries temporelles, est introduite. La détermination des paramètres est détaillée, pour des séries scalaires et pour des séries multidimensionnelles auxquelles la DQV peut aisément être appliquée. La stabilité de la DQV en prédiction à long terme est établie théoriquement. Les capacités de la méthode sont illustrées sur divers exemples, en prédiction à court terme, à long terme, en scalaire et en multidimensionnel. La construction du régresseur est abordée lors de l'étude du caractère significatif de l'application des méthodes de clustering à des régresseurs. Une méthodologie de comparaison entre reconstructions de l'espace de phase de séries temporelles est décrite et appliquée sur plusieurs séries. Les résultats obtenus illustrent l'importance du délai dans la construction de régresseurs et permettent de prendre position dans un débat scientifique en cours : l'application des méthodes de clustering à des régresseurs a un sens. La construction du régresseur avec sélection d'un délai unique est alors généralisée au cas de plusieurs délais. Des généralisations des critères d'autocorrélation et d'information mutuelle à plus de deux variables sont proposées. Le critère géométrique de Distance à la Diagonale est également introduit. Tous ces critères de sélection de plusieurs délais sont comparés expérimentalement.
2

Prévisions robustes pour séries temporelles multivariées

Gagné, Christian January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Indexing and analysis of very large masses of time series / Indexation et analyse de très grandes masses de séries temporelles

Yagoubi, Djamel edine 19 March 2018 (has links)
Les séries temporelles sont présentes dans de nombreux domaines d'application tels que la finance, l'agronomie, la santé, la surveillance de la Terre ou la prévision météorologique, pour n'en nommer que quelques-uns. En raison des progrès de la technologie des capteurs, de telles applications peuvent produire des millions, voir des des milliards, de séries temporelles par jour, ce qui nécessite des techniques rapides d'analyse et de synthèse.Le traitement de ces énormes volumes de données a ouvert de nouveaux défis dans l'analyse des séries temporelles. En particulier, les techniques d'indexation ont montré de faibles performances lors du traitement des grands volumes des données.Dans cette thèse, nous abordons le problème de la recherche de similarité dans des centaines de millions de séries temporelles. Pour cela, nous devons d'abord développer des opérateurs de recherche efficaces, capables d'interroger une très grande base de données distribuée de séries temporelles avec de faibles temps de réponse. L'opérateur de recherche peut être implémenté en utilisant un index avant l'exécution des requêtes.L'objectif des indices est d'améliorer la vitesse des requêtes de similitude. Dans les bases de données, l'index est une structure de données basées sur des critères de recherche comme la localisation efficace de données répondant aux exigences. Les index rendent souvent le temps de réponse de l'opération de recherche sous linéaire dans la taille de la base de données. Les systèmes relationnels ont été principalement supportés par des structures de hachage, B-tree et des structures multidimensionnelles telles que R-tree, avec des vecteurs binaires jouant un rôle de support. De telles structures fonctionnent bien pour les recherches, et de manière adéquate pour les requêtes de similarité. Nous proposons trois solutions différentes pour traiter le problème de l'indexation des séries temporelles dans des grandes bases de données. Nos algorithmes nous permettent d'obtenir d'excellentes performances par rapport aux approches traditionnelles.Nous étudions également le problème de la détection de corrélation parallèle de toutes paires sur des fenêtres glissantes de séries temporelles. Nous concevons et implémentons une stratégie de calcul incrémental des sketchs dans les fenêtres glissantes. Cette approche évite de recalculer les sketchs à partir de zéro. En outre, nous développons une approche de partitionnement qui projette des sketchs vecteurs de séries temporelles dans des sous-vecteurs et construit une structure de grille distribuée. Nous utilisons cette méthode pour détecter les séries temporelles corrélées dans un environnement distribué. / Time series arise in many application domains such as finance, agronomy, health, earth monitoring, weather forecasting, to name a few. Because of advances in sensor technology, such applications may produce millions to trillions of time series per day, requiring fast analytical and summarization techniques.The processing of these massive volumes of data has opened up new challenges in time series data mining. In particular, it is to improve indexing techniques that has shown poor performances when processing large databases.In this thesis, we focus on the problem of parallel similarity search in such massive sets of time series. For this, we first need to develop efficient search operators that can query a very large distributed database of time series with low response times. The search operator can be implemented by using an index constructed before executing the queries. The objective of indices is to improve the speed of data retrieval operations. In databases, the index is a data structure, which based on search criteria, efficiently locates data entries satisfying the requirements. Indexes often make the response time of the lookup operation sublinear in the database size.After reviewing the state of the art, we propose three novel approaches for parallel indexing and queryin large time series datasets. First, we propose DPiSAX, a novel and efficient parallel solution that includes a parallel index construction algorithm that takes advantage of distributed environments to build iSAX-based indices over vast volumes of time series efficiently. Our solution also involves a parallel query processing algorithm that, given a similarity query, exploits the available processors of the distributed system to efficiently answer the query in parallel by using the constructed parallel index.Second, we propose RadiusSketch a random projection-based approach that scales nearly linearly in parallel environments, and provides high quality answers. RadiusSketch includes a parallel index construction algorithm that takes advantage of distributed environments to efficiently build sketch-based indices over very large databases of time series, and then query the databases in parallel.Third, we propose ParCorr, an efficient parallel solution for detecting similar time series across distributed data streams. ParCorr uses the sketch principle for representing the time series. Our solution includes a parallel approach for incremental computation of the sketches in sliding windows and a partitioning approach that projects sketch vectors of time series into subvectors and builds a distributed grid structure.Our solutions have been evaluated using real and synthetics datasets and the results confirm their high efficiency compared to the state of the art.
4

Construction, analyse et implémentation d'un modèle de prévision. Déploiement sous forme d'un système de prévision chez un opérateur européen du transport et de la logistique.

Despagne, Wilfried 01 April 2010 (has links) (PDF)
Cette thèse montre que pour innover, le secteur privé peut faire appel à la connaissance académique. En effet, un partenariat entre un établissement universitaire et un professionnel du transport de marchandises a permis de répondre à des problématiques industrielles par l'application de mathématiques de pointe. Cette thèse porte sur la conception, l'implémentation et la mise en production d'un système de prévision d'activité pour l'optimisation de la planification des ressources. Elle propose également un modèle mathématique pour modéliser les flux de marchandises qui transitent sur un quai de messagerie. Pour comprendre la problématique posée par l'industriel, le contexte industriel dans lequel s'insèrent les travaux de recherche est posé. Il s'en suit une réflexion sur la manière d'aborder le problème de mise en place d'un système de prévision en entreprise. Une synthèse de l'existant en matière de production d'information prévisionnelle est menée dans l'entreprise. En s'appuyant sur les informations récoltées, une méthodologie pour intégrer, analyser et prévoir des indicateurs économiques, est avancée. Cette méthodologie est appliquée avec succès dans le groupe STEF-TFE, leader français du transport sous température dirigée. Dans le but de planifier les ressources nécessaires pour faire face à l'activité prévue, une recherche a été menée pour modéliser les flux de marchandises en transit sur un quai de messagerie. Le résultat de la thèse est, qu'en 2010, 70 agences de transports du groupe STEF-TFE ont accès aux prévisions d'activités. Aussi, la méthodologie avancée est susceptible d'être utilisée dans divers secteurs industriels.
5

The single currency effects on a heterogeneous economic and monetary union / Les effets de la monnaie unique sur une zone économique et monétaire hétérogène

Bouchoucha, Meriem 27 November 2015 (has links)
La structure de la zone euro a évolué dans le temps et ce avant la mise en circulation de la monnaie unique. Depuis le début de la crise, l'hétérogénéité de la zone euro est plus que jamais mise en avant. En effet, les économies de la zone euro convergent et divergent en fonction de la conjoncture. La crise a placé le comportement et le rôle de l'euro au cœur dudébat économique. La déconnexion entre l'évolution de son taux de change et celle de ses déterminants ainsi que son impact sur les exportations sont démontrés dans la thèse. Nos résultats suggèrent que même si le taux de change reste un déterminant important des exportations, le rôle de la compétitivité structurelle est de plus en plus important. / The Eurozone pattern has evolved over time and that before the experience of the unique money. Since the beginning of the crisis, the heterogenity of the Eurozone is more than ever highlighted. Actually, the Eurozone economies converge and diverge according to the conjuncture. The crisis placed the euro behavior and role at the core of the economic debate.The disconnection between the evolution of its exchange rate and those of its determinants is showed in the thesis as well as its impact on exports. Our findings suggest that even the exchange rate is an important determinant of exports, the role of structural competitiveness is increasingly important.
6

Conception d'une mesure automatisée de détection des changements alimentaires chez le porc

Germain, Simon January 2015 (has links)
Le mandat consiste à développer un outil afin de détecter les désordres alimentaires chez le porc, dans le but de prévenir des problèmes de croissance ou de maladie potentiels. L'outil proposé analyse les données récoltées sur 5 jours consécutifs (période mémoire) pour prédire la consommation de la journée suivante. Il utilise une régression polynomiale généralisée avec contraintes et lissage. L'outil calcule ensuite la différence entre la prédiction et les observations.
7

MODÉLISATION SPATIO-TEMPORELLE D'UNE VARIABLE QUANTITATIVE À PARTIR DE DONNÉES MULTI-SOURCES APPLICATION À LA TEMPÉRATURE DE SURFACE DES OCÉANS

Tandeo, Pierre 15 October 2010 (has links) (PDF)
Ce travail de thèse porte sur une variable océanographique importante dans le suivi du climat : la température de surface des océans. Au niveau global, les observations de cette température sont fournies principalement par des radiomètres embarqués sur des satellites. Afin de traiter ce flux important de données, un traitement statistique s'impose dans le but de synthétiser l'information en des cartes globales et quotidiennes de notre variable d'intérêt. Pour ce faire, nous proposons un modèle linéaire de type espace-d'état avec des erreurs Gaussiennes. Nous commençons par présenter ce modèle sur des données issues de séries temporelles ayant un échantillonnage irrégulier. Suit un travail d'inférence avec la mise en place d'un schéma d'estimation des paramètres, basé sur la combinaison d'une méthode des moments et du maximum de vraisemblance au travers de l'algorithme EM et des probabilités de filtrage et lissage de Kalman. Nous appliquons enfin cette méthodologie pour estimer les variances d'erreurs et le paramètre de corrélation temporelle à tout l'océan Atlantique. Nous ajoutons ensuite la composante spatiale et proposons une structure d'ordre deux, séparable, basée sur le produit d'une covariance temporelle et d'une covariance spatiale ani- sotrope. Les paramètres de cette dernière sont estimés sur l'océan Atlantique à partir de techniques géostatistiques usuelles et forment un atlas pertinent pour les océanographes. Fi- nalement, nous montrons que l'apport de l'information spatiale augmente le pouvoir prédictif du modèle.
8

Évolution décennale du zooplancton de la Mer Ligure en relation avec les fluctuations environnementales. De l'imagerie à la modélisation basée en taille.

Vandromme, Pieter 26 November 2010 (has links) (PDF)
L'imagerie a récemment émergée comme outil de mesure de la dynamique du zooplancton en donnant des informations à la fois taxonomiques et de structure en taille de la communauté — nécessaires à la bonne compréhension de la dynamique du zooplancton au sein de l'écosystème pélagique. Ce travail est cependant davantage centré sur l'étude de la structure en taille du zooplancton dont différents aspects seront examinés au cours de trois chapitres: méthodes, analyse et description écologique d'une série temporelle de 11 ans, modélisation. Le chapitre méthodologique évalue la validité de l'imagerie en examinant l'effet de nouveaux biais, directement issus de l'imagerie, sur ledit spectre de taille (objets en contact au cours de l'acquisition d'image, efficacité de la classification automatique, modèle utilisé pour le calcul des biovolumes et biomasses). Il s'agit d'une discussion sur ce que le scientifique veut mesurer et sur ce qu'il analyse finalement compte tenu des contraintes méthodologiques. Le second chapitre est consacré à l'évolution temporelle (1995-2005) de l'écosystème pélagique de la mer Ligure — plus spécifiquement de la station d'observation côtière de la rade de Villefranche-sur-Mer. Par l'étude combinée des données disponibles (taxonomie, structure en taille, climat, météorologie locale, hydrologie et biologie), les facteurs physiques, chimiques et biologiques déterminant pour l'écosystème sont extraits. Il s'agit principalement du climat hivernal, précipitations et températures, ainsi que de l'irradiation solaire reçu au printemps et en été. Les interactions entre ces facteurs déterminent différents états de la communauté zooplanctonique. Enfin, le dernier chapitre propose un modèle du zooplancton basé sur sa structuration en taille. Puisque les modèles classiques, en boîte, représentent difficilement la dynamique du zooplancton, l'approche par la taille fut proposée comme alternative. Le modèle présenté est exploratoire, incluant la croissance du zooplancton selon une modélisation de type “budget énergétique dynamique” et la prédation selon des rapports de taille proies/prédateurs. Le but étant de comprendre ce qui détermine la structure en taille du zooplancton dans l'environnement. Les simulations effectuées sont ainsi comparées à la dynamique observée dans les phases majeures identifiées au chapitre précédent. C'est un premier pas vers l'intégration de ce type de modèles au sein de modèles plus généraux en vue d'améliorer la qualité de représentation du zooplancton. Le présent travail enrichit la connaissance du concept plus vaste de l'observation et de l'analyse théorique de la structuration en taille du zooplancton, mais il enrichit aussi la compréhension des liens entre le zooplancton et son environnement.
9

Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques / Outlier detection for time series data : application to tyre data

Benkabou, Seif-Eddine 21 March 2018 (has links)
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse / Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
10

Dynamique non linéaire des systèmes volcaniques à partir des données géodésiques / Nonlinear dynamics of volcanic systems from geodetic data

Walwer, Damian 23 February 2018 (has links)
Nous étudions dans un premier temps l'intérêt de l'utilisation de la "multichannel singular spectrum analysis" (M-SSA) sur des séries temporelles de positionnements GPS. Cette méthode permet de simultanément analyser un ensemble de séries temporelles et d'en extraire des modes de variabilités communs sans utiliser d'information a priori sur les structures spatiales et temporelles des champs géophysiques. Ces modes correspondent à des tendances non linéaires, des oscillations ou du bruit. Nous l'appliquons à des données enregistrées sur le volcan Akutan en Alaska. Nous y extrayons deux types de signaux. L'un correspondant à des déformations dites saisonnières, l'autre représentant deux cycles d'inflations et de déflations successifs du volcan Akutan. Les inflations sont rapides et courtes et suivies de déflations plus lentes et plus longues. Dans une seconde partie nous tirons parti de la M-SSA pour analyser des séries temporelles enregistrées sur plusieurs volcans. Les volcans Okmok et Shishaldin en Alaska et le Piton de la Fournaise à la Réunion possèdent une partie de leurs histoires de déformations qui est similaire à celle d'Akutan. Le caractère oscillatoire de ces cycles de déformations est comparé au régime oscillatoire d'un simple oscillateur non linéaire. Les données pétrologiques, géochimiques et géophysiques disponibles pour Okmok et le Piton de la Fournaise combinées aux contraintes sur la dynamique apportées par l'oscillateur non linéaire permet de proposer un modèle physique. Deux réservoirs superficiels sont connectés par un conduit cylindrique dans lequel le magma possède une viscosité qui dépend de la température. Un tel système se comporte de manière similaire à l'oscillateur non linéaire étudié précédemment. Lorsque que le gradient de température vertical présent dans le fluide est suffisamment important et que le flux de magma entrant dans le système de réservoirs est compris entre deux valeurs déterminées analytiquement un régime oscillatoire se met en place. / We study the use of the "multichannel singular spectrum analysis" on GPS time series. This method allows to simultaneously analyze a set of time series in order to extract from it common modes of variability without using any a priori on the temporal or the spatial structure of geophysical fields. The extracted modes correspond either to nonlinear trends, oscillations or noise. The method is applied on a set of GPS time series recorded at Akutan, a volcano located in Aleutian arc in Alaska. Two types of signals are extracted from it. The first one corresponds to seasonal deformations and the other represents two successive cycles of inflation and subsidence of Akutan volcano. The inflations are fast and short and are followed by deflations that are slower and longer. In the second part we take benefit of the M-SSA to analyze GPS time series recorded at several volcanoes. Okmok and Shishaldin in Alaska and Piton de la Fournaise in La Réunion possess a part of their deformation history that is similar to Akutan volcano. The cyclic nature of the observed deformations leads us to make an analogy between the oscillatory regime of a simple nonlinear oscillator and the deformation cycles of these volcanoes. Geochemical, petrological and geophysical data available for Okmok and Piton de la Fournaise combined with the constraint on the qualitative dynamics bring by the nonlinear oscillator allow to propose a physical model. Two shallow reservoirs are connected by a cylindrical conduit in which the magma have a viscosity that depends on the temperature. Such system behaves like the nonlinear oscillator mentioned above. When the temperature gradient inside theconduit is large enough and the flux of magma entering the shallow system is bounded by values that are determined analytically anonlinear oscillatory regime arises.

Page generated in 0.0833 seconds