• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 231
  • 104
  • 23
  • 2
  • 1
  • Tagged with
  • 353
  • 138
  • 118
  • 95
  • 76
  • 70
  • 69
  • 63
  • 52
  • 47
  • 37
  • 34
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes non linéaires pour séries temporelles : prédiction par Double Quantification Vectorielle et sélection du délai en hautes dimensions

Simon, Geoffroy 15 June 2007 (has links)
De la finance à la climatologie, en passant par les processus industriels, nombreux sont les domaines où on rencontre des séries temporelles. L'analyse, la modélisation et la prédiction de séries temporelles constituent aujourd'hui encore des défis, sur le plan scientifique tout comme dans ces nombreux domaines d'applications. En alternative aux modèles linéaires, les modèles non linéaires sont utilisés ici pour l'analyse, la modélisation et la prédiction de séries temporelles. Les modèles non linéaires sont potentiellement plus performants que les modèles linéaires, mais les questions de sélection de structure de modèle, de prédiction à long terme ou de construction des régresseurs sont plus complexes à résoudre dans le cadre non linéaire. Les paramètres de structure de certains modèles et des méthodes de sélection de structure sont d'abord décrits. La sélection de structure par FastBootrap est complétée par un test statistique qui constitue un argument théorique en faveur de l'approximation par régression linéaire du terme d'optimisme du Bootstrap. La Double Quantification Vectorielle (DQV), modèle de prédiction à long terme de séries temporelles, est introduite. La détermination des paramètres est détaillée, pour des séries scalaires et pour des séries multidimensionnelles auxquelles la DQV peut aisément être appliquée. La stabilité de la DQV en prédiction à long terme est établie théoriquement. Les capacités de la méthode sont illustrées sur divers exemples, en prédiction à court terme, à long terme, en scalaire et en multidimensionnel. La construction du régresseur est abordée lors de l'étude du caractère significatif de l'application des méthodes de clustering à des régresseurs. Une méthodologie de comparaison entre reconstructions de l'espace de phase de séries temporelles est décrite et appliquée sur plusieurs séries. Les résultats obtenus illustrent l'importance du délai dans la construction de régresseurs et permettent de prendre position dans un débat scientifique en cours : l'application des méthodes de clustering à des régresseurs a un sens. La construction du régresseur avec sélection d'un délai unique est alors généralisée au cas de plusieurs délais. Des généralisations des critères d'autocorrélation et d'information mutuelle à plus de deux variables sont proposées. Le critère géométrique de Distance à la Diagonale est également introduit. Tous ces critères de sélection de plusieurs délais sont comparés expérimentalement.
2

Planification et ordonnancement probabilistes sous contraintes temporelles

Baki, Bassam 30 November 2006 (has links) (PDF)
Cette thèse est consacrée au problème de la planification et de l'ordonnancement des tâches sous contraintes temporelles et incertitude. Les contraintes temporelles que nous traitons sont de deux types : qualitatives et quantitatives. L'incertitude sur la durée des tâches se traduit par une distribution de probabilités sur un ensemble fini.<br />Les tâches et les contraintes sont représentées à l'aide d'un graphe ET/OU et les durées des tâches sont pondérées par des probabilités d'exécution. Celles-ci expriment une incertitude sur la connaissance exacte des durées d'exécution des tâches qui ne seront réellement connues que lors de l'exécution effective. Ainsi, une tâche s'exécute durant l'une de ses durées d'exécution possibles avec la probabilité associée à celle-ci. Étant donné ce graphe, notre objectif est de déterminer un plan de tâches qui satisfait toutes les contraintes et qui répond aux critères de choix exigés par l'utilisateur en terme de temps, de coût et de probabilité. L'application de ce plan doit garantir le monde de façon que le but soit atteint tout en satisfaisant les contraintes du domaine.<br />Nous avons appliqué notre méthode de planification à un cas pratique relativement complexe qui concerne la planification d'un ensemble d'agents travaillant ensemble dans un lieu afin d'atteindre un but donné tout en respectant les délais et les contraintes du domaine (temps, coût, probabilité, disponibilité, spécialité,...).
3

Établissement d'une procédure d'acquisition et d'assemblage de données spatiales adaptée au laboratoire mobile Atlantis. Vers une chaîne de traitements intégrés de données spatiales en santé environnementale

Toutant, Steve. January 1900 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2004. / Titre de l'écran-titre (visionné le 12 juillet 2005). Bibliogr.
4

Étude du potentiel de OLAP pour supporter l'analyse spatio-temporelle /

Caron, Pierre-Yves, January 1998 (has links)
Thèse (M.Sc.)--Université Laval, 1998. / Bibliogr.: f. [112]-118. Publié aussi en version électronique.
5

Prévisions robustes pour séries temporelles multivariées

Gagné, Christian January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Étude du potentiel de OLAP pour supporter l'analyse spatio-temporelle

Caron, Pierre-Yves 24 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
7

Indexing and analysis of very large masses of time series / Indexation et analyse de très grandes masses de séries temporelles

Yagoubi, Djamel edine 19 March 2018 (has links)
Les séries temporelles sont présentes dans de nombreux domaines d'application tels que la finance, l'agronomie, la santé, la surveillance de la Terre ou la prévision météorologique, pour n'en nommer que quelques-uns. En raison des progrès de la technologie des capteurs, de telles applications peuvent produire des millions, voir des des milliards, de séries temporelles par jour, ce qui nécessite des techniques rapides d'analyse et de synthèse.Le traitement de ces énormes volumes de données a ouvert de nouveaux défis dans l'analyse des séries temporelles. En particulier, les techniques d'indexation ont montré de faibles performances lors du traitement des grands volumes des données.Dans cette thèse, nous abordons le problème de la recherche de similarité dans des centaines de millions de séries temporelles. Pour cela, nous devons d'abord développer des opérateurs de recherche efficaces, capables d'interroger une très grande base de données distribuée de séries temporelles avec de faibles temps de réponse. L'opérateur de recherche peut être implémenté en utilisant un index avant l'exécution des requêtes.L'objectif des indices est d'améliorer la vitesse des requêtes de similitude. Dans les bases de données, l'index est une structure de données basées sur des critères de recherche comme la localisation efficace de données répondant aux exigences. Les index rendent souvent le temps de réponse de l'opération de recherche sous linéaire dans la taille de la base de données. Les systèmes relationnels ont été principalement supportés par des structures de hachage, B-tree et des structures multidimensionnelles telles que R-tree, avec des vecteurs binaires jouant un rôle de support. De telles structures fonctionnent bien pour les recherches, et de manière adéquate pour les requêtes de similarité. Nous proposons trois solutions différentes pour traiter le problème de l'indexation des séries temporelles dans des grandes bases de données. Nos algorithmes nous permettent d'obtenir d'excellentes performances par rapport aux approches traditionnelles.Nous étudions également le problème de la détection de corrélation parallèle de toutes paires sur des fenêtres glissantes de séries temporelles. Nous concevons et implémentons une stratégie de calcul incrémental des sketchs dans les fenêtres glissantes. Cette approche évite de recalculer les sketchs à partir de zéro. En outre, nous développons une approche de partitionnement qui projette des sketchs vecteurs de séries temporelles dans des sous-vecteurs et construit une structure de grille distribuée. Nous utilisons cette méthode pour détecter les séries temporelles corrélées dans un environnement distribué. / Time series arise in many application domains such as finance, agronomy, health, earth monitoring, weather forecasting, to name a few. Because of advances in sensor technology, such applications may produce millions to trillions of time series per day, requiring fast analytical and summarization techniques.The processing of these massive volumes of data has opened up new challenges in time series data mining. In particular, it is to improve indexing techniques that has shown poor performances when processing large databases.In this thesis, we focus on the problem of parallel similarity search in such massive sets of time series. For this, we first need to develop efficient search operators that can query a very large distributed database of time series with low response times. The search operator can be implemented by using an index constructed before executing the queries. The objective of indices is to improve the speed of data retrieval operations. In databases, the index is a data structure, which based on search criteria, efficiently locates data entries satisfying the requirements. Indexes often make the response time of the lookup operation sublinear in the database size.After reviewing the state of the art, we propose three novel approaches for parallel indexing and queryin large time series datasets. First, we propose DPiSAX, a novel and efficient parallel solution that includes a parallel index construction algorithm that takes advantage of distributed environments to build iSAX-based indices over vast volumes of time series efficiently. Our solution also involves a parallel query processing algorithm that, given a similarity query, exploits the available processors of the distributed system to efficiently answer the query in parallel by using the constructed parallel index.Second, we propose RadiusSketch a random projection-based approach that scales nearly linearly in parallel environments, and provides high quality answers. RadiusSketch includes a parallel index construction algorithm that takes advantage of distributed environments to efficiently build sketch-based indices over very large databases of time series, and then query the databases in parallel.Third, we propose ParCorr, an efficient parallel solution for detecting similar time series across distributed data streams. ParCorr uses the sketch principle for representing the time series. Our solution includes a parallel approach for incremental computation of the sketches in sliding windows and a partitioning approach that projects sketch vectors of time series into subvectors and builds a distributed grid structure.Our solutions have been evaluated using real and synthetics datasets and the results confirm their high efficiency compared to the state of the art.
8

Optimisation combinatoire et extraction de connaissances sur données hétérogènes et temporelles : application à l’identification de parcours patients / Combinatorial optimization and knowledge extraction on heterogeneous and temporal data : application to patients profiles discovery

Vandromme, Maxence 30 May 2017 (has links)
Les données hospitalières présentent de nombreuses spécificités qui rendent difficilement applicables les méthodes de fouille de données traditionnelles. Dans cette thèse, nous nous intéressons à l'hétérogénéité de ces données ainsi qu'à leur aspect temporel. Dans le cadre du projet ANR ClinMine et d'une convention CIFRE avec la société Alicante, nous proposons deux nouvelles méthodes d'extraction de connaissances adaptées à ces types de données. Dans la première partie, nous développons l'algorithme MOSC (Multi-Objective Sequence Classification) pour la classification supervisée sur données hétérogènes, numériques et temporelles. Cette méthode accepte, en plus des termes binaires ou symboliques, des termes numériques et des séquences d'événements temporels pour former des ensembles de règles de classification. MOSC est le premier algorithme de classification supportant simultanément ces types de données. Dans la seconde partie, nous proposons une méthode de biclustering pour données hétérogènes, un problème qui n'a à notre connaissance jamais été exploré. Cette méthode, HBC (Heterogeneous BiClustering), est étendue pour supporter les données temporelles de différents types : événements temporels et séries temporelles irrégulières. HBC est utilisée pour un cas d'étude sur un ensemble de données hospitalières, dont l'objectif est d'identifier des groupes de patients ayant des profils similaires. Les résultats obtenus sont cohérents et intéressants d'un point de vue médical ; et amènent à la définition de cas d'étude plus précis. L'intégration dans une solution logicielle est également engagée, avec une version parallèle de HBC et un outil de visualisation des résultats. / Hospital data exhibit numerous specificities that make the traditional data mining tools hard to apply. In this thesis, we focus on the heterogeneity associated with hospital data and on their temporal aspect. This work is done within the frame of the ANR ClinMine research project and a CIFRE partnership with the Alicante company. In this thesis, we propose two new knowledge discovery methods suited for hospital data, each able to perform a variety of tasks: classification, prediction, discovering patients profiles, etc.In the first part, we introduce MOSC (Multi-Objective Sequence Classification), an algorithm for supervised classification on heterogeneous, numeric and temporal data. In addition to binary and symbolic terms, this method uses numeric terms and sequences of temporal events to form sets of classification rules. MOSC is the first classification algorithm able to handle these types of data simultaneously. In the second part, we introduce HBC (Heterogeneous BiClustering), a biclustering algorithm for heterogeneous data, a problem that has never been studied so far. This algorithm is extended to support temporal data of various types: temporal events and unevenly-sampled time series. HBC is used for a case study on a set of hospital data, whose goal is to identify groups of patients sharing a similar profile. The results make sense from a medical viewpoint; they indicate that relevant, and sometimes new knowledge is extracted from the data. These results also lead to further, more precise case studies. The integration of HBC within a software is also engaged, with the implementation of a parallel version and a visualization tool for biclustering results.
9

Construction, analyse et implémentation d'un modèle de prévision. Déploiement sous forme d'un système de prévision chez un opérateur européen du transport et de la logistique.

Despagne, Wilfried 01 April 2010 (has links) (PDF)
Cette thèse montre que pour innover, le secteur privé peut faire appel à la connaissance académique. En effet, un partenariat entre un établissement universitaire et un professionnel du transport de marchandises a permis de répondre à des problématiques industrielles par l'application de mathématiques de pointe. Cette thèse porte sur la conception, l'implémentation et la mise en production d'un système de prévision d'activité pour l'optimisation de la planification des ressources. Elle propose également un modèle mathématique pour modéliser les flux de marchandises qui transitent sur un quai de messagerie. Pour comprendre la problématique posée par l'industriel, le contexte industriel dans lequel s'insèrent les travaux de recherche est posé. Il s'en suit une réflexion sur la manière d'aborder le problème de mise en place d'un système de prévision en entreprise. Une synthèse de l'existant en matière de production d'information prévisionnelle est menée dans l'entreprise. En s'appuyant sur les informations récoltées, une méthodologie pour intégrer, analyser et prévoir des indicateurs économiques, est avancée. Cette méthodologie est appliquée avec succès dans le groupe STEF-TFE, leader français du transport sous température dirigée. Dans le but de planifier les ressources nécessaires pour faire face à l'activité prévue, une recherche a été menée pour modéliser les flux de marchandises en transit sur un quai de messagerie. Le résultat de la thèse est, qu'en 2010, 70 agences de transports du groupe STEF-TFE ont accès aux prévisions d'activités. Aussi, la méthodologie avancée est susceptible d'être utilisée dans divers secteurs industriels.
10

Etude du comportement humain grâce à la simulation multi-agents et aux méthodes de fouille de données temporelles

Daviet, Stephane 13 March 2009 (has links) (PDF)
Les outils de simulation ont déjà été éprouvés pour l'étude de nombreux phénomènes, mais simuler le comportement humain reste un défi à la fois pour l'informatique et les sciences humaines. Dans ce contexte, nous avons travaillé sur la simulation des comportements individuels et des interactions sociales dans les groupes d'individus pour observer l'émergence de phénomènes sociaux. À cette fin, nous avons mener un travail inter-disciplinaire mêlant des techniques d'intelligence artificielle, de systèmes multi-agents, de sciences humaines et de fouille de données spatio-temporelles. Cette thèse présente un nouveau modèle d'agent émotionnel : l'agent EFT (Emotion, Feeling, Temperament). Basée sur une architecture BDI, notre modèle intègre le modèle émotionnel OCC et le modèle comportemental PerformanSe. Nous présentons également une implémentation concrète de notre modèle : la simulation de personnes cérébrolésés sur une chaîne de conditionnement. Nous décrivons la modélisation des interactions de notre système grâce à AgentUML. Via des méthodes de fouille de données spatio-temporel, nous extrayons les informations pertinentes à partir des données issues de la simulation.

Page generated in 0.0648 seconds