• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Détection de ruptures et identification des causes ou des symptômes dans le fonctionnement des turboréacteurs durant les vols et les essais / Change-point detection and identification of the causes in aircraft enging during flights and test benches

Faure, Cynthia 21 September 2018 (has links)
L'analyse de séries temporelles multivariées, créées par des capteurs présents sur le moteur d'avion durant un vol ou un essai, représente un nouveau challenge pour les experts métier en aéronautique. Chaque série temporelle peut être décomposée de manière univariée en une succession de phases transitoires, très connues par les experts, et de phases stabilisées qui sont moins explorées bien qu'elles apportent beaucoup d'informations sur le fonctionnement d'un moteur. Notre projet a pour but de convertir ces séries temporelles en une succession de labels, désignant des phases transitoires et stabilisées dans un contexte bivarié. Cette transformation des données donne lieu à plusieurs perspectives : repérer dans un contexte univarié ou bivarié les patterns similaires durant un vol, trouver des tronçons de courbes similaires à une courbe donnée, identifier les phases atypiques, détecter ses séquences de labels fréquents et rares durant un vol, trouver le vol le plus représentatif et déterminer les vols «volages». Ce manuscrit propose une méthodologie pour automatiquement identifier les phases transitoires et stabilisées, classer les phases transitoires, labelliser des séries temporelles et les analyser. Tous les algorithmes sont appliqués à des données de vols et les résultats sont validés par les experts. / Analysing multivariate time series created by sensors during a flight or a bench test represents a new challenge for aircraft engineers. Each time series can be decomposed univariately into a series of stabilised phases, well known by the expert, and transient phases that are merely explored but very informative when the engine is running. Our project aims at converting these time series into a succession of labels, designing transient and stabilised phases in a bivariate context. This transformation of the data will allow several perspectives: tracking similar behaviours or bivariate patterns seen during a flight, finding similar curves from a given curve, identifying the atypical curves, detecting frequent or rare sequences of labels during a flight, discovering hidden multivariate structures, modelling a representative flight, and spotting unusual flights. This manuscript proposes : methodology to automatically identify transient and stabilized phases, cluster all engine transient phases, label multivariate time series and analyse them. All algorithms are applied on real flight measurements with a validation of the results from expert knowledge.
92

Contributions to SAR Image Time Series Analysis / Contributions à l'analyse de séries temporelles d'images SAR

Mian, Ammar 26 September 2019 (has links)
La télédétection par Radar à Synthèse d’Ouverture (RSO) offre une opportunité unique d’enregistrer, d’analyser et de prédire l’évolution de la surface de la Terre. La dernière décennie a permis l’avènement de nombreuses missions spatiales équipées de capteurs RSO (Sentinel-1, UAVSAR, TerraSAR X, etc.), ce qui a engendré une rapide amélioration des capacités d’acquisition d’images de la surface de la Terre. Le nombre croissant d’observations permet maintenant de construire des bases de données caractérisant l’évolution temporelle d’images, augmentant considérablement l’intérêt de l’analyse de séries temporelles pour caractériser des changements qui ont lieu à une échelle globale. Cependant, le développement de nouveaux algorithmes pour traiter ces données très volumineuses est un défi qui reste à relever. Dans ce contexte, l’objectif de cette thèse consiste ainsi à proposer et à développer des méthodologies relatives à la détection de changements dans les séries d’images ROS à très haute résolution spatiale.Le traitement de ces séries pose deux problèmes notables. En premier lieu, les méthodes d’analyse statistique performantes se basent souvent sur des données multivariées caractérisant, dans le cas des images RSO, une diversité polarimétrique, interférométrique, par exemple. Lorsque cette diversité n’est pas disponible et que les images RSO sont monocanal, de nouvelles méthodologies basées sur la décomposition en ondelettes ont été développées. Celles-ci permettent d’ajouter une diversité supplémentaire spectrale et angulaire représentant le comportement physique de rétrodiffusion des diffuseurs présents la scène de l’image. Dans un second temps, l’amélioration de la résolution spatiale sur les dernières générations de capteurs engendre une augmentation de l’hétérogénéité des données obtenues. Dans ce cas, l’hypothèse gaussienne, traditionnellement considérée pour développer les méthodologies standards de détection de changements, n’est plus valide. En conséquence, des méthodologies d’estimation robuste basée sur la famille des distributions elliptiques, mieux adaptée aux données, ont été développées.L’association de ces deux aspects a montré des résultats prometteurs pour la détection de changements.Le traitement de ces séries pose deux problèmes notables. En premier lieu, les méthodes d’analyse statistique performantes se basent souvent sur des données multivariées caractérisant, dans le cas des images RSO, une diversité polarimétrique ou interférométrique, par exemple. Lorsque cette diversité n’est pas disponible et que les images RSO sont monocanal, de nouvelles méthodologies basées sur la décomposition en ondelettes ont été développées. Celles-ci permettent d’ajouter une diversité spectrale et angulaire supplémentaire représentant le comportement physique de rétrodiffusion des diffuseurs présents la scène de l’image. Dans un second temps, l’amélioration de la résolution spatiale sur les dernières générations de capteurs engendre une augmentation de l’hétérogénéité des données obtenues. Dans ce cas, l’hypothèse gaussienne, traditionnellement considérée pour développer les méthodologies standards de détection de changements, n’est plus valide. En conséquence, des méthodologies d’estimation robuste basée sur la famille des distributions elliptiques, mieux adaptée aux données, ont été développées.L’association de ces deux aspects a montré des résultats prometteurs pour la détection de changements. / Remote sensing data from Synthetic Aperture Radar (SAR) sensors offer a unique opportunity to record, to analyze, and to predict the evolution of the Earth. In the last decade, numerous satellite remote sensing missions have been launched (Sentinel-1, UAVSAR, TerraSAR X, etc.). This resulted in a dramatic improvement in the Earth image acquisition capability and accessibility. The growing number of observation systems allows now to build high temporal/spatial-resolution Earth surface images data-sets. This new scenario significantly raises the interest in time-series processing to monitor changes occurring over large areas. However, developing new algorithms to process such a huge volume of data represents a current challenge. In this context, the present thesis aims at developing methodologies for change detection in high-resolution SAR image time series.These series raise two notable challenges that have to be overcome:On the one hand, standard statistical methods rely on multivariate data to infer a result which is often superior to a monovariate approach. Such multivariate data is however not always available when it concerns SAR images. To tackle this issue, new methodologies based on wavelet decomposition theory have been developed to fetch information based on the physical behavior of the scatterers present in the scene.On the other hand, the improvement in resolution obtained from the latest generation of sensors comes with an increased heterogeneity of the data obtained. For this setup, the standard Gaussian assumption used to develop classic change detection methodologies is no longer valid. As a consequence, new robust methodologies have been developed considering the family of elliptical distributions which have been shown to better fit the observed data.The association of both aspects has shown promising results in change detection applications.
93

Campylobactériose humaine et variations climatiques au Québec : a nalyse de séries temporelles selon les modèles SARIMA et SARIMAX

Lawson, Christiane Carolle 12 1900 (has links)
No description available.
94

Transmission des chocs spéculatifs et effets asymétriques / Speculative shock transmission and asymmetric effecs

Lecumberry, Julien 08 September 2014 (has links)
Fin 2008, la faillite de Lehmann Brother fait basculer les économies développées dans une crise économique qui se propagea brutalement à l'ensemble du monde. Connu sous le nom de Grande Récession, cet épisode a depuis contribué à raviver les inquiétudes relatives aux déséquilibres sur les marchés financiers. S'inscrivant dans ce contexte, cette thèse tente d'apporter un éclairage nouveau aux effets macroéconomiques de déséquilibres sur un marché particulier : le marché des actions. Après avoir répondu à l'étape préliminaire consistant à définir la composante spéculative, nous explorons ses canaux de transmission et tentons de mettre en lumière la présence d'effets asymétriques. De façon générale, deux questions fondamentales sont ainsi posées. Premièrement, nous cherchons à déterminer si la présence de déséquilibres sur le marché des actions est susceptible de déstabiliser l'activité économique. Deuxièmement, nous testons l'apport informationnel de la composante spéculative pour la prévision des conditions économiques futures. Nos travaux empiriques attestent finalement que les mouvements spéculatifs impactent significativement l'activité économique et montrent que ces répercussions sont en moyenne néfastes pour la sphère réelle. Les effets bénéfiques et négatifs ne se compensent pas. Ce dernier résultat est en partie confirmé par l'analyse du pouvoir prédictif de la composante spéculative. / Fall 2008, the bankruptcy of Lehman Brother led a part of world to a severe economic crisis. Also known as "Great Recession", this episode contributed to ravive apprehension about financial imbalances. In this context, we attempt to analyze the macroeconomic effects of the non-fundamental component of stock price. Overall, the thesis focuses on two questions. First, we investigate the macroeconomic effects of this component and pay a particular attention to asymmetry. Second, we examine whether share price misalignments contain leading information about gross domestic product (GDP). In order to deal with these issues, we first have to define the non-fundamental component of stock prices. Using recent econometric methodologies, we explicitly show that the speculative component has significant effects on real economy. Furthermore, the impact of a negative shock is larger that of a positive shock. Volatility of stock prices is found to be an explanation for this asymmetry. Our results also suggest that the speculative component is useful for predicting GDP.
95

La déformation de la loi d'Okun au cours du cycle économique / The asymmetry of Okun's law along business cycle

Stephan, Gaëtan 01 December 2014 (has links)
Cette thèse met en évidence l'aspect asymétrique de l'élasticité du chômage par rapport à la production aux Etats-Unis et en Europe. Une première partie de ce travail empirique revient sur une estimation de la valeur ``authentique'' du coefficient d'Okun corrigé du biais de publication. Nous employons une méta-analyse et nous montrons qu'un aspect important de déformation du coefficient réside dans le choix de la variable endogène. Dans le second chapitre, nous montrons que loi d'Okun implique dans ses fondements un comportement procyclique de la productivité générée par la pratique de la rétention de main d’œuvre. L'économie américaine présente une déformation significative du coefficient d’Okun au cours des récessions et reprises depuis le milieu des années 80, quand la productivité a perdu son caractère procyclique. En Allemagne et en France, à l’inverse, le coefficient d'Okun se déforme peu au cours du cycle. Cette spécificité européenne pourrait venir de la nature des fluctuations macroéconomiques. Ainsi, l'économie allemande enregistre des chocs macroéconomiques avec un fort caractère transitoire et persistant. Néanmoins, le reste des pays européens présentent des chocs de nature permanente. Dans le dernier chapitre, nous montrons que le PIB réel et le chômage peuvent partager une relation de cointégration asymétrique qui semble être associée à une courbe de Phillips asymétrique. / This dissertation aims at study asymmetry of elasticity of unemployment to output in United States and Europe. In the first chapter, we employ a meta-analysis to identify the ``authentic'' value of Okun's law coefficient beyond publication bias. We show that measure of Okun's coefficient depends about the choice of endogenous variable. In the second chapter, it appears that Okun's law implies a labor productivity procyclical as firm practices labor hoarding. According our estimates, Okun's law presents significative evidence of asymmetry during recessions and recoveries especially since the mid-1980s when positive correlation between real GDP and productivity has disappeared. Conversely, in France and Germany, we observe a more stable Okun's coefficient along business cycle. The nature of macroeconomic movements in Europe could potentially explain these findings. Germany supports transitory and persistent movements in real GDP and unemployment. Nevertheless, macroeconomic movements in other European countries are driven by permanents shocks. In last chapter, we investigate asymmetric cointregration in a sample of European countries (France, Germany and United Kingdom), we show that asymmetric cointegration between real GDP and unemployment seems to be linked to an asymmetric Phillip's curve.
96

Dynamiques neuro-gliales locales et réseaux complexes pour l'étude de la relation entre structure et fonction cérébrales. / Local neuro-glial dynamics and complex networks for the study of the relationship between brain structure and brain function

Garnier, Aurélie 17 December 2015 (has links)
L'un des enjeux majeurs actuellement en neurosciences est l'élaboration de modèles computationnels capables de reproduire les données obtenues expérimentalement par des méthodes d'imagerie et permettant l'étude de la relation structure-fonction dans le cerveau. Les travaux de modélisation dans cette thèse se situent à deux échelles et l'analyse des modèles a nécessité le développement d'outils théoriques et numériques dédiés. À l'échelle locale, nous avons proposé un nouveau modèle d'équations différentielles ordinaires générant des activités neuronales, caractérisé et classifié l'ensemble des comportements générés, comparé les sorties du modèle avec des données expérimentales et identifié les structures dynamiques sous-tendant la génération de comportements pathologiques. Ce modèle a ensuite été couplé bilatéralement à un nouveau compartiment modélisant les dynamiques de neuromédiateurs et leurs rétroactions sur l'activité neuronale. La caractérisation théorique de l'impact de ces rétroactions sur l'excitabilité a été obtenue en formalisant l'étude des variations d'une valeur de bifurcation en un problème d'optimisation sous contrainte. Nous avons enfin proposé un modèle de réseau, pour lequel la dynamique des noeuds est fondée sur le modèle local, incorporant deux couplages: neuronal et astrocytaire. Nous avons observé la propagation d'informations différentiellement selon ces deux couplages et leurs influences cumulées, révélé les différences qualitatives des profils d'activité neuronale et gliale de chaque noeud, et interprété les transitions entre comportements au cours du temps grâce aux structures dynamiques identifiées dans les modèles locaux. / A current issue in neuroscience is to elaborate computational models that are able to reproduce experimental data recorded with various imaging methods, and allowing us to study the relationship between structure and function in the human brain. The modeling objectives of this work are two scales and the model analysis need the development of specific theoretical and numerical tools. At the local scale, we propose a new ordinary differential equations model generating neuronal activities. We characterize and classify the behaviors the model can generate, we compare the model outputs to experimental data and we identify the dynamical structures of the neural compartment underlying the generation of pathological patterns. We then extend this approach to a new neuro-glial mass model: a bilateral coupling between the neural compartment and a new one modeling the impact of astrocytes on neurotransmitter concentrations and the feedback of these concentrations on neural activity is developed. We obtain a theoretical characterization of these feedbacks impact on neuronal excitability by formalizing the variation of a bifurcation value as a problem of optimization under constraint. Finally, we propose a network model, which node dynamics are based on the local neuro-glial mass model, embedding a neuronal coupling and a glial one. We numerically observe the differential propagations of information according to each of these coupling types and their cumulated impact, we highlight qualitatively distinct patterns of neural and glial activities of each node, and link the transitions between behaviors with the dynamical structures identified in the local models.
97

Applications of artificial intelligence in e-commerce and finance / Applications de l'intelligence artifcielle dans le commerce électronique et la finance

Jiao, Yang 07 September 2018 (has links)
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs / Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
98

Iterative and Expressive Querying for Big Data Series / Requêtes itératives et expressives pour l’analyse de grandes séries de données

Gogolou, Anna 15 November 2019 (has links)
Les séries temporelles deviennent omniprésentes dans la vie moderne et leur analyse de plus en plus difficile compte tenu de leur taille. L’analyse des grandes séries de données implique des tâches telles que l’appariement de modèles (motifs), la détection d’anomalies, l’identification de modèles fréquents, et la classification ou le regroupement (clustering). Ces tâches reposent sur la notion de similarité. La communauté scientifique a proposé de plusieurs techniques, y compris de nombreuses mesures de similarité pour calculer la distance entre deux séries temporelles, ainsi que des techniques et des algorithmes d’indexation correspondants, afin de relever les défis de l’évolutivité lors de la recherche de similarité.Les analystes, afin de s’acquitter efficacement de leurs tâches, ont besoin de systèmes d’analyse visuelle interactifs, extrêmement rapides, et puissants. Lors de la création de tels systèmes, nous avons identifié deux principaux défis: (1) la perception de similarité et (2) la recherche progressive de similarité. Le premier traite de la façon dont les gens perçoivent des modèles similaires et du rôle de la visualisation dans la perception de similarité. Le dernier point concerne la rapidité avec laquelle nous pouvons redonner aux utilisateurs des mises à jour des résultats progressifs, lorsque les temps de réponse du système sont longs et non interactifs. Le but de cette thèse est de répondre et de donner des solutions aux défis ci-dessus.Dans la première partie, nous avons étudié si différentes représentations visuelles (Graphiques en courbes, Graphiques d’horizon et Champs de couleur) modifiaient la perception de similarité des séries temporelles. Nous avons essayé de comprendre si les résultats de recherche automatique de similarité sont perçus de manière similaire, quelle que soit la technique de visualisation; et si ce que les gens perçoivent comme similaire avec chaque visualisation s’aligne avec différentes mesures de similarité. Nos résultats indiquent que les Graphes d’horizon s’alignent sur des mesures qui permettent des variations de décalage temporel ou d’échelle (i.e., ils promeuvent la déformation temporelle dynamique). En revanche, ils ne s’alignent pas sur des mesures autorisant des variations d’amplitude et de décalage vertical (ils ne promeuvent pas des mesures basées sur la z-normalisation). L’inverse semble être le cas pour les Graphiques en courbes et les Champs de couleur. Dans l’ensemble, nos travaux indiquent que le choix de la visualisation affecte les schémas temporels que l’homme considère comme similaires. Donc, la notion de similarité dans les séries temporelles est dépendante de la technique de visualisation.Dans la deuxième partie, nous nous sommes concentrés sur la recherche progressive de similarité dans de grandes séries de données. Nous avons étudié la rapidité avec laquelle les premières réponses approximatives et puis des mises à jour des résultats progressifs sont détectées lors de l’exécuton des requêtes progressives. Nos résultats indiquent qu’il existe un écart entre le moment où la réponse finale s’est trouvée et le moment où l’algorithme de recherche se termine, ce qui entraîne des temps d’attente gonflés sans amélioration. Des estimations probabilistes pourraient aider les utilisateurs à décider quand arrêter le processus de recherche, i.e., décider quand l’amélioration de la réponse finale est improbable. Nous avons développé et évalué expérimentalement une nouvelle méthode probabiliste qui calcule les garanties de qualité des résultats progressifs de k-plus proches voisins (k-NN). Notre approche apprend d’un ensemble de requêtes et construit des modèles de prédiction basés sur deux observations: (i) des requêtes similaires ont des réponses similaires; et (ii) des réponses progressives renvoyées par les indices de séries de données sont de bons prédicteurs de la réponse finale. Nous fournissons des estimations initiales et progressives de la réponse finale. / Time series are becoming ubiquitous in modern life, and given their sizes, their analysis is becoming increasingly challenging. Time series analysis involves tasks such as pattern matching, anomaly detection, frequent pattern identification, and time series clustering or classification. These tasks rely on the notion of time series similarity. The data-mining community has proposed several techniques, including many similarity measures (or distance measure algorithms), for calculating the distance between two time series, as well as corresponding indexing techniques and algorithms, in order to address the scalability challenges during similarity search.To effectively support their tasks, analysts need interactive visual analytics systems that combine extremely fast computation, expressive querying interfaces, and powerful visualization tools. We identified two main challenges when considering the creation of such systems: (1) similarity perception and (2) progressive similarity search. The former deals with how people perceive similar patterns and what the role of visualization is in time series similarity perception. The latter is about how fast we can give back to users updates of progressive similarity search results and how good they are, when system response times are long and do not support real-time analytics in large data series collections. The goal of this thesis, that lies at the intersection of Databases and Human-Computer Interaction, is to answer and give solutions to the above challenges.In the first part of the thesis, we studied whether different visual representations (Line Charts, Horizon Graphs, and Color Fields) alter time series similarity perception. We tried to understand if automatic similarity search results are perceived in a similar manner, irrespective of the visualization technique; and if what people perceive as similar with each visualization aligns with different automatic similarity measures and their similarity constraints. Our findings indicate that Horizon Graphs promote as invariant local variations in temporal position or speed, and as a result they align with measures that allow variations in temporal shifting or scaling (i.e., dynamic time warping). On the other hand, Horizon Graphs do not align with measures that allow amplitude and y-offset variations (i.e., measures based on z-normalization), because they exaggerate these differences, while the inverse seems to be the case for Line Charts and Color Fields. Overall, our work indicates that the choice of visualization affects what temporal patterns humans consider as similar, i.e., the notion of similarity in time series is visualization-dependent.In the second part of the thesis, we focused on progressive similarity search in large data series collections. We investigated how fast first approximate and then updates of progressive answers are detected, while we execute similarity search queries. Our findings indicate that there is a gap between the time the final answer is found and the time when the search algorithm terminates, resulting in inflated waiting times without any improvement. Computing probabilistic estimates of the final answer could help users decide when to stop the search process. We developed and experimentally evaluated using benchmarks, a new probabilistic learning-based method that computes quality guarantees (error bounds) for progressive k-Nearest Neighbour (k-NN) similarity search results. Our approach learns from a set of queries and builds prediction models based on two observations: (i) similar queries have similar answers; and (ii) progressive best-so-far (bsf) answers returned by the state-of-the-art data series indexes are good predictors of the final k-NN answer. We provide both initial and incrementally improved estimates of the final answer.
99

Cost-Sensitive Early classification of Time Series / Classification précoce de séries temporelles lorsque reporter la décision est coûteux

Dachraoui, Asma 31 January 2017 (has links)
Dans de nombreux domaines dans lesquels les mesures ou les données sont disponibles séquentiellement, il est important de savoir décider le plus tôt possible, même si c’est à partir d’informations encore incomplètes. C’est le cas par exemple en milieu hospitalier où l’apprentissage de règles de décision peut se faire à partir de cas complètement documentés, mais où, devant un nouveau patient, il peut être crucial de prendre une dé- cision très rapidement. Dans ce type de contextes, un compromis doit être optimisé entre la possibilité d’arriver à une meilleure décision en attendant des mesures supplé- mentaires, et le coût croissant associé à chaque nouvelle mesure. Nous considérons dans cette thèse un nouveau cadre général de classification précoce de séries temporelles où le coût d’attente avant de prendre une décision est explicitement pris en compte lors de l’optimisation du compromis entre la qualité et la précocité de prédictions. Nous proposons donc un critère formel qui exprime ce compromis, ainsi que deux approches différentes pour le résoudre. Ces approches sont intéressantes et apportent deux propriétés désirables pour décider en ligne : (i) elles estiment en ligne l’instant optimal dans le futur où une minimisation du critère peut être prévue. Elles vont donc au-delà des approches classiques qui décident d’une façon myope, à chaque instant, d’émettre une prédiction ou d’attendre plus d’information, (ii) ces approches sont adaptatives car elles prennent en compte les propriétés de la série temporelle en entrée pour estimer l’instant optimal pour la classifier. Des expériences extensives sur des données contrôlées et sur des données réelles montrent l’intérêt de ces approches pour fournir des prédictions précoces, fiables, adaptatives et non myopes, ce qui est indispensable dans de nombreuses applications. / Early classification of time series is becoming increasingly a valuable task for assisting in decision making process in many application domains. In this setting, information can be gained by waiting for more evidences to arrive, thus helping to make better decisions that incur lower misclassification costs, but, meanwhile, the cost associated with delaying the decision generally increases, rendering the decision less attractive. Making early predictions provided that are accurate requires then to solve an optimization problem combining two types of competing costs. This thesis introduces a new general framework for time series early classification problem. Unlike classical approaches that implicitly assume that misclassification errors are cost equally and the cost of delaying the decision is constant over time, we cast the the problem as a costsensitive online decision making problem when delaying the decision is costly. We then propose a new formal criterion, along with two approaches that estimate the optimal decision time for a new incoming yet incomplete time series. In particular, they capture the evolutions of typical complete time series in the training set thanks to a segmentation technique that forms meaningful groups, and leverage these complete information to estimate the costs for all future time steps where data points still missing. These approaches are interesting in two ways: (i) they estimate, online, the earliest time in the future where a minimization of the criterion can be expected. They thus go beyond the classical approaches that myopically decide at each time step whether to make a decision or to postpone the call one more time step, and (ii) they are adaptive, in that the properties of the incoming time series are taken into account to decide when is the optimal time to output a prediction. Results of extensive experiments on synthetic and real data sets show that both approaches successfully meet the behaviors expected from early classification systems.
100

Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation / Processus linéaires alpha-stables anticipatifs pour l'analyse des séries temporelles : dynamique conditionnelle et estimation

Fries, Sébastien 04 December 2018 (has links)
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes. / In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification.

Page generated in 0.0676 seconds