• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Contributions à l’agrégation séquentielle robuste d’experts : Travaux sur l’erreur d’approximation et la prévision en loi. Applications à la prévision pour les marchés de l’énergie. / Contributions to online robust aggregation : work on the approximation error and on probabilistic forecasting. Applications to forecasting for energy markets.

Gaillard, Pierre 06 July 2015 (has links)
Nous nous intéressons à prévoir séquentiellement une suite arbitraire d'observations. À chaque instant, des experts nous proposent des prévisions de la prochaine observation. Nous formons alors notre prévision en mélangeant celles des experts. C'est le cadre de l'agrégation séquentielle d'experts. L'objectif est d'assurer un faible regret cumulé. En d'autres mots, nous souhaitons que notre perte cumulée ne dépasse pas trop celle du meilleur expert sur le long terme. Nous cherchons des garanties très robustes~: aucune hypothèse stochastique sur la suite d'observations à prévoir n'est faite. Celle-ci est supposée arbitraire et nous souhaitons des garanties qui soient vérifiées quoi qu'il arrive. Un premier objectif de ce travail est l'amélioration de la performance des prévisions. Plusieurs possibilités sont proposées. Un exemple est la création d'algorithmes adaptatifs qui cherchent à s'adapter automatiquement à la difficulté de la suite à prévoir. Un autre repose sur la création de nouveaux experts à inclure au mélange pour apporter de la diversité dans l'ensemble d'experts. Un deuxième objectif de la thèse est d'assortir les prévisions d'une mesure d'incertitude, voire de prévoir des lois. Les applications pratiques sont nombreuses. En effet, très peu d'hypothèses sont faites sur les données. Le côté séquentiel permet entre autres de traiter de grands ensembles de données. Nous considérons dans cette thèse divers jeux de données du monde de l'énergie (consommation électrique, prix de l'électricité,...) pour montrer l'universalité de l'approche. / We are interested in online forecasting of an arbitrary sequence of observations. At each time step, some experts provide predictions of the next observation. Then, we form our prediction by combining the expert forecasts. This is the setting of online robust aggregation of experts. The goal is to ensure a small cumulative regret. In other words, we want that our cumulative loss does not exceed too much the one of the best expert. We are looking for worst-case guarantees: no stochastic assumption on the data to be predicted is made. The sequence of observations is arbitrary. A first objective of this work is to improve the prediction accuracy. We investigate several possibilities. An example is to design fully automatic procedures that can exploit simplicity of the data whenever it is present. Another example relies on working on the expert set so as to improve its diversity. A second objective of this work is to produce probabilistic predictions. We are interested in coupling the point prediction with a measure of uncertainty (i.e., interval forecasts,…). The real world applications of the above setting are multiple. Indeed, very few assumptions are made on the data. Besides, online learning that deals with data sequentially is crucial to process big data sets in real time. In this thesis, we carry out for EDF several empirical studies of energy data sets and we achieve good forecasting performance.
52

Détection d'anomalies et de ruptures dans les séries temporelles. Applications à la gestion de production de l'électricité / Detection of outliers and changepoints in time series. Applications over the management of electricity production

Allab, Nedjmeddine 21 November 2016 (has links)
Continental est l'outil de référence utilisé par EDF pour la gestion d'électricité à long terme. il permet d'élaborer la stratégie d'exploitation du parc constitué de centrales réparties sur toute l'europe. l'outil simule sur chaque zone et chaque scénario plusieurs variables telles que la demande d'électricité, la quantité générée ainsi que les coûts associés. nos travaux de thèse ont pour objectif de fournir des méthodes d'analyse de ces données de production afin de faciliter leur étude et leur synthèse. nous récoltons un ensemble de problématiques auprès des utilisateurs de continental que nous tentons de résoudre à l'aide des technique de détection d'anomalies et de ruptures dans les séries temporelles. / Continental is the main tool that edf uses for the long-term management of electricity. It elaborates the strategy exploitation of the electrical parc made up by power plants distributed all over europe. the tool simulates for each zone and each scenario several variables, such as the electricity demand, the generated quantity as well as the related costs. our works aim to provide methods to analyse the data of electricity production in order to ease their discovery and synthesis. we get a set of problmatics from the users of continental that we tent to solve through techniques of outliers and changepoints detection in time series.
53

Accès personnalisé à l'information : prise en compte de la dynamique utilisateur / Personnalized access to information : taking the user's dynamic into account

Guàrdia Sebaoun, Elie 29 September 2017 (has links)
L’enjeu majeur de cette thèse réside dans l’amélioration de l’adéquation entre l’information retournée et les attentes des utilisateurs à l’aide de profils riches et efficaces. Il s’agit donc d’exploiter au maximum les retours utilisateur (qu’ils soient donnés sous la forme de clics, de notes ou encore d’avis écrits) et le contexte. En parallèle la forte croissance des appareils nomades (smartphones, tablettes) et par conséquent de l’informatique ubiquitaire nous oblige à repenser le rôle des systèmes d’accès à l’information. C’est pourquoi nous ne nous sommes pas seulement intéressés à la performance à proprement parler mais aussi à l’accompagnement de l’utilisateur dans son accès à l’information. Durant ces travaux de thèse, nous avons choisi d’exploiter les textes écrit par les utilisateurs pour affiner leurs profils et contextualiser la recommandation. À cette fin, nous avons utilisé les avis postés sur les sites spécialisés (IMDb, RateBeer, BeerAdvocate) et les boutiques en ligne (Amazon) ainsi que les messages postés sur Twitter.Dans un second temps, nous nous sommes intéressés aux problématiques de modélisation de la dynamique des utilisateurs. En plus d’aider à l’amélioration des performances du système, elle permet d’apporter une forme d’explication quant aux items proposés. Ainsi, nous proposons d’accompagner l’utilisateur dans son accès à l’information au lieu de le contraindre à un ensemble d’items que le système juge pertinents. / The main goal of this thesis resides in using rich and efficient profiling to improve the adequation between the retrieved information and the user's expectations. We focus on exploiting as much feedback as we can (being clicks, ratings or written reviews) as well as context. In the meantime, the tremendous growth of ubiquitous computing forces us to rethink the role of information access platforms. Therefore, we took interest not solely in performances but also in accompanying users through their access to the information. Through this thesis, we focus on users dynamics modeling. Not only it improves the system performances but it also brings some kind of explicativity to the recommendation. Thus, we propose to accompany the user through his experience accessing information instead of constraining him to a given set of items the systems finds fitting.
54

Some contributions to the clustering of financial time series and applications to credit default swaps / Quelques contributions aux méthodes de partitionnement automatique des séries temporelles financières, et applications aux couvertures de défaillance

Marti, Gautier 10 November 2017 (has links)
Nous commençons cette thèse par passer en revue l'ensemble épars de la littérature sur les méthodes de partitionnement automatique des séries temporelles financières. Ensuite, tout en introduisant les jeux de données qui ont aussi bien servi lors des études empiriques que motivé les choix de modélisation, nous essayons de donner des informations intéressantes sur l'état du marché des couvertures de défaillance peu connu du grand public sinon pour son rôle lors de la crise financière mondiale de 2007-2008. Contrairement à la majorité de la littérature sur les méthodes de partitionnement automatique des séries temporelles financières, notre but n'est pas de décrire et expliquer les résultats par des explications économiques, mais de pouvoir bâtir des modèles et autres larges systèmes d'information sur ces groupes homogènes. Pour ce faire, les fondations doivent être stables. C'est pourquoi l'essentiel des travaux entrepris et décrits dans cette thèse visent à affermir le bien-fondé de l'utilisation de ces regroupements automatiques en discutant de leur consistance et stabilité aux perturbations. De nouvelles distances entre séries temporelles financières prenant mieux en compte leur nature stochastique et pouvant être mis à profit dans les méthodes de partitionnement automatique existantes sont proposées. Nous étudions empiriquement leur impact sur les résultats. Les résultats de ces études peuvent être consultés sur www.datagrapple.com. / In this thesis we first review the scattered literature about clustering financial time series. We then try to give as much colors as possible on the credit default swap market, a relatively unknown market from the general public but for its role in the contagion of bank failures during the global financial crisis of 2007-2008, while introducing the datasets that have been used in the empirical studies. Unlike the existing body of literature which mostly offers descriptive studies, we aim at building models and large information systems based on clusters which are seen as basic building blocks: These foundations must be stable. That is why the work undertaken and described in the following intends to ground further the clustering methodologies. For that purpose, we discuss their consistency and propose alternative measures of similarity that can be plugged in the clustering methodologies. We study empirically their impact on the clusters. Results of the empirical studies can be explored at www.datagrapple.com.
55

Interprétation collaborative de séries temporelles. Application à des données de réanimation médicale.

Guyet, Thomas 11 December 2007 (has links) (PDF)
Cette thèse propose une approche de la collaboration homme-machine, inspirée de la théorie de l'Enaction, dans le domaine de l'interprétation de données complexes. L'autonomie des deux partenaires vise à leur permettre de réaliser une interprétation en s'appuyant sur leurs compétences. Pour préserver leur autonomie, la communication du système avec son partenaire est réalisée au moyen d'annotations. Cette approche est appliquée à la conception d'un système multi-agents pour l'interprétation collaborative de signaux physiologiques de patients en réanimation médicale, i.e. des séries temporelles multivariées. Ce système est capable de construire une interprétation des séries temporelles par la construction (1) de modèles d'évènements et de scénarios (ensembles d'évènements reliés par des relations temporelles) et (2) d'annotations à partir de ces modèles. Les modèles qu'il construit évoluent au cours de l'interprétation pour prendre en compte les annotations du partenaire humain.
56

Contribution à l'analyse de données temporelles

Douzal-Chouakria, Ahlame 29 November 2012 (has links) (PDF)
Mes travaux de recherche portent sur l'analyse de données temporelles et s'articulent en trois parties : -la représentation de séries temporelles, -la définition de métriques et leur apprentissage, -ainsi que la proposition de nouvelles approches de classification dédiées aux séries temporelles. Le déploiement de statistiques d'autocorrélation spatiale sur des structures de contiguïté particulières, telle que temporelle, met en évidence des propriétés intéressantes. Elles permettent, par exemple, d'appréhender le comportement des séries (aléatoire, chaotique), d'évaluer le niveau de saillance d'un événement, ou de mesurer la dépendance locale ou globale entre une structure évolutive et les observations associées. Ces propriétés ont guidé nos principaux travaux. Ainsi, une première contribution concerne la représentation compacte de séries multivariées. J'ai étudié une approche de réduction de la dimension temporelle de séries multivariées, par segmentation, préservant les corrélations inférées par la série ; l'identification de segments saillants étant guidée par la variance locale. Dans une deuxième partie, je me suis intéressée à la définition de métriques intégrant la composante forme des séries et leur positionnement dans un cadre plus général. L'alignement de séries étant un concept fondamental dans la définition de métriques, mon intérêt a porté, ensuite, sur l'apprentissage de couplages pour la discrimination de classes de séries complexes. L'approche proposée vise à lier les séries selon les caractéristiques communes au sein des classes et différentielles entre les classes. Le couplage ainsi appris permet de dériver une métrique locale pondérée restreignant la comparaison des séries aux attributs discriminants. Enfin, le troisième volet de mes travaux est dédié à l'extension des arbres de classification/régression à des variables prédictives temporelles. L'arbre temporel de classification proposé recours à un nouveau critère de coupure fondé sur une métrique adaptative et la localisation de sous-séquences discriminantes.
57

Bilans carbonés et hydriques de plantations à croissance rapide d'Eucalyptus : modélisation et extrapolation spatiale de la parcelle à la région / Carbon and water balance modelling of fast-growing Eucalyptus plantations : spatial extrapolation from the stand to the region

Marsden, Claire 22 October 2010 (has links)
Dans de nombreuses régions tropicales dont certaines zones du Brésil, les plantations industrielles d'Eucalyptus connaissent une expansion rapide. L'impact environnemental et la durabilité de ces plantations soulèvent de nombreuses questions, notamment en termes d'évolution du bilan carboné et de la fertilité des sols, et d'impact sur les ressources en eau. Cette thèse contribue à apporter des réponses à ces questions, en étudiant les bilans de carbone, d'eau et d'azote des plantations d'Eucalyptus de l'état de São Paulo. L'approche privilégiée est celle de la modélisation écophysiologique, et l'échelle visée in fine est celle de grandes plantations. Cette thèse présente une première approche empirique d'estimation spatialisée de la production des plantations, basée sur la construction et l'interprétation de séries temporelles d'indice de végétation du satellite MODIS sur un ensemble de parcelles d'âge et de productivité contrastés. Ensuite une approche plus complète de modélisation écophysiologique est développée, basée sur le modèle C-H2O-N « G'DAY » qui a été adapté au cas des plantations brésiliennes. La simulation par le modèle des flux de C, H2O et N sur l'ensemble de parcelles évoqué précédemment, à l'échelle de la rotation, a été réalisée avec et sans la contribution de données d'indice foliaire, obtenues à partir des séries temporelles de réflectance MODIS. Ces séries temporelles de données satellitaires sont riches en informations sur la variabilité spatio-temporelle de la productivité, qui est bien reproduite par le modèle écophysiologique proposé / Industrial Eucalyptus plantations are expanding rapidly in many tropical regions, and in particular in south-eastern Brazil. Their sustainability and environmental impact are an issue of concern, and questions have been raised regarding their carbon balance and effects on soil fertility and water ressources. This thesis addresses some of these questions, by studying the carbon, water and nitrogen balance of Eucalyptus plantations in São Paulo State.A process-based modelling approach was adopted, with the ultimate aim of application at the scale of large plantations. A first empirical approach was developed to estimate wood production on a spatial basis, involving the construction and interpretation of MODIS vegetation index time series on a set of Eucalyptus stands of contrasted age and productivity levels. The complete ecophysiological C-H2O-N cycling model "G'DAY" was then adapted for Brazilian plantations. Rotation-length simulations of C, H2O and N fluxes were carried out on the afore-mentioned set of plantation stands, either with or without the integration of leaf area index data obtained from MODIS reflectance time-series. The satellite time series carry useful information about the spatio-temporal variability of productivity, which is also well reproduced by the proposed ecophysiological model
58

Inférence exacte simulée et techniques d'estimation dans les modèles VAR et VARMA avec applications macroéconomiques

Jouini, Tarek January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
59

Modélisation géologique 3D et hydrodynamique appliquées aux réservoirs carbonatés karstiques : caractérisation des ressources en eau souterraine de l'Unité du Beausset (Var et Bouches-du-Rhône, SE France)

Fournillon, Arnaud 28 September 2012 (has links)
Cette thèse a pour but de contribuer à l'étude des réservoirs carbonatés karstiques par une approche intégrant modélisation géologique numérique 3D et hydrogéologie. Une méthodologie originale a été ainsi développée pour être appliquée à la caractérisation des ressources en eau souterraine de l'Unité du Beausset (Bouches-du-Rhône et Var, SE France). Cette méthodologie lie l'architecture géologique 3D du réservoir à ses propriétés hydrodynamiques extraites de son étude hydrogéologique. Cette zone est un synclinal de roches sédimentaires mésozoïques d'une épaisseur pouvant atteindre 3000m. Ces roches affleurent sur environ 650 km², et ont subi de nombreuses phases de fracturation et karstification. A partir de la synthèse des données existantes géologiques, hydrogéologiques et karstologiques, sept intervalles lithostratigraphiques ont été définis. Ces intervalles ont également été caractérisés hydrodynamiquement par l'analyse des séries temporelles de hauteur, température et conductivité électrique enregistrées en continu en sept sources représentatives. Cette caractérisation a été complétée par des campagnes exhaustives d'hydrochimie et de mesures de débit. L'ensemble des données et des résultats obtenus ont permis de définir où sont les unités de stockages et d'écoulement de l'eau souterraine. Ces dernières ont été intégrées de manière qualitative en 3D à l'aide d'un modèle surfacique de l'architecture géologique de l'Unité du Beausset. Cette intégration a permis de définir les meilleures zones de captage potentiel pour de nouvelles ressources en eau souterraine. / The aim of this PhD thesis is to provide an original approach for the characterization of karstic carbonate reservoirs that integrates 3D geological modeling and hydrodynamics. The 3D geological model stands for the structural compartmentalization of the reservoir and the hydrodynamics provide dynamic properties for the understanding of the fluid flow. This methodology is applied to the characterization of the groundwater resources of the Beausset Unit (SE France). The study area is a syncline composed of nearly 3000 m of Mesozoic sedimentary rocks, which age from late Triassic to Upper Cretaceous. These rocks, which are mainly carbonates, crop out over an area of 650 km² and have known several phases of fracturation and karstification. This study is divided in four parts: (1) synthesis of existing data, (2) 3D geological modeling, (3) study of hydrodynamics, and (4) integration of static and dynamic data in order to discuss the characterization of the groundwater resources in the Beausset Unit. The existing data on stratigraphy, lithology, petrophysical properties, karstology and hydrogeology allow the definition of seven lithostratigraphic intervals that have been chosen for modeling. These intervals represent the vertical compartmentalization of the reservoir: each interval has a unique combination of karst and rocks properties. The integration of all this data end results leads to the recognition of the flow and reservoir units in each lithostratigraphic interval. A qualitative link has been made between the 3D architecture of the basin and the reservoir properties; it allows the characterization of the best potential targets for new groundwater tapping zones.
60

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.

Page generated in 0.116 seconds