• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 437
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 786
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 93
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Paramétrisations stochastiques de processus biogéochimiques non résolus dans un modèle couplé NEMO/PISCES de l'Atlantique Nord : Applications pour l'assimilation de données de la couleur de l'océan / Stochastic parameterizations of unresolved biogeochemical processes in a coupled NEMO/PISCES model of the north Atlantic

Garnier, Florent 10 May 2016 (has links)
En dépit de progrès croissants durant la dernière décennie, la complexité des écosystèmes marins est encore imparfaitement simulée par les modèles.Les formulations des processus biogéochimiques sont en général établies de manière empirique et contraintes par une multitude de paramètres.Il est ainsi généralement admis que leurs incertitudes impactent fortement l'estimation de la production primaire, dont le rôle dans le cycle du carbone est primordial.Analyser les impacts de l'incertitude des modèles est donc nécessaire pour améliorer la représentation des caractéristiques biogéochimiques de l'océan.Dans le contexte d'assimilation de données de la couleur de l'océan, la définition des erreurs de prévision représente de plus un important verrou aux performances des systèmes.Ces points seront analysés dans cette thèse. L'objectif sera d'examiner, dans un contexte de modélisation/assimilation, la pertinence d'utiliser une approche probabiliste basée sur une simulation explicite des incertitudes biogéochimiques du modèle couplé au 1/4° NEMO/PISCES sur l'océan Atlantique Nord.A partir d'une simulation déterministe du modèle PISCES, nous proposerons une méthode pour générer des processus aléatoires, AR(1), permettant d'inclure des structures spatiales et temporelles de corrélations.A chaque pas de temps, ces perturbations aléatoires seront ensuite introduites dans le modèle par l'intermédiaire de paramétrisations stochastiques.Elles simuleront 2 différentes classes d'incertitudes: les incertitudes sur les paramètres biogéochimiques du modèle et les incertitudes dues aux échelles non résolues dans le cas d'équations non linéaires. L'utilisation de paramétrisations stochastiques permettra ainsi d'élaborer une version probabiliste du modèle PISCES, à partir de laquelle nous pourrons réaliser une simulation d'ensemble de 60 membres.La pertinence de cette simulation d'ensemble sera évaluée par comparaison avec les observations de la couleur de l'océan SeaWIFS. Nous montrerons en particulier que la simulation d'ensemble conserve les structures de grande échelle présentes dans la simulation déterministe.En utilisant les distributions de probabilité définies par les membres de l'ensemble, nous montrerons que l'ensemble capture l'information des observations avec une bonne estimation de leurs statistiques d'erreur (fiabilité statistique). L'intérêt de l'approche probabiliste sera ainsi d'abord évalué dans un contexte de modélisation biogéochimique. / In spite of recent advances, biogeochemical models are still unable to represent the full complexity of marine ecosystems.Since mathematical formulations are still based on empirical laws involving many parameters, it is now well established that the uncertainties inherent to the biogeochemical complexity strongly impact the model response.Improving model representation therefore requires to properly describe model uncertainties and their consequences.Moreover, in the context of ocean color data assimilation, one of the major issue rely on our ability to characterize the model uncertainty (or equivalently the model error) in order to maximize the efficiency of the assimilation system.This is exactly the purpose of this PhD which investigates the potential of using random processes to simulate some biogeochemical uncertaintiesof the 1/4° coupled physical–biogeochemical NEMO/PISCES model of the North Atlantic ocean.Starting from a deterministic simulation performed with the original PISCES formulation, we propose a genericmethod based on AR(1) random processes to generate perturbations with temporal and spatial correlations.These perturbations are introduced into the model formulations to simulate 2 classes of uncertainties: theuncertainties on biogeochemical parameters and the uncertainties induced by unresolved scales in the presenceof non-linear processes. Using these stochastic parameterizations, a probabilistic version of PISCES is designedand a 60-member ensemble simulation is performed.The implications of this probabilistic approach is assessed using the information of the probability distributions given of this ensemble simulationThe relevance and the impacts of the stochastic parameterizations are assessed from a comparison with SeaWIFS satellite data.In particular, it is shown that the ensemble simulation is able to produce a better estimate of the surface chlorophyll concentration than the first guess deterministic simulation.Using SeaWIFS ocean color data observations, the statistical consistency (reliability) of this prior ensemble is demonstrated using rank histograms.Finally, the relevance of our approach in the prospect of ocean color data assimilation is demonstrated by considering a 3D optimal analysis of the ensemble (one updateat one time step) performed from the statistic errors of the stochastic ensemble simulation previously stated.During this experiment, the high resolution SeaWIFS ocean color data are assimilated using a Ensemble Transform Kalman Filter (ETKF) analysis scheme and the non gaussian behaviour and non linear relationshipbetween variables are taken into account using anamorphic transformations.More specifically, we show that the analysis of SeaWIFS data improves the representation and the ensemble statistics of chlorophyll concentrations.
382

Combinatorial optimization and Markov decision process for planning MRI examinations / Planification des examens IRM à l'aide de processus de décision markovien et optimisation combinatoire

Geng, Na 29 April 2010 (has links)
Cette thèse propose un nouveau processus de réservation d'examens IRM (Imagerie par Résonance Magnétique) afin de réduire les temps d’attente d’examens d'imagerie des patients atteint d'un AVC (Accident Vasculaire Cérébral) soignés dans une unité neurovasculaire. Le service d’imagerie réserve chaque semaine pour l'unité neurovasculaire un nombre donné de créneaux d'examens IRM appelés CTS afin d’assurer un diagnostic rapide aux patients. L'unité neurovasculaire garde la possibilité de réservations régulières appelées RTS pour pallier les variations des flux de patients.Nous donnons d'abord une formulation mathématique du problème d'optimisation pour déterminer le nombre et la répartition des créneaux CTS appelée contrat et une politique d'affectation des patients entre les créneaux CTS ou les réservations RTS. L'objectif est de trouver le meilleur compromis entre le délai d'examens et le nombre de créneaux CTS non utilisés. Pour un contrat donné, nous avons mis en évidence les propriétés et la forme des politiques d'affectation optimales à l'aide d'une approche de processus de décision markovien à coût moyen et coût actualisé. Le contrat est ensuite déterminé par une approche d'approximation Monté Carlo et amélioré par des recherches locales. Les expérimentations numériques montrent que la nouvelle méthode de réservation permet de réduire de manière importante les délais d'examens au prix des créneaux inutilisés.Afin de réduire le nombre de CTS inutilisé, nous explorons ensuite la possibilité d’annuler des créneaux CTS un ou deux jours en avance. Une approche de processus de décision markovien est de nouveau utilisée pour prouver les propriétés et la forme de la politique optimale d’annulation. Les expérimentations numériques montrent que l'annulation avancée des créneaux CTS permet de réduire de manière importante les créneaux CTS inutilisés avec une augmentation légère des délais d'attente. / This research is motivated by our collaborations with a large French university teaching hospital in order to reduce the Length of Stay (LoS) of stroke patients treated in the neurovascular department. Quick diagnosis is critical for stroke patients but relies on expensive and heavily used imaging facilities such as MRI (Magnetic Resonance Imaging) scanners. Therefore, it is very important for the neurovascular department to reduce the patient LoS by reducing their waiting time of imaging examinations. From the neurovascular department perspective, this thesis proposes a new MRI examinations reservation process in order to reduce patient waiting times without degrading the utilization of MRI. The service provider, i.e., the imaging department, reserves each week a certain number of appropriately distributed contracted time slots (CTS) for the neurovascular department to ensure quick MRI examination of stroke patients. In addition to CTS, it is still possible for stroke patients to get MRI time slots through regular reservation (RTS). This thesis first proposes a stochastic programming model to simultaneously determine the contract decision, i.e., the number of CTS and its distribution, and the patient assignment policy to assign patients to either CTS or RTS. To solve this problem, structure properties of the optimal patient assignment policy for a given contract are proved by an average cost Markov decision process (MDP) approach. The contract is determined by a Monte Carlo approximation approach and then improved by local search. Computational experiments show that the proposed algorithms can efficiently solve the model. The new reservation process greatly reduces the average waiting time of stroke patients. At the same time, some CTS cannot be used for the lack of patients.To reduce the unused CTS, we further explore the possibility of the advance cancellation of CTS. Structure properties of optimal control policies for one-day and two-day advance cancellation are established separately via an average-cost MDP approach with appropriate modeling and advanced convexity concepts used in control of queueing systems. Computational experiments show that appropriate advance cancellations of CTS greatly reduce the unused CTS with nearly the same waiting times.
383

Volumetry of timed languages and applications / Volumétrie des langages temporisés et applications

Basset, Nicolas 05 December 2013 (has links)
Depuis le début des années 90, les automates temporisés et les langages temporisés ont été largement utilisés pour modéliser et vérifier les systèmes temps réels. Ces langages ont été aussi été largement étudiés d'un point de vue théorique. Plus récemment Asarin et Degorre ont introduit les notions de volume et d'entropie des langages temporisés pour quantifier la taille de ces langages et l'information que ses éléments contiennent. Dans cette thèse nous construisons de nouveaux développements à cette théorie (que nous appelons volumétrie des langages temporisés) et l'appliquons a plusieurs problèmes apparaissant dans divers domaine de recherche tel que la théorie de l'information, la vérification, la combinatoire énumérative. Entre autre nous (i) développons une théorie de la dynamique symbolique temporisée~; (ii) caractérisons une dichotomie entre automate temporisé se comportant bien ou mal~; (iii) définissons pour un automate temporisé donné, un processus stochastique d'entropie maximale le moins biaisé possible~; (iv) développons une version temporisé de la théorie des codes sur canal contraint (v) énumérons et générons aléatoirement des permutations dans une certaine classe / Since early 90s, timed automata and timed languages are extensively used for modelling and verification of real-time systems, and thoroughly explored from a theoretical standpoint. Recently Asarin and Degorre introduced the notions of volume and entropy of timed languages to quantify the size of these languages and the information content of their elements. In this thesis we build new developments of this theory (called by us volumetry of timed languages) and apply it to several problems occurring in various domains of theoretical computer science such as verification, enumerative combinatorics or information theory. Among other we (i) develop a theory of timed symbolic dynamics; (ii) characterize a dichotomy between bad behaving and well behaving timed automata; (iii) define a least biased stochastic process for a timed automaton; (iv) develop a timed theory of constrained channel coding; (v)count and generate randomly and uniformly permutations in certain classes
384

Compétition sur la visibilité et la popularité dans les réseaux sociaux en ligne / Competition over popularity and visibility on online social networks

Reiffers-Masson, Alexandre 12 January 2016 (has links)
Cette thèse utilise la théorie des jeux pour comprendre le comportement des usagers dans les réseaux sociaux. Trois problématiques y sont abordées: "Comment maximiser la popularité des contenus postés dans les réseaux sociaux?";" Comment modéliser la répartition des messages par sujets?";"Comment minimiser la propagation d’une rumeur et maximiser la diversité des contenus postés?". Après un état de l’art concernant ces questions développé dans le chapitre 1, ce travail traite, dans le chapitre 2, de la manière d’aborder l’environnement compétitif pour accroître la visibilité. Dans le chapitre 3, c’est le comportement des usagers qui est modélisé, en terme de nombre de messages postés, en utilisant la théorie des approximations stochastiques. Dans le chapitre 4, c’est une compétition pour être populaire qui est étudiée. Le chapitre 5 propose de formuler deux problèmes d’optimisation convexes dans le contexte des réseaux sociaux en ligne. Finalement, le chapitre 6 conclue ce manuscrit. / This Ph.D. is dedicated to the application of the game theory for the understanding of users behaviour in Online Social Networks. The three main questions of this Ph.D. are: " How to maximize contents popularity ? "; " How to model the distribution of messages across sources and topics in OSNs ? "; " How to minimize gossip propagation and how to maximize contents diversity? ". After a survey concerning the research made about the previous problematics in chapter 1, we propose to study a competition over visibility in chapter 2. In chapter 3, we model and provide insight concerning the posting behaviour of publishers in OSNs by using the stochastic approximation framework. In chapter 4, it is a popularity competition which is described by using a differential game formulation. The chapter 5 is dedicated to the formulation of two convex optimization problems in the context of Online Social Networks. Finally conclusions and perspectives are given in chapter 6.
385

Essais sur les dynamiques du marché du travail / Essays on labor market dynamics

Fontaine, Idriss 22 June 2017 (has links)
L'objet de cette thèse est d'appréhender les dynamiques du marché du travail. Afin d'éclairer sur les mécanismes à l'origine des variations des stocks, comme le taux de chômage, cette thèse étudie en profondeur les flux de travailleurs. En effet, les évolutions des stocks masquent un mouvement incessant de flux entre les états du marché du travail. Lorsque certains individus trouvent un emploi, d'autres perdent le leur, tandis que d'autres encore se retirent de l'activité. Dans le but d'envisager ces éventualités, la thèse propose des analyses appliquées, à partir de données d'enquête, mais aussi des analyses théoriques, basées sur des modèles macroéconomiques modernes. Les quatre essais composant cette thèse suggèrent que l'inactivité et l'accès à l'emploi ont un rôle prédominant dans l'explication du chômage français. Il apparait également que les expériences en matière de transition sur le marché du travail sont diversifiées et dépendent, dans bien des cas, des caractéristiques individuelles. Ainsi, les « moins qualifiés » subissent les trajectoires les moins favorables et les femmes voient leur probabilité de réintégrer le marché du travail se réduire en fonction du nombre d'enfants. Au niveau macroéconomique, il est montré que les flux de travailleurs ne répondent pas de la même manière aux chocs économiques. Qui plus est, l'environnement économique a un impact direct sur les flux. Les périodes d'incertitude, caractérisées par une forte imprévisibilité, modifient le comportement des agents. Les gains retirés des activités de recherche d'emploi étant réduits, moins d'individus souhaitent devenir actifs. / This thesis aims at understanding labor market dynamics. In order to shed light on the mechanisms at the origin of labor market stocks, e.g. the unemployment rate, this thesis studies flows of workers. Indeed, changes in stocks hide a perpetual movement of worker flows between labor market states. When some individuals are finding a job, some others are losing their, while others are withdrawing from participation. To take into account all these alternatives, this thesis proposes applied studies, based on survey data, but also theoretical analyses, based on modern macroeconomic models. The four essays of this thesis suggest that non-participation and return to job are dominant in explaining French unemployment variations. It is also shown that, in terms of worker flows, paths are multiples and depend on individual own characteristics: “unskilled” workers accumulate difficulties on the labor market; women have lower chances of participating when their family size increases. At a macroeconomic level, this thesis shows that worker flows responses to aggregate shocks differ according to their origin. Moreover, the economic environment has a direct impact on worker flows. Times of uncertainty, characterized by a high level of unpredictability, change the behavior of economic agents. As search activities have a lower probability to be successful, fewer individuals move from non-participation to participation.
386

Modélisation stochastique de processus d'agrégation en chimie / Stochastic modeling of aggregation and floculation processes in chemestry

Paredes Moreno, Daniel 27 October 2017 (has links)
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire. / We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator.
387

Business cycle fluctuations and monetary policy in emerging economies / Fluctuations de cycle économique et politique monétaire dans les économies émergentes

Mrad, Houda 29 June 2018 (has links)
Dans cette thèse nous examinons différents aspects des fluctuations dans les économies émergentes. Premièrement, afin d’établir les régularités empiriques de ces pays nous examinons le contexte économique des pays du Moyen Orient et d’Afrique du Nord. Ensuite, nous estimons un modèle des cycles réels pour essayer de reproduire les faits stylisés de ces pays, mais aussi pour évaluer la performance de ces modèles néoclassiques augmentés de deux types de chocs de productivité transitoire et permanent. Ceci fait l’objet du chapitre 2 dont le résultat est en faveur de l'hypothèse "Le cycle c'est la tendance" . Le deuxième aspect porte sur l’importance des frictions financières, il est traité dans le troisième chapitre qui introduit des chocs financiers au modèle de croissance stochastique. Nous identifions le rôle des frictions financières dans l’économie tunisienne comme étant un amplificateur de l’effet des chocs de productivité. Le quatrième chapitre porte sur l'analyse de la politique monétaire. Premièrement, nous examinons le régime de ciblage d’inflation où nos résultats empiriques supportent une implémentation de la stricte version du ciblage d’inflation avec une fonction de réaction basée sur des prévisions de l'inflation. Deuxièmement, nous exploitant les règles monétaires optimales en présence de la rigidité d l'information dans le cadre d’un modèle stochastique d’équilibre général (DSGE). Nos résultats, révèlent que les chocs du taux de marge de la force de travail jouent un rôle important dans les fluctuations de l’économie tunisienne, la règle de Taylor produit un taux satisfaisant de bien être, alors que les règles qui ciblent le niveau de prix ne sont pas efficaces. / This thesis investigates different aspects of the fluctuations in emerging economies. First, it examines the MENA countries’ context to establish the empirical regularities. Then, to replicate the MENA countries’ business cycle patterns observed in the annual data, we estimate a standard real business cycle (RBC) model to assess the performance of the neoclassical model with transitory and permanent shocks. This is the purpose of chapter 2 which results support the assumption "The cycle is the trend". The second aspect refers to the importance of financial frictions and is addressed in the third chapter which adds new financial shocks to the stochastic growth model. We determine the role of financial frictions in the Tunisian economy not as the source of business cycle fluctuations but as an amplifier of the effects of total factor of productivity shocks.The fourth chapter analyzes monetary policy in emerging economies. Firstly, we examine the inflation targeting regime under the lens of a New Keynesian forward-looking model. We also, estimate a Taylor rule and some other alternatives in order to determine which rule to adopt within this framework. Empirical results support the implementation of a strict inflation targeting regime, with an inflation forecast based rule as a reaction function. Secondly, we explore the optimal monetary policy rules using a New Keynesian DSGE model. In particular we assume that information stickiness as the only type of rigidity in the model. We find that Whereas, Taylor rule in its original version provides substantial welfare gains, price-level targeting regime was suboptimal.
388

On Large Cooperative Wireless Network Modeling through a Stochastic Geometry Approach. / Modélisation de Réseaux sans Fils de Grandes Dimensions à l'aide de la Géométrie Stochastique

Altieri, Andres Oscar 07 October 2014 (has links)
L'objectif de cette thèse est d'étudier certains aspects des réseaux coopératifs sans fils à l'aide de la géométrie stochastique. Ça permets de considérer la distribution spatiale aléatoire des utilisateurs et les effets adverses de leur interaction, comme l’interférence.Nous étudions la performance, évaluée par la probabilité d'outage, atteignable dans un canal de relai full-duplex quand les nœuds opèrent dans un grand réseau sans fils où les émetteurs interférants sont modelés avec un processus ponctuel de Poisson homogène. Nous trouvons la probabilité d'outage des protocoles décodez-et-renvoyez (decode-and-forward, DF), et comprimez-et-renvoyez (compress-and-forward) et nous faisons une comparaison avec une transmission point à point et un protocole DF half-duplex. Ensuite, nous étudions une situation plus générale dans laquelle les émetteurs qui causent l'interférence peuvent aussi utiliser un relai ou faire des transmissions point à point. Nous étudions la relation entre les avantages de la cooperation et l'interférence qu'elle même génère.Dans la deuxième partie nous étudions la performance des stratégies de partage de vidéos par communications entre dispositifs mobiles (device-to-device, D2D) hors de la bande des communications cellulaires. Nous étudions la fraction des demandes de vidéos qui peuvent être satisfaites par D2D, c’est-à-dire, par le biais des émissions locales, plutôt que par la station de base. Pour étudier ce problème, nous introduisons un modèle de processus ponctuel, qui considère la stratégie de stockage dans les utilisateurs, le problème de comment lier les utilisateurs et les problèmes de la transmission et coordination entre les utilisateurs. / The main goal of this work is to study cooperative aspects of large wireless networks from the perspective of stochastic geometry. This allows the consideration of important effects such as the random spatial distribution of nodes, as well as the effects of interference and interference correlation at receivers, which are not possible when a single link is considered in isolation.First, some aspects of the performance of the relay channel in the context of a large wireless network are considered. Mainly, the performance, in terms of outage probability (OP), of a single full-duplex relay channel utilizing decode-and-forward (DF) or compress-and-forward, when the interference is generated by uniform spatial deployment of nodes, modeled as a Poisson point process. The OP performance of these two protocols is compared with a point-to-point transmission and with a half-duplex DF protocol. Afterwards, the case in which more than one transmitter in the network may use a relay is considered. The effects of cooperation versus interference are studied, when the users use either full-duplex DF, or point-to-point transmissions. In a second phase, this work explores the advantages that could be obtained through out-of-band device-to-device (D2D) video file exchanges in cellular networks. These advantages are measured in terms of the fraction of requests that can be served in a time-block through D2D, thus avoiding a downlink file transfer from the base station. For this, a stochastic geometry framework is introduced, in which the user file-caching policy, user pairing strategy, and link quality and scheduling issues are considered.
389

Approche physico-statistique de la désagrégation des précipitations satellite dans les Tropiques / A physical-statistical approach for disaggregating satellite precipitation in the tropics

Guilloteau, Clément 07 November 2016 (has links)
Les précipitations sont un phénomène dont la variabilité s'étend sur une très large gamme d'échelles : de l'échelle millimétrique de la goutte d'eau (échelle microphysique) à l'échelle des circulations atmosphériques globales (échelle synoptique). Il n'existe pas de système unique capable de fournir des observations des précipitations couvrant toutes ces échelles. Les observations satellite sont celles qui actuellement résolvent le plus efficacement les grandes échelles spatiales et temporelles : de la méso-échelle à l'échelle synoptique. Dans cette thèse, nous explorons en zone tropicale les capacités des satellites à résoudre les échelles spatiales de l'ordre de 100km, jusqu'aux échelles kilométriques ; et les échelles temporelles comprises entre 24 heures et 15 minutes (afin de résoudre le cycle diurne). L'approche retenue est physico-statistique. Si les grandes échelles peuvent être résolues par des approches déterministes combinant les mesures de multiples instruments spatiaux, plusieurs facteurs limitent la pertinence des approches déterministes à fine échelle : - Les limites instrumentales en terme de résolution spatiale. - Le nombre d'instruments en orbite qui limite la fréquence d'échantillonnage des mesures. - La nature dynamique de la variabilité fine échelle. En particulier, aux fines échelles, c'est la difficulté à parfaitement localiser les structures précipitantes qui entraine les erreurs d'estimation les plus importantes. L'approche physico-statistique est ici synonyme de déterministe (pour les grandes échelles) et probabiliste (pour les fines échelles). Le premier objectif de cette thèse est de déterminer précisément la limite des échelles qui peuvent être résolues de façon déterministe. L'approche physico-statistique de l'estimation des intensités de précipitation est implémentée dans cette thèse à partir d'une méthode multicapteur déterministe pré-existante : l'algorithme TAPEER, développé dans le cadre de la mission Megha-Tropiques, qui fournit une estimation du cumul pluviométrique journalier à une résolution de 1°. C'est la génération d'ensembles désagrégés par une méthode stochastique multi-échelle qui a été retenue ici. Les ensembles sont contraints par une information fine échelle : un masque de détection des aires précipitantes dérivé des images infrarouge metosat-SG à une résolution de 3km (et avec une image toutes les 15 minutes). La génération d'ensemble permet de caractériser l'incertitude sur l'estimation à travers la dispersion des réalisations de l'ensemble. Chaque réalisation de l'ensemble est générée de façon à reproduire le plus fidèlement possible les propriétés statistiques (distribution de fréquence des intensités, autocorrélation spatiale et temporelle) des véritables champs de précipitation. Ces champs et cette technique ont un apport pour les applications hydrologiques, par exemple pour améliorer le ruissellement lié aux précipitations intenses dans les modèles. Considérer plusieurs réalisations permet de plus d'étudier la propagation des incertitudes à travers un modèle. / Rainfall variability involves a wide range of scales: from the millimeter-scale associated with microphysics to the synoptic scale of the global atmospheric circulation. No existing observation system is able to cover all these scales by itself. Satellite-based observation systems are currently the most efficient systems to resolve the large spatial and temporal scales: from mesoscale meteorology to the synoptic scale. This thesis is dedicated to the exploration of satellites ability to resolve spatial scales from 100km to 2km and temporal scales from 24h to 15 min (in order to resolve the diurnal cycle). The chosen approach is both physical and statistical (or deterministic and probabilistic). The idea is that the deterministic approach can resolve the large scales, but several factors limit its relevance when dealing with fine scales: -The limited resolution of the instruments. -The number of orbiting instruments that limits temporal sampling. -The dynamic nature of fine scale variability. At fines scales, most of the errors in rainfall estimation from satellite comes from not perfectly localizing the precipitating cells. The first objective of this thesis is to identify precisely the lowest limit in scale where the deterministic approach is appropriate. The implementation of the physical-statistical approach relies on an existing multisensor estimate of daily precipitation at a 1° resolution: the TAPEER algorithm developed as part of the Megha-Tropiques mission. The chosen method is a hybrid physical disaggregation and stochastic downscaling via a multiscale representation. The result is an ensemble of high-resolution probable realizations of the rain intensity field. The ensemble is constrained by a high resolution rain detection mask derived from meteosat-SG infrared images at 3km resolution (one image every 15 minutes). The uncertainty associated with the final estimation is handled through the ensemble dispersion. Every realization is generated so that its statistical properties (frequency distribution of the intensities, autocorrelation function) mimic those of the true rain field. The generated fields and the proposed technique contribute to hydrological applications for instance by improving the runoff associated to high precipitation rates in models. Using several realizations is a way to study uncertainty propagation through a model.
390

Géométrie et topologie des processus périodiquement corrélés induit par la dilation : Application à l'étude de la variabilité des épidémies pédiatriques saisonnières / Geometry and topology of periodically correlated processes : Analysis of the variability of seasonal pediatric epidemics

Dugast, Maël 21 December 2018 (has links)
Chaque année lors de la période hivernale, des phénomènes épidémiques affectent l’organisation des services d’urgences pédiatriques et dégradent la qualité de la réponse fournie. Ces phénomènes présentent une forte variabilité qui rend leur analyse difficile. Nous nous proposons d’étudier cette volatilité pour apporter une vision nouvelle et éclairante sur le comportement de ces épidémies. Pour ce faire, nous avons adopté une vision géométrique et topologique originale directement issue d’une application de la théorie de la dilation: le processus de variabilité étant périodiquement corrélé, cette théorie fournit un ensemble de matrices dites de dilations qui portent toute l’information utile sur ce processus. Cet ensemble de matrices nous permet de représenter les processus stochastiques comme des éléments d’un groupe de Lie particulier, à savoir le groupe de Lie constitué de l’ensemble des courbes sur une variété. Il est alors possible de comparer des processus par ce biais. Pour avoir une perception plus intuitive du processus de variabilité, nous nous sommes ensuite concentrés sur le nuage de points formé par l’ensemble des matrices de dilations. En effet, nous souhaitons mettre en évidence une relation entre la forme temporelle d’un processus et l’organisation de ces matrices de dilations. Nous avons utilisé et développé des outils d’homologie persistante et avons établi un lien entre la désorganisation de ce nuage de points et le type de processus sous-jacents. Enfin nous avons appliqué ces méthodes directement sur le processus de variabilité pour pouvoir détecter le déclenchement de l’épidémie. Ainsi nous avons établi un cadre complet et cohérent, à la fois théorique et appliqué pour répondre à notre problématique. / Each year emergency department are faced with epidemics that affect their organisation and deteriorate the quality of the cares. The analyse of these outbreak is tough due to their huge variability. We aim to study these phenomenon and to bring out a new paradigm in the analysis of their behavior. With this aim in mind, we propose to tackle this problem through geometry and topology: the variability process being periodically correlated, the theory of dilation exhibit a set of matrices that carry all the information about this process. This set of matrices allow to map the process into a Lie group, defined as the set of all curves on a manifold. Thus, it is possible to compare stochastic processes using properties of Lie groups. Then, we consider the point cloud formed by the set of dilation matrices, to gain more intuitions about the underlying process. We proved a relation between the temporal aspect of the signal and the structure of the set of its dilation matrices. We used and developped persistent homology tools, and were able to classify non-stationary processes. Eventually, we implement these techniques directly on the process of arrivals to detect the trigger of the epidemics. Overall we established a complete and a coherent framework, both theoretical and practical.

Page generated in 0.0545 seconds