• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Évaluation de la performance des règles de gestion d'un réservoir de production hydroélectrique mises à jour à l'aide de la programmation dynamique stochastique et d'un modèle hydrologique

Martin, Alexandre January 2016 (has links)
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
82

Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZ

Fayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.
83

Proposition d’une méthodologie d’évaluation de l’évolution de la qualité en conception de systèmes complexes / Proposal of a methodology to evaluate quality evolution in complex system design

Gitto, Jean-Philippe 02 February 2018 (has links)
La maîtrise de la qualité est aujourd’hui indispensable pour satisfaire les exigences des clients. Bien qu’il existe différentes méthodes et outils spécialement développés pour manager la qualité des systèmes ou des processus au sein des entreprises, il est difficile d’établir le lien entre la maîtrise des nombreux processus d’une entreprise et la qualité produit pour un système en service. Dans ce contexte, une thèse CIFRE a été menée au sein de MBDA, entreprise qui conçoit, développe et produit des systèmes d’armes. La problématique de cette thèse est de développer une méthodologie permettant de produire une définition de la qualité produit d’un système complexe qui soit valable tout au long de son cycle de vie, et permettant la construction de modèles de prévision de la qualité produit en utilisation lors du développement et de la production. Notre contribution consiste en une méthodologie en deux phases. La première phase permet d’établir une définition de la qualité produit des systèmes complexes du point de vue du client adaptée au contexte industriel en définissant plusieurs facteurs qualité produit qui soit valable pour toutes les phases du cycle de vie des systèmes. La deuxième phase permet de construire des modèles de prévision de la qualité produit qui permettent d’obtenir une évaluation de la qualité tout au long du cycle de vie des systèmes et d’établir une prévision de ce que sera la qualité en utilisation. Les deux phases de la méthodologie reposent sur l’exploitation d’avis d’experts afin de permettre son utilisation sans disposer d’une quantité importante de données. Les modèles construits ont été testés pour des systèmes développés par MBDA. / Today, quality control is essential to satisfy customer requirements. Although there are different methods and tools specially developed to manage the quality of systems or processes within companies, it is difficult to establish the link between management of a company's many processes and product quality for a system in service. In this context, a CIFRE thesis was conducted within MBDA, a company that designs, develops and produces weapons systems. The problem of this thesis is to develop a methodology allowing to produce a definition of the product quality of a complex system which is valid throughout its life cycle, and allowing the construction of models to predict the product quality in use during development and production. Our contribution consists of a two-phase methodology. The first phase makes it possible to establish a definition of the product quality of complex systems from the customer's point of view adapted to the industrial context by defining several product quality factors that are relevant for all phases of the systems life cycle. The second phase builds product quality prediction models that provide a life-cycle quality assessment of the systems and a forecast of what the quality will be in use. Both phases of the methodology rely on the use of experts' judgement to enable its use without a significant amount of data. The models built have been tested for systems developed by MBDA.
84

Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie / Data mining for the extraction of usage profiles and forecasting in the energy field

Melzi, Fateh 17 October 2018 (has links)
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations / Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
85

Observation adaptative : limites de la prévision et du contrôle des incertitudes / Adaptive Observation : limits of the forecast and monitoring of the uncertainties

Oger, Niels 02 July 2015 (has links)
L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF. / The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory affects the efficiency of one technique in particular: the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to significantly differing deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF)has been developed. This technique computes the expected variance reduction of a forecast Score function that quantifies forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The first one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described.
86

Quelles approches pour l'amélioration de l'assimilation des radiances nuageuses IASI en prévision numérique du temps ? / What approaches for improving the assimilation of IASI cloud radiances in numerical weather prediction?

Farouk, Imane 19 December 2018 (has links)
La génération actuelle des sondeurs infrarouges avancés constitue l’une des sources les plus importantes d’observation dans les systèmes d’assimilation de données dans les modèles de la Prévision Numérique du Temps (PNT). Cependant la richesse d’informations fournies par ce type de capteur avec son grand nombre de canaux et sa couverture globale est loin d’être complètement exploitée. La présence de nuages dans le champ de vision de l’instrument, qui affecte la majorité des observations, est l’une des raisons pour lesquelles les centres de PNT rejettent une grande quantité des observations des sondeurs. Les centres de PNT ont cependant commencé à assimiler au-dessus des océans les radiances affectées par les nuages en utilisant des canaux dont les effets radiatifs nuageux sont modélisés par un modèle de nuage simple. Certains de ces algorithmes de détection sont évalués dans ce manuscrit, et leurs limitations sont explicitées. Afin d’accroître la quantité de données assimilées, il est nécessaire de mieux représenter les nuages et leurs effets radiatifs. Depuis quelques années, des études ont été menées pour mieux représenter leurs effets dans les modèles de transfert radiatif ([Faijan et al., 2012] ; [Martinet et al., 2013]) ; et utiliser dans l’assimilation de nouveaux canaux infrarouges informatifs sur les hydrométéores nuageux. ([Martinet et al., 2014]). Cette thèse se concentre principalement sur ces méthodes de détection de scènes homogènes en consacrant sa majeur partie à l’établissement, l’évaluation et l’amélioration d’algorithme de détection de scènes homogènes en se basant sur la colocalistion d’observation avec d’autres sondeurs. Ces études sont rendus possibles par la prise en compte des champs d’hydrométéores fournis par les schémas convectifs du modèle ARPEGE en entrée du modèle de transfert radiatif nuageux RTTOV-CLD. Une partie validation des simulations est opérée dans cette thèse, en comparant l’apport les forces et faiblesses du schéma convectif en opérationnel ainsi que PCMT. Par la suite, différents tests, ou critères, de détection sont proposés, et en réalisant des expériences d’assimilation et en évaluant l’impact de ces ces critères de sélection proposés sur la qualité des prévisions à longues échéances, un des tests parmi ceux proposés se démarque des autres en conservant une quantité importante d’observation ciel clair et démontre des impacts neutres à légèrement positifs sur les prévisions. Les nouvelles méthodes de sélection de scènes homogènes proposées dans cette études permettent d’envisager une amélioration significative du contrôle de qualité des observation IASI en ciel clair. Cela ouvre ainsi donc la voie à une utilisation, plus maîtrisée, des scènes nuageuses. Nous expliquons dans ce manuscrit pourquoi il serait imprudent de précéder à des assimilation de radiances infrarouge contaminées par la présence de nuages. Pour contourner cette difficulté, une technique d’assimilation en deux étapes déjà utilisé pour l’assimilation des réflectivité radar ([Wattrelot et al., 2014]) dans AROME est évaluée. Cette méthode basée sur l’inversion bayésienne a récemment été adaptée pour les observations microondes satellitaire ([Duruisseau et al., 2018]). Dans cette étude, nous explorons cette technique pour les observations IASI. Plusieurs tests de sensibilité sont effectués sur les différents paramètres de l’algorithme, avec pour objectif de préparer de futurs travaux sur l’assimilation all-sky infrarouges, explicités dans les perspectives de ce manuscrit. / The current generation of advanced infrared sounders is one of the most important sources of observations in data assimilation systems in numerical weather prediction (NWP) models. However, the total amount of information provided by this type of sensor, with its large number of channels and its global coverage, is far from being fully exploited. The presence of clouds in the instrument’s field of view, which affects the majority of observations, is one of the reasons why NWP centers reject a large amount of observations from sounders. NWP centers, however, have begun to assimilate cloud-affected radiances over the oceans using channels whose cloudy radiative effects are modeled by a simple cloud model. Some of these detection algorithms are evaluated in this manuscript, and their limitations are clarified. In order to increase the amount of assimilated data, it is necessary to better represent clouds and their radiative effects in the models. For several years, studies have been conducted to better represent their effects in radiative transfer models ([Faijan et al., 2012] ; [Martinet et al., 2013]) ; and to use new informative infrared channels of cloudy hydrometeors in the assimilation. [Martinet et al., 2014]. This thesis focuses on several approaches for the assimilation of cloudy radiances. In the first part, the characterization of the cloud parameters currently used for the assimilation of cloudy radiances was evaluated in the global and regional scale models. In addition, as part of the "all-sky" assimilation, which considers both clear and cloudy radiances, the evaluation and improvement of homogeneous scene detection algorithms based on the colocation of observations with other imagers was studied. These studies are made possible by taking into account the hydrometeorological fields provided by the convective schemes of the ARPEGE model as the input of the RTTOV-CLD cloud radiative transfer model. Part of this thesis concerns the validation of simulations, by comparing the contribution of the new convective PCMT scheme to the one used in operational applications. Subsequently, different criteria for selecting homogeneous scenes are proposed. By conducting assimilation experiments and evaluating the impact of these proposed selection criteria on the quality of long-term forecasts, one of the proposed tests stands out from the others by keeping a significant amount of clear sky observations and demonstrating neutral to slightly positive impacts on the forecasts. These new methods for selecting homogeneous scenes proposed in this study allows the consideration of improving the quality control of IASI observations in clear sky. To address the issue of all-sky radiance data assimilation, the two-step assimilation technique, already used for radar reflectivity assimilation in AROME ([Wattrelot et al., 2014]), was evaluated for IASI radiances in the ARPEGE model in a case study. This method based on Bayesian inversion has recently been adapted for satellite microwave observations ([Duruisseau et al., 2018]). Several sensitivity tests were carried out on the different parameters of the algorithm, with the objective of preparing for future work on infrared all-sky assimilation, as explained in the perspectives of this manuscript.
87

Analyse comparée des politiques publiques de gestion du risque volcanique dans les caraïbes insulaires : le cas de la Guadeloupe en 1976 et de Monserrat en 1997 / Comparative Analysis of Public Policies for Volcanic Risk Management in the Caribbean Caribbean Islands : the case of Guadeloupe in 1976 and Monserrat in 1997

Baillard, Marie-Denise 28 February 2018 (has links)
Les îles du bassin caribéen figurent parmi les territoires dans le monde ayant la particularité d’être exposés à tous les types de risque naturel à l’exception du risque d’avalanche. Pourtant, le bilan global quant à leur prise en compte effective reste peu satisfaisant : En effet on constate des lacunes tant au niveau de l’information des populations qu’au niveau des moyens « administratifs et techniques » de réponse au risque. Le risque volcanique en particulier, bien que concernant onze territoires dans les petites Antilles, est relativement « éclipsé » par les autres risques dans les agendas gouvernementaux. Or, les « poudrières » de la Caraïbe sont pour la plupart actives. De plus, du fait de leur exiguïté et de la concentration de populations et d’infrastructures aux abords des volcans ; les territoires insulaires ont une vulnérabilité accrue. Des manifestations violentes peuvent entraîner, comme l’ont montré les cas de la Montagne Pelée en Martinique (1902) et plus récemment celui de la Soufrière Hills à Montserrat (1995 à nos jours), un bilan humain particulièrement lourd. Surtout, même en tempérant le risque de perte de vies humaines grâce à la prévision, une crise volcanique majeure reste synonyme de désastre économique. Le caractère exceptionnel des manifestations volcaniques suffit-il à expliquer ce bilan ? Cette interrogation première nous amène à questionner les mécanismes caractérisant la gestion du risque volcanique dans les Caraïbes insulaires. Notre étude porte ainsi sur les deux crises qui ont été les plus débattues en matière de retour d’expérience : celle de la Soufrière de Guadeloupe en 1976 et celle de la Soufrière Hills de Montserrat, qui a connu son pic en 1997. La comparaison des politiques publiques de gestion des crises étudiées nous permet d’identifier les facteurs orientant la stratégie des autorités compétentes en amont et en aval des crises. / The islands of the Caribbean basin are among the territories in the world having the distinction of being exposed to all types of natural hazard except avalanche risk. However, the overall assessment of their effective consideration remains unsatisfactory: Indeed, there are gaps in both the information of the population and the level of "administrative and technical" means of response to risk. Volcanic risk in particular, although affecting eleven territories in the Lesser Antilles, is relatively "overshadowed" by other risks in government agendas. However, the "powder keg" of the Caribbean are mostly active. Moreover, because of their small size and the concentration of populations and infrastructures around volcanoes; island territories have increased vulnerability. Violent demonstrations can lead, as has been shown in the cases of Mount Pelee in Martinique (1902) and more recently that of the Soufrière Hills in Montserrat (1995 to the present day), a particularly heavy human toll. Above all, even with the risk of loss of life due to the forecast, a major volcanic crisis is synonymous with economic disaster.Is the exceptional character of volcanic events enough to explain this assessment? This first interrogation leads us to question the mechanisms characterizing the volcanic risk management in the insular Caribbean.Our study thus focuses on the two crises that have been the most debated in terms of feedback: that of Soufrière Guadeloupe in 1976 and that of Soufrière Hills Montserrat, which peaked in 1997. The comparison of public crisis management policies studied allows us to identify the factors guiding the strategy of the competent authorities upstream and downstream of crises.
88

Prévision et spatialisation des concentrations en ozone troposphérique en Bourgogne

Houzé, Marie-Laure 11 December 2006 (has links) (PDF)
La thèse, réalisée au Centre de Recherches de Climatologie, UMR 5210 CNRS / Université de Bourgogne, a été co-financée par le Conseil Régional de Bourgogne et les Associations agréées de Surveillance de la Qualité de l'Air (AASQA) de la région (Atmosf'Air). Elle porte sur l'ozone, gaz toxique que les concentrations placent parmi les polluants atmosphériques les plus préoccupants de la région. Les concentrations horaires en ozone mesurées sur quelques années dans douze stations bourguignonnes sont analysées. Leurs variations spatiales et temporelles sont mises en relation avec certains éléments extra-régionaux (ozone de fond, conditions synoptiques) et infra-régionaux (propriétés physiques, occupation du sol, caractéristiques météorologiques locales et potentiel d'émission de précurseurs). Le deuxième volet concerne l'élaboration d'une méthode statistico-dynamique de prévision des concentrations maximales d'ozone pour le lendemain pour cinq stations Atmosf'Air dans l'agglomération dijonnaise, trois dans celle de Chalon-sur-Saône, deux à Mâcon, une à Montceau-les-Mines et une station rurale, dans le Morvan, à Saint-Brisson. Nous avons élaboré les modèles de prévisions avec le concours de Météo-France. Ils intègrent des prévisions météorologiques extraites d'ALADIN. La chimie est également prise en compte, puisque peuvent être intégrés dans les modèles de régressions multiples retenus, des précurseurs (oxyde d'azote) ou l'ozone mesuré par Atmosf'Air le jour où est effectuée la prévision. L'erreur moyenne de prévision est d'environ 20 μg/m3. Grâce à l'application d'un correctif qui renforce le « dynamisme » des prévisions, les pics d'ozone sont correctement prévus. Les erreurs résiduelles sont analysées et indiquent que les modèles atténuent légèrement les variations de concentrations observées lors des changements brutaux de types de temps. Des erreurs ponctuelles, mais plus fortes, sont liées à des erreurs de prévisions météorologiques ou à des concentrations anormales de précurseurs. Au total, ces prévisions sont performantes et plus fines spatialement que celles issues des modèles déterministes. Leur intérêt est indéniable localement pour informer et alerter les populations concernées. Enfin, en s'appuyant sur les résultats d'une campagne de mesures terrain (104 points échantillonnés par tubes à diffusion passive), distribués sur l'ensemble de la Bourgogne en août 2000, nous avons cherché à mieux comprendre les déterminants de la répartition spatiale de l'ozone et par conséquent les mécanismes mis en jeux. Une démarche descendante utilisant les méthodes de l'analyse et de la statistique spatiale a été développée. Tout d'abord, des indices sur les propriétés de la surface ont été créés à partir des données compilées (MNT, occupation du sol, champs atmosphériques simulés) et avec l'aide d'un Système d'Information Géographique (SIG). Ensuite, la structuration spatiale de l'ozone a été étudiée à partir de l'analyse variographique directe et croisée. Nous avons interprété ces comportements à partir des états de l'atmosphère et des indices de la surface. En plus de la forte anisotropie observée sur la répartition spatiale de l'ozone, les résultats ont fait ressortir deux types de structuration en accord avec deux situations météorologiques contrastées. Un premier type correspond à une configuration peu favorable à la formation d'ozone. Dans ce cas, la structure spatiale de l'ozone à l'échelle de la région est fortement corrélée à la rugosité de la surface. Un deuxième type correspond à une situation favorable à la production d'ozone. Nous montrons alors le forçage « biologique » de la surface sur le champ d'ozone, via des grandes classes combinant rugosité de surface et occupation du sol. Ainsi, une forte corrélation entre la concentration en ozone en un point et la proportion de forêt mixte en amont de ce point est observée. Dans tous les cas, les résultats démontrent la complexité des mécanismes et le forçage de la répartition spatiale de l'ozone en Bourgogne par la surface.
89

Étude climatique de la mousson vietnamienne et applications à la prévision saisonnière

Pham, Xuan Thanh 08 December 2008 (has links) (PDF)
Résumé : Cette thèse vise à documenter les processus physiques et dynamiques associés à la circulation de mousson vietnamienne d'échelles régionale et synoptique, afin d'étudier la prévisibilité de ses principales composantes et de mettre en place des méthodes statisticodynamiques de prévision des pluies de l'échelle saisonnière à celle des événements. Elle s'articule en deux parties. La première partie est, en fait, une étude climatique fondée sur l'analyse diagnostique des données : - d'abord, les données stationnelles des pluies et des températures mensuelles sur la période 1960-2000 sont utilisées pour analyser le cycle moyen et la variabilité interannuelle de ces champs sur les sept régions climatiques traditionnelles du Vietnam, à l'aide des précipitations observées en diverses stations. Des classifications et des corrélations sont appliquées sur les données de pluies afin de définir les sous-régions sur lesquelles seront calculés des indices spatiaux pour analyser les chroniques d'évolution et définir les prédictants et prédicteurs pour la seconde partie ; - ensuite, les données atmosphériques de réanalyse du NCEP/DOE2 et les estimations pluviométriques du CMAP sur la période 1979-2004 en 2.5° x 2.5° sont utilisées pour décrire les processus de base, le cycle annuel moyen et la variabilité de la mousson dans la gamme des pas de temps synoptiques à interannuel. La seconde partie est une étude de prévisibilité des précipitations saisonnières : - les données de pluie in situ et le vent à 1 000 hPa sont utilisés pour définir l'onset de pluie sur le sud et nord Vietnam. Les dates d'onset sont prévues en se basant sur les indices régionaux qui sont sélectionnées à partir de données NCEP/DOE2 ; - la prévisibilité des cumuls saisonniers de pluies est enfin définie par la double utilisation de cinq modèles couplés du programme européen ENSEMBLES et par la prévision statistique.
90

Reconstruction et prévision déterministe de houle à partir de données mesurées

Blondel-Couprie, Elise 29 October 2009 (has links) (PDF)
La prévision des états de mer est un domaine d'une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en oeuvre. Les modèles de prévision actuels reposent sur une description stochastique de l'état de mer et ne prédisent pas de façon déterministe l'évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d'un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d'améliorer l'efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d'intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d'assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d'ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d'ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l'ordre deux étendu et à l'ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l'amélioration étant d'autant plus probante que la cambrure de la houle et l'ordre du modèle sont élevés.

Page generated in 0.0928 seconds