• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 5
  • 3
  • 1
  • 1
  • Tagged with
  • 39
  • 19
  • 14
  • 11
  • 11
  • 10
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Détection des conditions de visibilité et estimation de la distance de visibilité par vision embarquée

Hautiere, Nicolas 30 September 2005 (has links) (PDF)
Les conditions météorologiques dégradées, en particulier le brouillard, posent un problème à la fois aux automobilistes qui ont tendance à surestimer les distances intervéhiculaires, mais aussi aux capteurs extéroceptifs qui fonctionnent de manière dégradée. La détection et la quantification des conditions de visibilité constituent donc un enjeu fort en termes de sécurité routière. Nous proposons deux techniques complémentaires permettant d'effectuer une mesure embarquée de la distance de visibilité par des techniques d'analyse d'images effectuées en temps réel. Elles reposent sur une définition de la distance de visibilité météorologique, distance au delà de laquelle un objet noir de dimensions suffisantes ne peut être reconnu de jour sur le ciel à l'horizon. La première technique, fondée sur un modèle de diffusion atmosphérique, détecte et estime la densité du brouillard diurne en utilisant une seule caméra. La deuxième technique, mettant à profit une propriété générale de l'atmosphère, est capable d'estimer la distance de visibilité par toutes conditions météorologiques, de jour et de nuit, en utilisant, pour sa part, un capteur stéréoscopique. Nous évaluons, d'une part, les méthodes à l'aide d'images réelles acquises sur véhicule sous différentes conditions météorologiques, ce qui constitue une évaluation qualitative du travail réalisé. Nous évaluons d'autre part les méthodes à l'aide d'images acquises sur un site spécifique équipé de mires de référence, conçu et réalisé sur les pistes d'essai de Satory, ce qui constitue une évaluation quantitative.
22

Régime météorologique de l'Antarctique central et son rôle dans la composition isotopique de la neige

Ekaykin, Alexey 23 October 2003 (has links) (PDF)
L'objectif principal du travail présenté ici est d'une part la détermination de la relation entre la température locale de l'air et la composition isotopique de la neige à la station de Vostok (Antarctique de l'Est) et d'autre part la reconstruction de variabilité climatique dans cette région au cours des 200 dernières années. On a produit des données expérimentales concernant la composition isotopique et l'accumulation de la neige à partir de 8 puits creusés à Vostok dont 2 couvrent les 200 dernières années et qui ont été réalisés pendant les saisons d'été 1998/99, 1999/2000 et 2001/02. Le régime météorologique est documenté par les observations instrumentales et les radiosondages de l'atmosphère (depuis Décembre 1957) archivés à l'Institut Recherche Arctique et Antarctique (St. Pétersbourg, Russie). Nous avons aussi utilisé les données d'accumulation de la neige venant du réseau des balises installé à proximité de la station de Vostok en 1970, documenté la distribution spatiale de la teneur isotopique de la neige de surface, mesuré le nivellement de la surface, et étudié la variation de la composition isotopique des précipitations et celle de la neige transportée par vent, qui ont été collectés de Décembre 1999 à Décembre 2000. En comparant les données météorologiques et les données de l'accumulation de la neige, nous avons établi que la plupart des précipitations au centre de l'Antarctique était formée pendant des conditions de "ciel clair" (diamond dust). Par ailleurs les données de sondages aérologiques suggèrent que la température moyenne de condensation à Vostok est très proche de la température de la limite haute de la couche d'inversion. Pour un site donné, on a mis en évidence que la variabilité temporelle de la composition isotopique de la neige est influencé par le relief de la surface de neige (microrelief, "méso-dunes" et probablement méga-dunes). Cet effet diminue considérablement le rapport "signal sur bruit". On met en évidence que les variations saisonnières des teneurs isotopiques des précipitations suivent bien celles de la température locale. L'excès en deutérium varie au cours de l'année et il est, quant à lui, influencé par la source d'évaporation. Pour les 40 dernières années et pour l'échelle de temps multi-décennale, une relation linéaire significative est observée entre la moyenne de la composition isotopique de la neige et la température de l'air près de la surface. Mais pour des échelles de temps plus courtes (10 ans) les variations isotopiques apparaissent dominées par les conditions de la source. Pendant les deux derniers siècles, l'accumulation et la composition isotopique de la neige présentent des fluctuations avec une période de 50 ans environ, qui ont des similarités avec l'indice de l'Oscillation Décennale du Pacifique. Si cela est vérifié, cette relation impliquerait une téléconnection climatique de l'Antarctique centrale avec Pacifique tropical. Par ailleurs, l'excès en deutérium suggère un changement brusque vers 1963 dans la circulation atmosphérique qui alimente la région de Vostok en l'humidité.
23

Validation et étalonnage d'images de télédétection à l'aide de mesures ponctuelles selon une approche géostatique : application à la mesure des précipitations et de l'insolation

Creutin, Jean-Dominique 12 March 1987 (has links) (PDF)
Comment utiliser de manière quantitative l'information fournie par un dispositif de télédétection météorologique afin d'améliorer la mesure conventionnelle donnée par les réseaux de stations au sol ? Pour répondre à cette question, importante d'un point de vue pratique, ce mémoire propose une approche géostatistique permettant, d'une part, de vérifier la qualité des mesures obtenues par chaque dispositif, et d'autre part de combiner les mesures sol aux images de télédétection. Des exemples d'application concernant la mesure des précipitations et de l'insolation sont analysés afin d'illustrer la méthodologie proposée en la comparant à des approches plus traditionnelles. La définition d'un protocole de validation s'appuie sur des rappels de géostatistique classique (Chapitre 1). Ce protocole fixe des valeurs de référence permettant de vérifier les résultats obtenus par un dispositif de mesure d'après différents critères statistiques d'erreur (Chapitre Il). Le système de cokrigeage est décrit en terme de méthode d'étalonnage capable de combiner des mesures ponctuelles et de télédétection (Chapitre IV). Différentes simplifications de cette méthode sont détaillées et rapprochées des méthodes classiques d'étalonnage (Chapitre VII). Les données utilisées pour mettre en oeuvre ces méthodes de validation et d'étalonnage (Chapitres III, V et VII) sont des mesures de précipitations en région tempérée (radar et pluviomètres dans le Bassin Parisien) ou semi-aride (satellites et pluviomètres en Arabie) et des mesures d'insolation en région tempérée (satellite et héliographes en France).
24

Développement de techniques de prévision de pluie basées sur les propriétés multi-échelles des données radar et satellites

Macor, Jose Luis 10 October 2007 (has links) (PDF)
Les précipitations, notamment la pluie, constituent un phénomène naturel qui a un très fort impact socio-économique, surtout lorsqu'elles ont un caractère torrentiel. Pour prendre en compte cet aspect, les systèmes hydrologiques d'alerte et de prévision ont besoin d'une information spatio-temporelle plus détaillée et des prévisions fiables de précipitation à très court terme. Ceci a une importance particulière dans de situations d'urgence (crues éclair, gestion de réseaux d'assainissement urbain, des barrages, etc.). Les champs de nuages et de précipitations demeurent les champs les plus difficiles a simuler pour les actuels modèles de prévision météorologiques. En effet, les échelles spatiotemporelles de ces modèles restent largement supérieures a celles qui sont pertinentes pour les précipitations : les mécanismes des précipitations sont essentiellement parametrisés et les pluies ne sont estimées que sur des échelles relativement grossières. De plus, le temps de mise en route de ces modèles est souvent prohibitif pour des prévisions à court terme. Différentes méthodes statistiques de traitement des images satellites et radar ont été développées pour combler ce déficit de prévision. Ces méthodes prennent en compte un grand nombre d'information à petite échelle, mais elles n'ont pas de base physique, en particulier elles ne prennent pas en compte la dynamique fortement non linéaire des cellules orageuses. Une alternative permettant a priori de dépasser, à l'aide des méthodes multi fractales, les limites des précédentes méthodes a été récemment considérée. Elle est fondée sur les modèles de cascade et prend en compte la hiérarchie des structures ainsi que leurs interactions non linéaires sur une grande gamme d'échelle spatio-temporelles, l'anisotropie entre espace et temps, et causalité. Fondamentalement, les processus de cascade développent des gradients de contenu en eau des plus en plus grands sur des fractions de plus en plus petites de l'espace physique. Ce type de modèles a l'avantage d'avoir un nombre limite de paramètres qui ont une signification physique forte et peuvent être évalues soit théoriquement, soit empiriquement. Dans cette thèse on présente la mise en oeuvre d'une procédure correspondant à cette alternative et son application à l'événement du 8-9 septembre 2002 a Nîmes, en utilisant des données radar fourni par la Direction de la Climatologie de Meteo-France, pour déterminer leurs caractéristiques multi fractales. On présente aussi la mise en oeuvre d'une procédure pour la simulation et prévision de champs de pluie multifractale et l'étude de la loi de perte de prédictibilité attendue.
25

Quels changements organisationels pour l'agriculture Africaine ? Essais sur les réformes des filières cotonnières et les assurances fondées sur des indices météorologiques

Leblois, Antoine 30 November 2012 (has links) (PDF)
Ce travail de thèse présente l'analyse de deux changements organisationnels dans le cas du secteur agricole en Afrique Subsaharienne. Ce travail est composé de cinq chapitres qui peuvent être regroupés en deux parties distinctes. Dans le premier cas il s'agit de la comparaison et de l'estimation de l'impact de réformes institutionnelles au sein du secteur coton en Afrique Sub-Saharienne. Dans le second, de l'étude ex ante d'une innovation organisationnelle récente: les assurances fondées sur des indices météorologiques au sein de la zone soudano-sahélienne. Dans les deux cas ces analyses tentent de répondre à un besoin d'orientation les politiques visant au développement du secteur agricole en Afrique de l'Ouest et plus particulièrement à la question de l'accès au marché du crédit et de l'assurance pour les producteurs, nécessaire pour dépasser le stade de l'agriculture de subsistance (de Janvry et Sadoulet, 2011). Dans le premier chapitre, je passe en revue les réformes des filières cotonnières qui ont eu lieu en Afrique Sub-Saharienne. Je construis trois indices synthétiques de libéralisation: la présence de capitaux privés et le degré de concurrence entre égreneurs ainsi que la flexibilité des prix au cours de la campagne. Ceci nous permet de construire et de valider la base de données utilisée dans le second chapitre. Nous montrons d'abord que les deux vagues de réformes ont été très différentes. La première concerne les pays anglophones, dont le secteur cotonnier a été libéralisé entre 1985 et 1995. La seconde (après 1995) concerne les pays francophones d'Afrique de l'Ouest et du Centre. Nous montrons que ces dernières reposent plus sur une régulation de la filière, conservant de nombreuses caractéristiques des filières intégrées issue de la colonisation, contrairement aux réformes de la première vague de libéralisation. Tout d'abord, la concurrence établie n'est pas réelle puisque l'on voit l'installation de monopsones territoriaux d'égreneurs: les pays étant, dans la plupart des cas, divisés en zones d'opération pour chacun d'eux. Ensuite, les prix d'achat du coton sont encore fixés au semis et garantis jusque la récolte, absorbant les variations intra-saisonnières du prix international. Finalement on observe une rémanence du secteur privé, bien que des parts des sociétés cotonnières soient cédées au privé. Dans un second chapitre nous étudions l'impact de ces réformes sur la performance du secteur du coton dans les 16 principaux producteurs d'Afriques Sub-Saharienne en 2008. Nous utilisons pour cela des données de panel, issu de la FAO, appariées sur la période 1961-2008 à des données météorologiques mensuelles en grille (CRU TS3.1) considérées sur la période de croissance du coton, ce pour chaque année et chaque pays. Chaque cellule de la grille étant pondérée par la densité des surfaces cultivées en coton sur l'ensemble des territoires nationaux. Nous comparons les pays n'ayant pas réformé aux pays ayant régulé, installé une concurrence faible ou encore une concurrence forte. Nous montrons que les réformes menant à une régulation et à une forte concurrence ont un impact significatif sur les surfaces cultivées et les rendements. Ces résultats semblent validés par une estimation du potentiel biais de sélection, source limité d'endogéneité et robustes aux deux spécifications choisies: la première exploitant la dimension dynamique du panel (méthode des moments généralisés, dite GMM) et la seconde étant une analyse en différence de différences (moindres carrés avec effets fixes). Nous montrons d'abord que les réformes tendent à augmenter les rendements, hormis les réformes menant vers un faible niveau de concurrence, pour lequel l'effet des réformes n'est pas significatif. Les pays ayant régulé leur secteur cotonniers ont vu une croissance des surfaces semées en coton après les réformes. Les réformes menant à une forte compétition ont en revanche eu un impact négatif sur les surfaces cultivées, ce qui tend à valider l'approche institutionnelle qui suppose que le crédit aux intrants au semis, sans autre garantie que le coton récolté en fin de campagne, nécessite une relation de coordination qui est mise à mal par la concurrence. De même, comme le montre la littérature sur le sujet (Brambilla et Porto, 2011), il est possible qu'un effet de sélection ait opéré dans ces secteurs les plus concurrentiels, menant à limiter le nombre de producteurs cultivant du coton, aux dépend des producteurs les moins productifs, n'ayant pas accès aux marchés du crédit et de l'assurance. Dans le troisième chapitre nous réalisons une revue de la littérature sur les assurances indi- cielles, recensant les expériences dans les pays en développement, les méthodes sous-jacentes et les questions de recherche qui en découlent. Nous étudions finalement dans les chapitre 4 et 5 le potentiel de telles assurances dans deux cas spécifiques: le mil au Sud-Ouest du Niger et le coton au Nord du Cameroun. Ces assurances constituent une alternative intéressante aux assurances agricoles traditionnelles, coûteuses en raison de l'asymétrie d'information qui les caractérisent et de la nécessité de constater les dommages effectifs. Dans les deux cas nous montrons d'abord qu'accroître la complexité des indices pour mieux appréhender l'impact de la pluviométrie sur les rendements ne semble pas nécessaire. Les résultats, robustes à la cross-validation, corrigeant l'effet de la sur-identification (over-fitting) montre en effets que les gains de l'assurance sont relativement limités, mais surtout qu'il ne sont pas accrus par l'utilisation d'indices plus sophistiqués. Nous montrons aussi, dans le cas du mil, que la prise en compte de la forte variation des rendements au sein du même village est significative et qu'elle joue un rôle important dans le cas d'une fonction utilité concave. Les parcelles cultivées étant situées à moins de 3 kilomètres de la station météorologique, ce risque de base est bien dû à la présence de chocs idiosyncratiques (maladies, ravageurs...) ou à l'hétérogénéité des agents et des parcelles et non à un choc météorologique. Ce résultat tend à montrer que l'existence de ce risque de base résiduel, peut limiter la demande pour ce type d'assurance, en présence d'aversion pour le risque. Il s'inscrit dans la suite des travaux de Clarke (2011) qui montre que l'absence d'indemnisation, en cas de mauvais rendements, peut rendre l'assurance désavantageuse du fait du paiement de la prime (ce que j'appelle une erreur de type I). Ces résultats doivent être interprétés à la lumière du faible intérêt des producteurs pour ce genre de produits observés dans les récentes, mais néanmoins nombreuses, études ex post. Finalement, toujours dans ce premier cas, l'utilisation de données sur des parcelles fertilisées permet de montrer que ces résultats ne sont pas radicalement modifiés par la prise en compte d'une potentielle intensification des cultures, rendant pourtant la culture de mil plus risquée, et donc l'assurance plus intéressante. Dans le second cas, le coton, nous utilisons d'abord une expérimentation de terrain mettant en œuvre des jeux de loteries (inspiré de Holt et Laury, 2002), pour estimer la distribution des paramètres d'aversion pour le risque des producteurs. Nous montrons d'abord que, dans ce cas, l'effet de l'imparfaite corrélation des rendements et de l'indice météorologique choisi sur le gain en équivalent certain des producteurs, est significatif. C'est en particulier le cas dans les zones les plus humides ou montrant un climat spécifique. Contrairement au cas du mil au Niger, assurer les producteurs de coton semble nécessiter l'observation de la date de semis, dont le simulation ne semble pas nécessaire ou inadéquate vu les contraintes institutionnelles du secteur (comme par exemple les retards de livraison de graines et d'intrants). Nous remarquons ensuite que l'échelle d'étude étant plus importante dans le cas du coton au Cameroun, l'assurance risque de mener à des péréquations non désirées, par exemple des zone les plus humides envers les zones plus arides. Finalement nous observons, dans le cas du coton au Cameroun, que le gain apporté par la stabilisation des rendements est similaire, voire inférieur, à celui apporté par la stabilisation intra-saisonnière des prix qui a lieu aujourd'hui dans la filière Camerounaise intégrée (la Sodecoton détenant le monopole d'achat du coton graine au Cameroun). En effet, en annonçant le prix de vente au moment du semis, la société offre implicitement aux producteurs une assurance contre les variations du prix international au cours de la campagne. J'ai donc montré certaines limites intrinsèques aux mécanismes d'assurance fondés sur des indices météorologiques, en dépit de l'appréhension de la forte variabilité spatiale qui caractérise le climat soudano-sahélien au sein duquel les deux terrains se situent. Nous disposons en effet, dans les deux cas, d'une densité de stations météorologiques unique dans la région permettant de limiter le risque de base spatial. Ces résultats ne prennent toutefois pas en compte les effets indirects de l'assurance qui, lorsqu'elle est offerte conjointement avec un crédit aux intrants, peut baisser le prix de ce dernier, en limitant la probabilité de défaut en cas de sécheresse. J'ai par ailleurs aussi montré l'importance de l'accès au crédit pour les producteurs de coton ainsi que l'intérêt de la couverture contre le risque de variation du prix international dans le cas des cultures de rentes.
26

Amélioration des estimations quantitatives des précipitations à hautes résolutions : comparaison de deux techniques combinant les observations et application à la vérification spatiale des modèles météorologiques

Legorgeu, Carole 18 June 2013 (has links) (PDF)
Ces dernières années, de nombreux efforts ont été entrepris pour mieux comprendre les phénomènes précipitants parfois à l'origine de crues de cours d'eau et d'inondations ravageuses. Courant 2009, un consortium auvergnat a été mis en place pour notamment surveiller et prévoir ces événements. Les travaux menés dans cette thèse visent d'une part à améliorer les estimations quantitatives des précipitations (QPE) et d'autre part à vérifier les prévisions issues de modèles numériques sur de petites zones d'étude telles qu'une agglomération. L'observation des précipitations peut être réalisée à l'aide soit d'un pluviomètre qui fournit une mesure directe et précise de la quantité de pluie tombée au sol mais ne renseigne pas sur la variabilité spatiale des pluies soit d'un RADAR météorologique qui donne une représentation détaillée de la structure spatiale des précipitations mais dont les estimations sont sujettes à diverses erreurs d'autant plus prononcées en régions montagneuses. Le premier défit de cette thèse a été de trouver la meilleure façon de combiner ces deux informations complémentaires. Deux techniques géostatistiques ont été sélectionnées pour obtenir la meilleur QPE : le krigeage avec dérive externe (KED) et la fusion conditionnée (MERG). Les performances de ces deux méthodes ont été comparées au travers de deux domaines d'étude qui présentent des résolutions spatio-temporelles différentes. La seconde partie de cette thèse est consacrée à la mise en place d'une méthodologie fiable permettant de comparer spatialement les champs de QPE alors reconstruits et les prévisions quantitatives des précipitations (QPF). L'effort fut porté sur le modèle " Weather Research et Forcasting " (WRF). Une étude préliminaire a été réalisée pour tester les capacités du modèle et plus particulièrement des schémas de microphysique à reproduire la pluie. Cette étude assure ainsi l'obtention de prévisions réalistes pour une application sur des cas réels. L'appréciation de la qualité des QPF s'est focalisée sur la quantification spatiale des erreurs de prévision en termes de structure, d'intensité et de localisation des systèmes précipitants (SAL : Wernli et al. 2008, 2009).
27

Développement et évaluation d'un modèle tridimensionnel de nuage mixte à microphysique détaillée : application aux précipitations orographiques

Planche, Céline 23 June 2011 (has links) (PDF)
La prévision quantitative des précipitations à l'aide des modèles météorologiques reste encore un grand défi posé à la communauté des sciences atmosphériques. En effet, deux problèmes majeurs sont généralement identifiés pour la prévision opérationnelle des précipitations et du climat : les interactions des systèmes précipitants avec le relief et avec la pollution. Cette thèse contribue à l'amélioration des prévisions de pluies. La stratégie adoptée est d'étudier des évènements précipitants en zones montagneuses en décrivant au mieux les interactions aérosol-nuage-précipitation à l'aide du modèle à microphysique mixte détaillée : DEtailed SCAvenging Model (DESCAM, Flossmann et Wobrock (2010)). Ce modèle utilise cinq distributions pour représenter les particules d'aérosol résiduelles et interstitielles ainsi que les gouttes et cristaux de glace. Le modèle a directement été comparé aux observations réalisées au cours de la campagne expérimentale COPS (Convective and Orographically induced Precipitation Study), qui a eu lieu pendant l'été 2007 à la frontière franco-allemande. En particulier, les simulations des pluies ont été comparées avec des observations de différents radars afin d'évaluer les performances du modèle mais aussi d'aider à l'interprétation des réflectivités de la bande brillante. La sensibilité par rapport à la pollution particulaire a été étudiée pour les propriétés des nuages et des précipitations. Pour les cas étudiés, plus le nombre des particules d'aérosol présentes dans l'atmosphère est important et plus leur solubilité est élevée, plus les précipitations au sol sont faibles. Ces comportements globaux peuvent toutefois être localement différents. Il existe donc des interactions plus complexes entre les particules d'aérosol, les nuages et les précipitations qui doivent être encore plus approfondies.
28

Modélisation hydrologique distribuée des crues en région Cévennes-Vivarais : impact des incertitudes liées à l'estimation des précipitations et à la paramétrisation du modèle / Distributed hydrological modeling of floods in the Cévennes-Vivarais region : impact of uncertainties related to precipitation estimation and model parameterization / Modelización hidrológica distribuida de crecidas en la región del Cévennes-Vivarais : impacto de incertidumbres ligadas a la estimación de la precipitación y a la parametrización del modelo

Navas Nunez, Rafael 06 October 2017 (has links)
Il est connu qu’avoir un système d’observation de la pluie de haute résolution spatio – temporelle est crucial pour obtenir de bons résultats dans la modélisation pluie – écoulement. Le radar est un outil qui donne des estimations quantitatives de precipitation avec une très bonne résolution. Lorsqu’il est fusionné avec un réseau des pluviomètres les avantages des deux systèmes sont obtenus. Cependant, les estimations fournies par le radar ont des incertitudes différentes à celles qui sont obtenus avec les pluviomètres. Dans le processus de calcul pluie – écoulement l'incertitude des précipitations interagit avec l'incertitude du modèle hydrologique. L’objectif de ce travail est d’étudier les méthodes utilisées pour quantifier l'incertitude dans l'estimation des précipitations par fusion radar – pluviomètres et de l'incertitude dans la modélisation hydrologique, afin de développer une méthodologie d'analyse de leurs contributions individuelles au traitement pluie - écoulement.Le travail est divisé en deux parties, la première cherche à évaluer: Comment peut-on quantifier l'incertitude de l'estimation des précipitations par radar? Pour répondre à la question, l'approche géostatistique par Krigeage avec Dérive Externe (KED) et Génération Stochastique de la précipitation a été utilisée, qui permet de modéliser la structure spatio – temporaire de l’erreur. La méthode a été appliquée dans la région des Cévennes - Vivarais (France), où il y a un système très dense d'observation. La deuxième partie explique: Comment pourrais être quantifiée l'incertitude de la simulation hydrologique qui provient de l'estimation de précipitation par radar et du processus de modélisation hydrologique? Dans ce point, l'outil de calcul hydrologique à Mesoéchelle (HCHM) a été développé, c’est un logiciel hydrologique distribuée et temps continu, basé sur le Numéro de Courbe et l’Hydrographe Unitaire. Il a été appliqué dans 20 résolutions spatio - temporelles allant de 10 à 300 km2 et 1 à 6 heures dans les bassins de l’Ardèche (~ 1971 km2) et le Gardon (1810 km2). Apres une analyse de sensibilité, le modèle a été simplifié avec 4 paramètres et l’incertitude de la chaîne de processus a été analysée: 1) Estimation de precipitation; 2) Modélisation hydrologique; et 3) Traitement pluie - écoulement, par l’utilisation du coefficient de variation de l'écoulement simulé.Il a été montré que KED est une méthode qui fournit l’écart type de l’estimation des précipitations, lequel peut être transformé dans une estimation stochastique de l’erreur locale. Dans la chaîne des processus: 1) L'incertitude dans l'estimation de précipitation augmente avec la réduction de l’échelle spatio – temporelle, et son effet est atténué par la modélisation hydrologique, vraisemblablement par les propriétés de stockage et de transport du bassin ; 2) L'incertitude de la modélisation hydrologique dépend de la simplification des processus hydrologiques et pas de la surface du bassin ; 3) L'incertitude dans le traitement pluie - écoulement est le résultat de la combinaison amplifiée des incertitudes de la précipitation et la modélisation hydrologique. / It is known that having a precipitation observation system at high space - time resolution is crucial to obtain good results in rainfall - runoff modeling. Radar is a tool that offers quantitative precipitation estimates with very good resolution. When it is merged with a rain gauge network the advantages of both systems are achieved. However, radars estimates have different uncertainties than those obtained with the rain gauge. In the modeling process, uncertainty of precipitation interacts with uncertainty of the hydrological model. The objective of this work is: To study methods used to quantify the uncertainty in radar – raingauge merge precipitation estimation and uncertainty in hydrological modeling, in order to develop a methodology for the analysis of their individual contributions in the uncertainty of rainfall - runoff estimation.The work is divided in two parts, the first one evaluates: How the uncertainty of radar precipitation estimation can be quantified? To address the question, the geostatistical approach by Kriging with External Drift (KED) and Stochastic Generation of Precipitation was used, which allows to model the spatio - temporal structure of errors. The method was applied in the Cévennes - Vivarais region (France), where there is a very rich observation system. The second part explains: How can it be quantified the uncertainty of the hydrological simulation coming from the radar precipitation estimates and hydrological modeling process? In this point, the hydrological mesoscale computation tool was developed; it is distributed hydrological software in time continuous, within the basis of the Curve Number and the Unit Hydrograph. It was applied in 20 spatio-temporal resolutions ranging from 10 to 300 km2 and 1 to 6 hours in the Ardèche (~ 1971 km2) and the Gardon (1810 km2) basins. After a sensitivity analysis, the model was simplified with 4 parameters and the uncertainty of the chain of process was analyzed: 1) Precipitation estimation; 2) Hydrological modeling; and 3) Rainfall - runoff estimation, by using the coefficient of variation of the simulated flow.It has been shown that KED is a method that provides the standard deviation of the precipitation estimation, which can be transformed into a stochastic estimation of the local error. In the chain of processes: 1) Uncertainty in precipitation estimation increases with decreasing spatio-temporal scale, and its effect is attenuated by hydrological modeling, probably due by storage and transport properties of the basin; 2) The uncertainty of hydrological modeling depends on the simplification of hydrological processes and not on the surface of the basin; 3) Uncertainty in rainfall - runoff treatment is the result of the amplified combination of precipitation and hydrologic modeling uncertainties.
29

Développement et évaluation d'un modèle tridimensionnel de nuage mixte à microphysique détaillée : application aux précipitations orographiques / Development and evaluation of a 3D mixed phase cloud scale model with detailed microphysics : Application to the orographic precipitations

Planche, Céline 23 June 2011 (has links)
La prévision quantitative des précipitations à l’aide des modèles météorologiques reste encore un grand défi posé à la communauté des sciences atmosphériques. En effet, deux problèmes majeurs sont généralement identifiés pour la prévision opérationnelle des précipitations et du climat : les interactions des systèmes précipitants avec le relief et avec la pollution. Cette thèse contribue à l’amélioration des prévisions de pluies. La stratégie adoptée est d’étudier des évènements précipitants en zones montagneuses en décrivant au mieux les interactions aérosol-nuage-précipitation à l’aide du modèle à microphysique mixte détaillée : DEtailed SCAvenging Model (DESCAM, Flossmann et Wobrock (2010)). Ce modèle utilise cinq distributions pour représenter les particules d’aérosol résiduelles et interstitielles ainsi que les gouttes et cristaux de glace. Le modèle a directement été comparé aux observations réalisées au cours de la campagne expérimentale COPS (Convective and Orographically induced Precipitation Study), qui a eu lieu pendant l’été 2007 à la frontière franco-allemande. En particulier, les simulations des pluies ont été comparées avec des observations de différents radars afin d’évaluer les performances du modèle mais aussi d’aider à l’interprétation des réflectivités de la bande brillante. La sensibilité par rapport à la pollution particulaire a été étudiée pour les propriétés des nuages et des précipitations. Pour les cas étudiés, plus le nombre des particules d’aérosol présentes dans l’atmosphère est important et plus leur solubilité est élevée, plus les précipitations au sol sont faibles. Ces comportements globaux peuvent toutefois être localement différents. Il existe donc des interactions plus complexes entre les particules d’aérosol, les nuages et les précipitations qui doivent être encore plus approfondies. / The quantitative precipitation forecast is still an important challenge for the atmospheric community. Indeed, two main problems are generally identified for weather and climate models : the interactions of the cloud systems with the topography and with pollution. This work contributes towards the improvement of the precipitation forecasts. The strategy used was to study the convective system over an area with a complex topography using the detailed microphysics scheme DEtailed SCAvenging Model (DESCAM, Flossmann and Wobrock (2010)) to better describe the aerosol-cloud-precipitation interactions. This microphysical scheme follows the evolution of the aerosol particle, drop and ice crystal distributions. Aerosol mass in drops and ice crystals is predicted by two distributions functions in order to close the aerosol budget. The model simulation results are compared with observations from COPS campaign (Convective and Orographically induced Precipitation Study), which took place at the French-German boarder during summer 2007. Rain simulations were compared with available radar data to evaluate the model’s performances and help the interpretation of the radar reflectivity in the bright band level. Sensitivity with respect to the particulate pollution was studied for in-cloud and precipitation properties. For the cases studied, the higher the aerosol particle number in the atmosphere or the higher the solubility of the aerosol particles, the weakest are the precipitation at the ground. These global behaviours of precipitation on the ground could be locally different. Consequently, the aerosol-cloud-precipitation interactions are complex and more in-depth studies are necessary.
30

Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grille

Zamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.

Page generated in 0.2631 seconds