• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 289
  • 80
  • 17
  • 3
  • Tagged with
  • 401
  • 98
  • 94
  • 88
  • 82
  • 49
  • 49
  • 49
  • 45
  • 38
  • 36
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Évaluation du risque lié aux inondations par modélisation hydrodynamique du ruisseau Pratt

Roy-Poulin, Gabriel 01 February 2021 (has links)
Ce mémoire présente les travaux de recherche ayant trait à la modélisation hydrodynamique du ruisseau Pratt et à l’évaluation du risque lié aux inondations à Coaticook. Quatre chapitres composent ce document. Le contexte de la recherche y est d’abord présenté. L’état des connaissances concernant le cours d’eau complexe qu’est le ruisseau Pratt est synthétisé, notamment son historique d’inondations, ses aspects hydrologiques et hydrauliques ainsi que les solutions envisagées jusqu’ici pour régler les problématiques d’inondations. La construction d’un bassin de rétention et l’érection de murs au centre-ville sont favorisées. Par la suite, la méthodologie employée pour développer des modèles hydrodynamiques 1D et 2D sur HECRAS 5.0 est présentée. Les différentes simulations effectuées pour évaluer le risque lié aux inondations de même que la façon dont ces résultats ont été exploités sont ensuite détaillées. La démarche d’évaluation du dommage moyen annuel (DMA) à l’aide de l’aléa des inondations, de l’exposition des bâtiments et de leur vulnérabilité y est notamment décrite. Le troisième chapitre du mémoire contient les résultats de l’étude. Les étendues d’inondation de même que la cartographie des zones inondables pour trois situations et pour les récurrences de 2, 20 et 100 ans sont présentées. Des séries de cartes exploitant des indicateurs de danger potentiel se trouvent également dans cette section. Enfin, les résultats du calcul du DMA pour différents scénarios sont montrés. Selon ces résultats, le DMA lié aux inondations de la ville de Coaticook se trouverait actuellement entre 145 k $-et 228 k $-an. La construction d’un bassin de rétention pourrait toutefois abaisser ces valeurs de plus de 80 %. Finalement, différentes analyses sont exposées dans le dernier chapitre du mémoire. Un jugement sur la légitimité des résultats qui comprennent des incertitudes importantes est d’abord avancé. Ceux-ci sont estimés réalistes, malgré certaines ambiguïtés. L’écoulement du ruisseau Pratt lors d’inondation est ensuite apprécié à l’aide d’une caractérisation de la propagation des inondations et d’une analyse des résultats de modélisation. Les risques liés aux inondations et la pertinence des mesures de mitigations sont finalement analysés. Techniquement, les risques pourraient être grandement diminués à l’aide du bassin de rétention et de l’érection des murs. La première solution pourrait d’ailleurs être rentable si son coût de construction demeure inférieur à 2,4 M $ -voire 3,7 M $ -en considérant les impacts potentiels des changements climatiques sur le régime hydrologique du ruisseau Pratt. Des risques supplémentaires peuvent toutefois accompagner la mise en place de ses mesures. Ces derniers sont décrits à la fin du quatrième chapitre de ce mémoire.
22

L'impact sur le cerveau du vieillissement cognitivement sain

Pattee-Gravel, Victor 07 December 2020 (has links)
Ce mémoire décrit plusieurs modèles qui cherchent à prédire le vieillissement du cerveau chez des individus âgés ayant une cognition intacte. Nous effectuons d’abord des tests statistiques afin de comparer différents modèles. À partir de ceux-ci, nous présentons des estimés du moment critique à partir duquel certaines structures cérébrales ont décru morphométriquement de façon notable en guise d’indice de fragilité. Nous mesurons également l’asymétrie hémisphérique de la décroissance de chaque région. Nous proposons différentes façons d’ordonnancer les régions du cerveau selon différentes quantités mesurant le taux vieillissement. Finalement, nous établissons un outil qui permet d’évaluer l’âge virtuel correspondant aux mesures cérébrales pour le cerveau d’un individu, selon les estimés de normalité. / In this memoir, we propose different models in order to predict the effect of aging on brain atrophy, computed from neuroimagery data. We begin with different statistical tests in order to chose between models and assert if different regions have significant asymmetry in their development. We then compute critical moments after which we predict that the measures of a region have significantly decreased. We use these critical moments to order the regions, as we suppose it’s a good indicator of fragility in aging. We finish by proposing a method of predicting the neurological age of an individual from it’s neuroimagery data.
23

Hydrological post-processing of streamflow forecasts issued from single-model and multimodel ensemble prediction systems

Xu, Jing 12 July 2021 (has links)
Les simulations et prévisions hydrologiques sont sujettes à diverses sources d'incertitudes, qui sont malheureusement inévitables. La cascade d'incertitude provient de différentes composantes de la chaîne de prévision, telles que la nature chaotique de l'atmosphère, diverses conditions initiales et limites, une modélisation hydrologique conceptuelle nécessairement inexacte et des paramètres stationnaires incohérents avec un environnement en mutation. La prévision d'ensemble s'avère un outil puissant pour représenter la croissance des erreurs dans le système dynamique et pour capter les incertitudes associées aux différentes sources. Thiboult et al. (2016) ont construit un grand ensemble de 50,000 membres qui tient compte de l'incertitude des prévisions météorologiques, de celle des conditions initiales et l’incertitude structurale. Ce vaste ensemble de 50,000 membres peut également être séparé en sous-composants afin de démêler les trois principales sources d’incertitude mentionnées ci-dessus. Emixi Valdez a donc généré un autre H-EPS multimodèles et calibré pour différents bassins hydrographiques suivant un modèle similaire. Cependant, les résultats obtenus ont été simplement agrégés, en considérant les membres équiprobables. Bien que les systèmes de prévision hydrologique multimodèles puissent être considérés comme un système très complet, ils sont néanmoins exposés à d'autres incertitudes. Par exemple, les prévisions météorologiques des recherches de Thiboult et al. (2016) ont été pré-testées sur certains bassins versants. Ces tests ont montré que les performances dues à l'assimilation de données s'estompent rapidement avec l’horizon de prévision. De plus, en réalité, les utilisateurs peuvent ne pas être en mesure d’utiliser parfaitement tous les outils de prévision (c’est-à-dire les prévisions météorologiques d’ensemble, l’assimilation de données et le schéma multimodèle) conjointement. Par conséquent, il existe toujours une place pour l'amélioration permettant d'augmenter la fiabilité et la résolution des prévisions grâce à un post-traitement statistique approprié. L'objectif global de cette recherche est d'explorer l'utilisation appropriée et les compétences prévisionnelles de divers algorithmes statistiques afin de post-traiter séparément les prévisions de débit provenant d’un modèle unique ainsi que les prévisions multimodèles. Premièrement, nous avons testé l’efficacité de méthodes depost-traitement telles que le Affine Kernel Dressing (AKD) et le Non-dominated sorting genetic algorithm II (NSGA-II) en comparant les prévisions post-traitées par ces méthodes aux soties brutes de systèmes de prévision à modèle unique. Ces deux méthodes sont théoriquement / techniquement distinctes, mais partagent toutefois la même caractéristique, à savoir qu’elles ne nécessitent pas d’hypothèse paramétrique concernant la distribution des membres de la prévision d’ensemble. Elles peuvent donc être considérées comme des méthodes de post-traitement non paramétriques. Dans cette étude, l'analyse des fronts de Pareto générés avec NSGA-II a démontré la supériorité de l'ensemble post-traité en éliminant efficacement les biais des prévisions et en maintenant une bonne dispersion pour tous les horizons de prévision. Deux autres méthodes de post-traitement, à savoir le Bayesian Model Averaging (BMA) et le Copula-BMA, ont également été comparées. Ces deux méthodes ont permis d’obtenir des distributions prédictives à partir de prévisions de débit journalier émises par cinq systèmes de prévision d'ensemble hydrologiques différents. Les poids obtenus par la méthode du BMA quantifient le niveau de confiance que l'on peut avoir à l'égard de chaque modèle hydrologique candidat et conduisent à une fonction de densité prédictive (PDF) contenant des informations sur l'incertitude. Le BMA améliore la qualité globale des prévisions, principalement en maintenant la dispersion de l'ensemble avec l’horizon de prévision. Il a également la capacité d’améliorer la fiabilité des systèmes multimodèles qui n’incluent que deux sources d’incertitudes. Le BMA est donc efficace pour améliorer la fiabilité et la résolution des prévisions hydrologiques. Toutefois, le BMA souffre de limitations dues au fait que les fonctions de densité de probabilité conditionnelle (PDF) doivent suivre une distribution paramétrique connue (ex., normale, gamma). Par contre, le modèle prédictif Copula-BMA ne requiert pas une telle hypothèse et élimine aussi l'étape de transformation de puissance, qui est nécessaire pour le BMA. Dans cette étude, onze types de distributions marginales univariées et six fonctions de copule de différents niveaux de complexité ont été explorés dans un cadre Copula-BMA. Cela a permis de représenter de manière exhaustive la structure de dépendance entre des couples de débits prévus et observés. Les résultats démontrent la supériorité du Copula-BMA par rapport au BMA pour réduire le biais dans les prévisions et maintenir une dispersion appropriée pour tous les horizons de prévision. / Hydrological simulations and forecasts are subject to various sources of uncertainties. Forecast uncertainties are unfortunately inevitable when conducting the deterministic analysis of a dynamical system. The cascade of uncertainty originates from different components of the forecasting chain, such as the chaotic nature of the atmosphere, various initial conditions and boundaries, necessarily imperfect hydrologic modeling, and the inconsistent stationnarity assumption in a changing environment. Ensemble forecasting is a powerful tool to represent error growth in the dynamical system and to capture the uncertainties associated with different sources. Thiboult et al. (2016) constructed a 50,000-member great ensemble that accounts for meteorological forcing uncertainty, initial conditions uncertainty, and structural uncertainty. This large ensemble can also be separated into sub-components to untangle the three main sources of uncertainties mentioned above. In asimilar experiment, another multimodel hydrological ensemble forecasting system implemented for different catchments was produced by Emixi Valdez. However,in the latter case, model outputs were simply pooled together, considering the members equiprobable. Although multimodel hydrological ensemble forecasting systems can be considered very comprehensive, they can still underestimate the total uncertainty. For instance, the meteorological forecasts in there search of Thiboult et al. (2016) were pre-tested on some watersheds. It was found out that the forecasting performance of data assimilation fades away quickly as the lead time progresses. In addition, operational forecasts users may not able to perfectly utilize all the forecasting tools (i.e., meteorological ensemble forcing, data assimilation, and multimodel) jointly. Therefore, there is still room for improvement to enhance the forecasting skill of such systems through proper statistical post-processing.The global objective of this research is to explore the proper use and predictive skill of various statistical post-processing algorithms by testing them on single-model and multimodel ensemble stream flow forecasts. First, we tested the post-processing skills of Affine kernel dressing (AKD) and Non-dominated sorting genetic algorithm II (NSGA-II) over single-model H-EPSs. Those two methods are theoretically/technically distinct yet are both non-parametric. They do not require the raw ensemble members to follow a specific parametric distribution.AKD-transformed ensembles and the Pareto fronts generated with NSGA-II demonstrated the superiority of post-processed ensembles compared to raw ensembles. Both methods where efficient at eliminating biases and maintaining a proper dispersion for all forecasting horizons. For multimodel ensembles, two post-processors, namely Bayesian model averaging (BMA) and the integrated copula-BMA, are compared for deriving a pertinent joint predictive distribution of daily streamflow forecasts issued by five different single-model hydrological ensemble prediction systems (H-EPSs). BMA assign weights to different models. Forecasts from all models are then combined to generate more skillful and reliable probabilistic forecasts. BMA weights quantify the level of confidence one can have regarding each candidate hydrological model and lead to a predictive probabilistic density function (PDF) containing information about uncertainty. BMA improves the overall quality of forecasts mainly by maintaining the ensemble dispersion with the lead time. It also improves the reliability and skill of multimodel systems that only include two sources of uncertainties compared to the 50,000-member great ensemble from Thiboult et al (2016). Furthermore, Thiboult et al. (2016) showed that the meteorological forecasts they used were biased and unreliable on some catchments. BMA improves the accuracy and reliability of the hydrological forecasts in that case as well.However, BMA suffers from limitations pertaining to its conditional probability density functions (PDFs), which must follow a known parametric distribution form (e.g., normal, gamma). On the contrary, Copula-BMA predictive model fully relaxes this constraint and also eliminates the power transformation step. In this study, eleven univariate marginal distributions and six copula functions are explored in a Copula-BMA framework for comprehensively reflecting the dependence structure between pairs of forecasted and observed streamflow. Results demonstrate the superiority of the Copula-BMAcompared to BMA in eliminating biases and maintaining an appropriate ensemble dispersion for all lead-times.
24

Allocation des dépenses publiques pour la transformation structurelle

Kuate Fotue, Landry 23 April 2018 (has links)
Dans cette étude nous déterminons quantitativement la structure optimale des dépenses publiques susceptibles de promouvoir ou de soutenir la transformation structurelle d’une économie. Cette analyse est basée sur un modèle de choix d’occupation pour des agents ayant des niveaux de productivité individuelles qui diffèrent les uns des autres, et d’un secteur à un autre. Nous calibrons ce modèle aux données du Canada, pour obtenir les valeurs des agrégats économiques correspondant au statu quo. Ensuite, nous utilisons le modèle ainsi calibré pour jauger la structure optimale de l’allocation des dépenses publiques entre le secteur agricole et le secteur non-agricole. Nos résultats suggèrent que, pour soutenir la transformation structurelle, les dépenses publiques doivent être biaisées en faveur du secteur non-agricole, quel que soit le niveau de développement de l’économie du pays. Ils suggèrent aussi que, par rapport aux pays développés, les gouvernements des pays en développement doivent investir relativement plus en agriculture. Mots-clés : Dépenses publiques, transformation structurelle, choix d’occupation, simulation. JEL : H24 ; H30 ; J24 ; O11.
25

Prévisions d'ensemble à l'échelle saisonnière : mise en place d'une dynamique stochastique / Ensemble predictions at the seasonal time scale : implementation of a stochastic dynamics technique

Saunier-Batté, Lauriane 23 January 2013 (has links)
La prévision d'ensemble à l'échelle saisonnière avec des modèles de circulation générale a connu un essor certain au cours des vingt dernières années avec la croissance exponentielle des capacités de calcul, l'amélioration de la résolution des modèles, et l'introduction progressive dans ceux-ci des différentes composantes (océan, atmosphère, surfaces continentales et glace de mer) régissant l'évolution du climat à cette échelle. Malgré ces efforts, prévoir la température et les précipitations de la saison à venir reste délicat, non seulement sur les latitudes tempérées mais aussi sur des régions sujettes à des aléas climatiques forts comme l'Afrique de l'ouest pendant la saison de mousson. L'une des clés d'une bonne prévision est la prise en compte des incertitudes liées à la formulation des modèles (résolution, paramétrisations, approximations et erreurs). Une méthode éprouvée est l'approche multi-modèle consistant à regrouper les membres de plusieurs modèles couplés en un seul ensemble de grande taille. Cette approche a été mise en œuvre notamment dans le cadre du projet européen ENSEMBLES, et nous montrons qu'elle permet généralement d'améliorer les rétro-prévisions saisonnières des précipitations sur plusieurs régions d'Afrique par rapport aux modèles pris individuellement. On se propose dans le cadre de cette thèse d'étudier une autre piste de prise en compte des incertitudes du modèle couplé CNRM-CM5, consistant à ajouter des perturbations stochastiques de la dynamique du modèle d'atmosphère ARPEGE-Climat. Cette méthode, baptisée “dynamique stochastique”, consiste à introduire des perturbations additives de température, humidité spécifique et vorticité corrigeant des estimations d'erreur de tendance initiale du modèle. Dans cette thèse, deux méthodes d'estimation des erreurs de tendance initiale ont été étudiées, basées sur la méthode de nudging (guidage) du modèle vers des données de référence. Elles donnent des résultats contrastés en termes de scores des rétro-prévisions selon les régions étudiées. Si on estime les corrections d'erreur de tendance initiale par une méthode de nudging itéré du modèle couplé vers les réanalyses ERA-Interim, on améliore significativement les scores sur l'hémisphère Nord en hiver en perturbant les prévisions saisonnières en tirant aléatoirement parmi ces corrections. Cette amélioration est accompagnée d'une nette réduction des biais de la hauteur de géopotentiel à 500 hPa. Une rétro-prévision en utilisant des perturbations dites“optimales” correspondant aux corrections d'erreurs de tendance initiale du mois en cours de prévision montre l'existence d'une information à l'échelle mensuelle qui pourrait permettre de considérablement améliorer les prévisions. La dernière partie de cette thèse explore l'idée d'un conditionnement des perturbations en fonction de l'état du modèle en cours de prévision, afin de se rapprocher si possible des améliorations obtenues avec ces perturbations optimales / Over the last twenty years, research in ensemble predictions at a seasonal timescale using general circulation models has undergone a considerable development due to the exponential growth rate of computing capacities, the improved model resolution and the introduction of more and more components (ocean, atmosphere, land surface and sea-ice) that have an impact on climate at this time scale. Regardless of these efforts, predicting temperature and precipitation for the upcoming season is a difficult task, not only over mid-latitudes but also over regions subject to high climate risk, like West Africa during the monsoon season. One key to improving predictions is to represent model uncertainties (due to resolution, parametrizations, approximations and model error). The multimodel approach is a well-tried method which consists in pooling members from different individual coupled models into a single superensemble. This approach was undertaken as part of the European Commission funded ENSEMBLES project, and we find that it usually improves seasonal precipitation re-forecasts over several regions of Africa with respect to individual model predictions. The main goal of this thesis is to study another approach to addressing model uncertainty in the global coupled model CNRM-CM5, by adding stochastic perturbations to the dynamics of the atmospheric model ARPEGE-Climat. Our method, called “stochastic dynamics”, consists in adding additive perturbations to the temperature, specific humidity and vorticity fields, thus correcting estimations of model initial tendency errors. In this thesis, two initial tendency error estimation techniques were studied, based on nudging the model towards reference data. They yield different results in terms of re-forecast scores, depending on the regions studied. If the initial tendency error corrections are estimated using an iterative nudging method towards the ERA-Interim reanalysis, seasonal prediction scores over the Northern Hemisphere in winter are significantly improved by drawing random corrections. The 500 hPa geopotential height is also clearly reduced. A re-forecast using “optimal” perturbations drawn within the initial tendency error corrections from the current forecast month shows that useful information at a monthly timescale exists, and could allow significant forecast improvement. The last part of this thesis focuses on the idea of classifying the model perturbations according to its current state during the forecast, in order to take a step closer (if possible) to the improvements noted with these optimal perturbations
26

Prévision linéaire des processus à longue mémoire

Godet, Fanny 05 December 2008 (has links) (PDF)
Nous étudions des méthodes de prévision pour les processus à longue mémoire. Ils sont supposés stationnaires du second ordre, linéaires, causals et inversibles. Nous supposons tout d'abord que l'on connaît la loi du processus mais que l'on ne dispose que d'un nombre fini d'observations pour le prédire. Nous proposons alors deux prédicteurs linéaires : celui de Wiener-Kolmogorov tronqué et celui construit par projection sur le passé fini observé. Nous étudions leur comportement lorsque le nombre d'observations disponibles tend vers l'infini. Dans un deuxième temps nous ne supposons plus la loi du processus connue, il nous faut alors estimer les fonctions de prévision obtenues dans la première partie. Pour le prédicteur de Wiener-Kolmogorov tronqué, nous utilisons une approche paramétrique en estimant les coefficients du prédicteur grâce à l'estimateur de Whittle calculé sur une série indépendante de la série à prédire. Pour le prédicteur obtenu par projection, on estime les coefficients du prédicteur en remplaçant dans les équations de Yule-Walker les covariances par les covariances empiriques calculé sur une série indépendante ou sur la série à prédire. Pour les deux prédicteurs, on estime les erreurs quadratiques due à l'estimation des coefficients et on prouve leurs normalités asymptotiques.
27

Prévisions d'ensemble à l'échelle saisonnière : mise en place d'une dynamique stochastique

Saunier-Batté, Lauriane 23 January 2013 (has links) (PDF)
La prévision d'ensemble à l'échelle saisonnière avec des modèles de circulation générale a connu un essor certain au cours des vingt dernières années avec la croissance exponentielle des capacités de calcul, l'amélioration de la résolution des modèles, et l'introduction progressive dans ceux-ci des différentes composantes (océan, atmosphère, surfaces continentales et glace de mer) régissant l'évolution du climat à cette échelle. Malgré ces efforts, prévoir la température et les précipitations de la saison à venir reste délicat, non seulement sur les latitudes tempérées mais aussi sur des régions sujettes à des aléas climatiques forts comme l'Afrique de l'ouest pendant la saison de mousson. L'une des clés d'une bonne prévision est la prise en compte des incertitudes liées à la formulation des modèles (résolution, paramétrisations, approximations et erreurs). Une méthode éprouvée est l'approche multi-modèle consistant à regrouper les membres de plusieurs modèles couplés en un seul ensemble de grande taille. Cette approche a été mise en œuvre notamment dans le cadre du projet européen ENSEMBLES, et nous montrons qu'elle permet généralement d'améliorer les rétro-prévisions saisonnières des précipitations sur plusieurs régions d'Afrique par rapport aux modèles pris individuellement. On se propose dans le cadre de cette thèse d'étudier une autre piste de prise en compte des incertitudes du modèle couplé CNRM-CM5, consistant à ajouter des perturbations stochastiques de la dynamique du modèle d'atmosphère ARPEGE-Climat. Cette méthode, baptisée "dynamique stochastique", consiste à introduire des perturbations additives de température, humidité spécifique et vorticité corrigeant des estimations d'erreur de tendance initiale du modèle. Dans cette thèse, deux méthodes d'estimation des erreurs de tendance initiale ont été étudiées, basées sur la méthode de nudging (guidage) du modèle vers des données de référence. Elles donnent des résultats contrastés en termes de scores des rétro-prévisions selon les régions étudiées. Si on estime les corrections d'erreur de tendance initiale par une méthode de nudging itéré du modèle couplé vers les réanalyses ERA-Interim, on améliore significativement les scores sur l'hémisphère Nord en hiver en perturbant les prévisions saisonnières en tirant aléatoirement parmi ces corrections. Cette amélioration est accompagnée d'une nette réduction des biais de la hauteur de géopotentiel à 500 hPa. Une rétro-prévision en utilisant des perturbations dites"optimales" correspondant aux corrections d'erreurs de tendance initiale du mois en cours de prévision montre l'existence d'une information à l'échelle mensuelle qui pourrait permettre de considérablement améliorer les prévisions. La dernière partie de cette thèse explore l'idée d'un conditionnement des perturbations en fonction de l'état du modèle en cours de prévision, afin de se rapprocher si possible des améliorations obtenues avec ces perturbations optimales
28

Impact d'un modèle de covariance d'erreur de prévision basé sur les fonctions de sensibilité dans un 3D-VAR

Lupu, Cristina January 2006 (has links) (PDF)
Les fonctions de sensibilité dites a posteriori permettent de caractériser des corrections aux conditions initiales qui peuvent réduire significativement l'erreur de prévision à une échéance donnée (typiquement 24 ou 48 heures). L'erreur est ici définie par l'écart à une analyse de vérification et la fonction de sensibilité ne peut donc être calculée qu'a posteriori. De telles structures dépendent de la nature de l'écoulement et ne sont pas prises en compte dans le modèle de covariance d'erreur de prévision stationnaire utilisé dans un système d'assimilation de données variationnelle 3D (3D-Var) comme celui du Centre Météorologique Canadien (CMC). Pour remédier à ceci, Hello et Bouttier (2001) ont introduit une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans ce cas, l'amplitude de cette correction est déterminée en s'ajustant aux observations disponibles. Dans ce projet, une formulation différente est proposée et comparée à celle de Hello et Bouttier (2001). L'algorithme, appelé 3D-Var adapté, est tout d'abord présenté et analysé dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduit dans le 3D-Var du CMC. L'impact du changement apporté a été étudié en utilisant les fonctions de sensibilité a posteriori associées à une prévision manquée sur la côte est de l'Amérique du Nord. En mesurant globalement l'erreur de prévision, la fonction de sensibilité indique qu'il est nécessaire d'apporter des corrections à l'analyse sur différentes régions du globe. Pour le 3D-Var adapté, ceci conduit à une fonction de structure non localisée et l'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. En comparant aux prévisions issues du 3D-Var opérationnel ou de l'analyse de sensibilité, la prévision issue de l'analyse du 3D-Var adapté est améliorée par rapport à celle du 3D-Var conventionel mais nettement moins que celle issue de l'analyse de sensibilité. Par contre, le 3D-Var adapté améliore l'ajustement de l'analyse aux observations alors que l'analyse de sensibilité le dégrade. En localisant la mesure de l'erreur de prévision sur la région correspondant au système météorologique du cas étudié sur la côte est de l'Amérique du Nord, la fonction de sensibilité est maintenant localisée sur une région mieux délimitée (dite région sensible). Il est également possible de varier la fenêtre temporelle utilisée pour définir la fonction de sensibilité. L'impact sur la qualité de l'analyse et des prévisions résultantes a été étudié autant pour l'analyse de sensibilité que pour le 3D-Var adapté. Les résultats montrent que la définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. Les résultats obtenus montrent que l'utilisation des fonctions de sensibilité comme fonctions de structures n'est pas immédiate. Bien que limitées à un seul cas, nos expériences indiquent certaines pistes intéressantes pour définir des fonctions de sensibilité pouvant être utilisées comme fonctions de structures. Ces idées pourraient s'appliquer également aux fonctions de sensibilité a priori.
29

Prévision d'ensemble locale des brouillard et nuages bas à l'aéroport international de Roissy Charles de Gaulle

Roquelaure, Stevie 03 December 2007 (has links) (PDF)
Un système de prévision d'ensemble locale (LEPS-Local Ensemble Prediction System) ciblant la prévision des brouillards et nuages bas sur l'aéroport international de Paris Charles de Gaulle a été développé pour la prévision courte échéance du risque d'occurrence de conditions LVP (Low visibility Procedure – visibilité < 600m et/ou plafond < 60m). Les sources d'incertitudes sur les entrées du modèle numérique COBEL-ISBA ont été identifiées sur les conditions initiales et sur les forçages de mésoéchelle. Une calibration bayesienne (BMA-Bayesian Model Averaging) a été appliquée sur l'ensemble afin d'améliorer la fiabilité du système. La validation de LEPS montre que ce système probabiliste fournit des prévisions fiables de courte échéance du risque d'occurrence de conditions LVP sur l'aéroport de Paris Charles de Gaulle. Si bien que LEPS ouvre des perspectives intéressantes pour la planification des vols, la sécurité et la gestion de la plate-forme aéroportuaire
30

Évaluation du potentiel de croissance des arbres feuillus et de leur sensibilité aux conditions climatiques

Moreau, Guillaume January 2020 (has links)
En Amérique du Nord, la coupe de jardinage a été implantée en réponse à plusieurs décennies de mauvaises pratiques forestières ayant laissé de grandes superficies de peuplements feuillus dégradés et de faible vigueur. Or, l’application de la coupe de jardinage dans un contexte industriel a produit des résultats variés et parfois peu convaincants sur sa capacité à améliorer la vigueur générale des peuplements et à fournir un rendement soutenu en bois de haute valeur. L’objectif général de ce projet de recherche était d’améliorer les prévisions de la croissance et de la mortalité des arbres feuillus à partir d’une meilleure évaluation de leur potentiel de croissance sur pied et de leur sensibilité aux conditions climatiques. Nos résultats ont d’abord montré un effet marginal du taux de dégagement induit par la coupe de jardinage sur la croissance et le taux de survie des arbres résiduels. Ce résultat s’explique en partie par une concentration de la récolte des arbres à l’intérieur et aux abords des sentiers de débardage, laissant ainsi de larges zones non traitées dans les peuplements résiduels. Dans les années suivant l’application du traitement, uniquement 24 % des arbres ont connu une hausse de croissance significative, un pourcentage de réaction de croissance légèrement inférieur à celui induit par les perturbations naturelles au cours des décennies précédentes. Nos analyses ont également montré qu’une réduction marquée de la croissance sur plusieurs décennies précédait 88 % des événements de mortalité post-récolte, et que les prévisions de ces événements pouvaient être significativement améliorées en considérant les tendances de croissance 25 ans avant la coupe. De plus, la présence de défauts affectant la vigueur des arbres au moment de la coupe était positivement reliée à la probabilité de mortalité et négativement reliée à la probabilité d’avoir une hausse de croissance après la coupe. Par ailleurs, nos analyses ont montré qu’une évaluation visuelle de la densité du houppier est l’indicateur le plus efficace pour estimer la vigueur et le potentiel de croissance sur pied de l’érable à sucre. Finalement, nos analyses des relations entre la croissance et les conditions climatiques ont montré un lien fort entre l’occurrence des stress climatiques ponctuels et une diminution de la croissance de l’érable à sucre. Les épisodes de gel-dégel de forte intensité ont été particulièrement dommageables en provoquant des baisses abruptes de la croissance dans les deux régions étudiées. À l’inverse, les analyses provenant des tendances climatiques mensuelles ont indiqué une relation faible et instable dans le temps avec la croissance. Nos résultats indiquent que l’effet synergique d’une accumulation de plusieurs stress climatiques et d’épidémies d’insectes défoliateurs au début des années 1980 a induit un changement important dans la dynamique de croissance de l’érable à sucre et sa réponse aux conditions climatiques mensuelles.

Page generated in 0.0661 seconds