• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Prévisions robustes pour séries temporelles multivariées

Gagné, Christian January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
22

Allocation des dépenses publiques pour la transformation structurelle

Kuate Fotue, Landry 23 April 2018 (has links)
Dans cette étude nous déterminons quantitativement la structure optimale des dépenses publiques susceptibles de promouvoir ou de soutenir la transformation structurelle d’une économie. Cette analyse est basée sur un modèle de choix d’occupation pour des agents ayant des niveaux de productivité individuelles qui diffèrent les uns des autres, et d’un secteur à un autre. Nous calibrons ce modèle aux données du Canada, pour obtenir les valeurs des agrégats économiques correspondant au statu quo. Ensuite, nous utilisons le modèle ainsi calibré pour jauger la structure optimale de l’allocation des dépenses publiques entre le secteur agricole et le secteur non-agricole. Nos résultats suggèrent que, pour soutenir la transformation structurelle, les dépenses publiques doivent être biaisées en faveur du secteur non-agricole, quel que soit le niveau de développement de l’économie du pays. Ils suggèrent aussi que, par rapport aux pays développés, les gouvernements des pays en développement doivent investir relativement plus en agriculture. Mots-clés : Dépenses publiques, transformation structurelle, choix d’occupation, simulation. JEL : H24 ; H30 ; J24 ; O11.
23

L'outil RBAC et la prédiction de la récidive criminelle : une analyse par l'intelligence artificielle

Bacon, Félix 04 June 2024 (has links)
L'objectif de la recherche est de fournir un cadre d'analyse supplémentaire aux commissaires à la libération conditionnelle de façon à mieux prédire la probabilité de récidives au Québec. Dans la recherche, nous travaillons avec plusieurs modèles d'intelligence artificielle dans le but de classer les détenus dans les prisons Québécoises. La classification est binaire, soit nous prédisons que le détenu a une probabilité élevée de commettre une récidive ; soit le cas contraire. Les évaluations réalisées sur les prisonniers sont au cœur de la recherche. Les documents remplis par les évaluateurs permettent d'établir un score basé sur la réponse aux questions. Au Québec, le nom de cette évaluation est le RBAC-PCQ et c'est celle-ci qui remplace son prédécesseur le LS-CMI. À l'aide de celle-ci, nous avons programmé plusieurs algorithmes ayant comme objectif de classifier les détenus. Grâce aux informations qui nous étaient fournies, nous avons commencé par établir la règle de décision générale permettant de reproduire la situation actuelle du Québec et nous l'avons ensuite comparé avec un modèle logistique de régression. Les résultats à ce stade démontraient une nette amélioration de la classification des détenus. Nous avons ensuite développé plusieurs modèles d'apprentissage machine afin d'approfondir la qualité de classification des détenus. Au final, l'analyse des modèles permet d'arriver à la conclusion que seulement 6 questions sont importantes pour établir la probabilité de récidive au Québec.
24

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 13 December 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
25

Hydrological post-processing of streamflow forecasts issued from single-model and multimodel ensemble prediction systems

Xu, Jing 10 February 2024 (has links)
Les simulations et prévisions hydrologiques sont sujettes à diverses sources d'incertitudes, qui sont malheureusement inévitables. La cascade d'incertitude provient de différentes composantes de la chaîne de prévision, telles que la nature chaotique de l'atmosphère, diverses conditions initiales et limites, une modélisation hydrologique conceptuelle nécessairement inexacte et des paramètres stationnaires incohérents avec un environnement en mutation. La prévision d'ensemble s'avère un outil puissant pour représenter la croissance des erreurs dans le système dynamique et pour capter les incertitudes associées aux différentes sources. Thiboult et al. (2016) ont construit un grand ensemble de 50,000 membres qui tient compte de l'incertitude des prévisions météorologiques, de celle des conditions initiales et l’incertitude structurale. Ce vaste ensemble de 50,000 membres peut également être séparé en sous-composants afin de démêler les trois principales sources d’incertitude mentionnées ci-dessus. Emixi Valdez a donc généré un autre H-EPS multimodèles et calibré pour différents bassins hydrographiques suivant un modèle similaire. Cependant, les résultats obtenus ont été simplement agrégés, en considérant les membres équiprobables. Bien que les systèmes de prévision hydrologique multimodèles puissent être considérés comme un système très complet, ils sont néanmoins exposés à d'autres incertitudes. Par exemple, les prévisions météorologiques des recherches de Thiboult et al. (2016) ont été pré-testées sur certains bassins versants. Ces tests ont montré que les performances dues à l'assimilation de données s'estompent rapidement avec l’horizon de prévision. De plus, en réalité, les utilisateurs peuvent ne pas être en mesure d’utiliser parfaitement tous les outils de prévision (c’est-à-dire les prévisions météorologiques d’ensemble, l’assimilation de données et le schéma multimodèle) conjointement. Par conséquent, il existe toujours une place pour l'amélioration permettant d'augmenter la fiabilité et la résolution des prévisions grâce à un post-traitement statistique approprié. L'objectif global de cette recherche est d'explorer l'utilisation appropriée et les compétences prévisionnelles de divers algorithmes statistiques afin de post-traiter séparément les prévisions de débit provenant d’un modèle unique ainsi que les prévisions multimodèles. Premièrement, nous avons testé l’efficacité de méthodes depost-traitement telles que le Affine Kernel Dressing (AKD) et le Non-dominated sorting genetic algorithm II (NSGA-II) en comparant les prévisions post-traitées par ces méthodes aux soties brutes de systèmes de prévision à modèle unique. Ces deux méthodes sont théoriquement / techniquement distinctes, mais partagent toutefois la même caractéristique, à savoir qu’elles ne nécessitent pas d’hypothèse paramétrique concernant la distribution des membres de la prévision d’ensemble. Elles peuvent donc être considérées comme des méthodes de post-traitement non paramétriques. Dans cette étude, l'analyse des fronts de Pareto générés avec NSGA-II a démontré la supériorité de l'ensemble post-traité en éliminant efficacement les biais des prévisions et en maintenant une bonne dispersion pour tous les horizons de prévision. Deux autres méthodes de post-traitement, à savoir le Bayesian Model Averaging (BMA) et le Copula-BMA, ont également été comparées. Ces deux méthodes ont permis d’obtenir des distributions prédictives à partir de prévisions de débit journalier émises par cinq systèmes de prévision d'ensemble hydrologiques différents. Les poids obtenus par la méthode du BMA quantifient le niveau de confiance que l'on peut avoir à l'égard de chaque modèle hydrologique candidat et conduisent à une fonction de densité prédictive (PDF) contenant des informations sur l'incertitude. Le BMA améliore la qualité globale des prévisions, principalement en maintenant la dispersion de l'ensemble avec l’horizon de prévision. Il a également la capacité d’améliorer la fiabilité des systèmes multimodèles qui n’incluent que deux sources d’incertitudes. Le BMA est donc efficace pour améliorer la fiabilité et la résolution des prévisions hydrologiques. Toutefois, le BMA souffre de limitations dues au fait que les fonctions de densité de probabilité conditionnelle (PDF) doivent suivre une distribution paramétrique connue (ex., normale, gamma). Par contre, le modèle prédictif Copula-BMA ne requiert pas une telle hypothèse et élimine aussi l'étape de transformation de puissance, qui est nécessaire pour le BMA. Dans cette étude, onze types de distributions marginales univariées et six fonctions de copule de différents niveaux de complexité ont été explorés dans un cadre Copula-BMA. Cela a permis de représenter de manière exhaustive la structure de dépendance entre des couples de débits prévus et observés. Les résultats démontrent la supériorité du Copula-BMA par rapport au BMA pour réduire le biais dans les prévisions et maintenir une dispersion appropriée pour tous les horizons de prévision. / Hydrological simulations and forecasts are subject to various sources of uncertainties. Forecast uncertainties are unfortunately inevitable when conducting the deterministic analysis of a dynamical system. The cascade of uncertainty originates from different components of the forecasting chain, such as the chaotic nature of the atmosphere, various initial conditions and boundaries, necessarily imperfect hydrologic modeling, and the inconsistent stationnarity assumption in a changing environment. Ensemble forecasting is a powerful tool to represent error growth in the dynamical system and to capture the uncertainties associated with different sources. Thiboult et al. (2016) constructed a 50,000-member great ensemble that accounts for meteorological forcing uncertainty, initial conditions uncertainty, and structural uncertainty. This large ensemble can also be separated into sub-components to untangle the three main sources of uncertainties mentioned above. In asimilar experiment, another multimodel hydrological ensemble forecasting system implemented for different catchments was produced by Emixi Valdez. However,in the latter case, model outputs were simply pooled together, considering the members equiprobable. Although multimodel hydrological ensemble forecasting systems can be considered very comprehensive, they can still underestimate the total uncertainty. For instance, the meteorological forecasts in there search of Thiboult et al. (2016) were pre-tested on some watersheds. It was found out that the forecasting performance of data assimilation fades away quickly as the lead time progresses. In addition, operational forecasts users may not able to perfectly utilize all the forecasting tools (i.e., meteorological ensemble forcing, data assimilation, and multimodel) jointly. Therefore, there is still room for improvement to enhance the forecasting skill of such systems through proper statistical post-processing.The global objective of this research is to explore the proper use and predictive skill of various statistical post-processing algorithms by testing them on single-model and multimodel ensemble stream flow forecasts. First, we tested the post-processing skills of Affine kernel dressing (AKD) and Non-dominated sorting genetic algorithm II (NSGA-II) over single-model H-EPSs. Those two methods are theoretically/technically distinct yet are both non-parametric. They do not require the raw ensemble members to follow a specific parametric distribution.AKD-transformed ensembles and the Pareto fronts generated with NSGA-II demonstrated the superiority of post-processed ensembles compared to raw ensembles. Both methods where efficient at eliminating biases and maintaining a proper dispersion for all forecasting horizons. For multimodel ensembles, two post-processors, namely Bayesian model averaging (BMA) and the integrated copula-BMA, are compared for deriving a pertinent joint predictive distribution of daily streamflow forecasts issued by five different single-model hydrological ensemble prediction systems (H-EPSs). BMA assign weights to different models. Forecasts from all models are then combined to generate more skillful and reliable probabilistic forecasts. BMA weights quantify the level of confidence one can have regarding each candidate hydrological model and lead to a predictive probabilistic density function (PDF) containing information about uncertainty. BMA improves the overall quality of forecasts mainly by maintaining the ensemble dispersion with the lead time. It also improves the reliability and skill of multimodel systems that only include two sources of uncertainties compared to the 50,000-member great ensemble from Thiboult et al (2016). Furthermore, Thiboult et al. (2016) showed that the meteorological forecasts they used were biased and unreliable on some catchments. BMA improves the accuracy and reliability of the hydrological forecasts in that case as well.However, BMA suffers from limitations pertaining to its conditional probability density functions (PDFs), which must follow a known parametric distribution form (e.g., normal, gamma). On the contrary, Copula-BMA predictive model fully relaxes this constraint and also eliminates the power transformation step. In this study, eleven univariate marginal distributions and six copula functions are explored in a Copula-BMA framework for comprehensively reflecting the dependence structure between pairs of forecasted and observed streamflow. Results demonstrate the superiority of the Copula-BMAcompared to BMA in eliminating biases and maintaining an appropriate ensemble dispersion for all lead-times.
26

Évaluation du risque lié aux inondations par modélisation hydrodynamique du ruisseau Pratt

Roy-Poulin, Gabriel 27 January 2024 (has links)
Ce mémoire présente les travaux de recherche ayant trait à la modélisation hydrodynamique du ruisseau Pratt et à l’évaluation du risque lié aux inondations à Coaticook. Quatre chapitres composent ce document. Le contexte de la recherche y est d’abord présenté. L’état des connaissances concernant le cours d’eau complexe qu’est le ruisseau Pratt est synthétisé, notamment son historique d’inondations, ses aspects hydrologiques et hydrauliques ainsi que les solutions envisagées jusqu’ici pour régler les problématiques d’inondations. La construction d’un bassin de rétention et l’érection de murs au centre-ville sont favorisées. Par la suite, la méthodologie employée pour développer des modèles hydrodynamiques 1D et 2D sur HECRAS 5.0 est présentée. Les différentes simulations effectuées pour évaluer le risque lié aux inondations de même que la façon dont ces résultats ont été exploités sont ensuite détaillées. La démarche d’évaluation du dommage moyen annuel (DMA) à l’aide de l’aléa des inondations, de l’exposition des bâtiments et de leur vulnérabilité y est notamment décrite. Le troisième chapitre du mémoire contient les résultats de l’étude. Les étendues d’inondation de même que la cartographie des zones inondables pour trois situations et pour les récurrences de 2, 20 et 100 ans sont présentées. Des séries de cartes exploitant des indicateurs de danger potentiel se trouvent également dans cette section. Enfin, les résultats du calcul du DMA pour différents scénarios sont montrés. Selon ces résultats, le DMA lié aux inondations de la ville de Coaticook se trouverait actuellement entre 145 k $-et 228 k $-an. La construction d’un bassin de rétention pourrait toutefois abaisser ces valeurs de plus de 80 %. Finalement, différentes analyses sont exposées dans le dernier chapitre du mémoire. Un jugement sur la légitimité des résultats qui comprennent des incertitudes importantes est d’abord avancé. Ceux-ci sont estimés réalistes, malgré certaines ambiguïtés. L’écoulement du ruisseau Pratt lors d’inondation est ensuite apprécié à l’aide d’une caractérisation de la propagation des inondations et d’une analyse des résultats de modélisation. Les risques liés aux inondations et la pertinence des mesures de mitigations sont finalement analysés. Techniquement, les risques pourraient être grandement diminués à l’aide du bassin de rétention et de l’érection des murs. La première solution pourrait d’ailleurs être rentable si son coût de construction demeure inférieur à 2,4 M $ -voire 3,7 M $ -en considérant les impacts potentiels des changements climatiques sur le régime hydrologique du ruisseau Pratt. Des risques supplémentaires peuvent toutefois accompagner la mise en place de ses mesures. Ces derniers sont décrits à la fin du quatrième chapitre de ce mémoire.
27

L'impact sur le cerveau du vieillissement cognitivement sain

Pattee-Gravel, Victor 10 February 2024 (has links)
Ce mémoire décrit plusieurs modèles qui cherchent à prédire le vieillissement du cerveau chez des individus âgés ayant une cognition intacte. Nous effectuons d’abord des tests statistiques afin de comparer différents modèles. À partir de ceux-ci, nous présentons des estimés du moment critique à partir duquel certaines structures cérébrales ont décru morphométriquement de façon notable en guise d’indice de fragilité. Nous mesurons également l’asymétrie hémisphérique de la décroissance de chaque région. Nous proposons différentes façons d’ordonnancer les régions du cerveau selon différentes quantités mesurant le taux vieillissement. Finalement, nous établissons un outil qui permet d’évaluer l’âge virtuel correspondant aux mesures cérébrales pour le cerveau d’un individu, selon les estimés de normalité. / In this memoir, we propose different models in order to predict the effect of aging on brain atrophy, computed from neuroimagery data. We begin with different statistical tests in order to chose between models and assert if different regions have significant asymmetry in their development. We then compute critical moments after which we predict that the measures of a region have significantly decreased. We use these critical moments to order the regions, as we suppose it’s a good indicator of fragility in aging. We finish by proposing a method of predicting the neurological age of an individual from it’s neuroimagery data.
28

Prévision humaine de séries temporelles

Gagnon, Jean-François 20 April 2018 (has links)
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
29

Prévisions d'ensemble à l'échelle saisonnière : mise en place d'une dynamique stochastique / Ensemble predictions at the seasonal time scale : implementation of a stochastic dynamics technique

Saunier-Batté, Lauriane 23 January 2013 (has links)
La prévision d'ensemble à l'échelle saisonnière avec des modèles de circulation générale a connu un essor certain au cours des vingt dernières années avec la croissance exponentielle des capacités de calcul, l'amélioration de la résolution des modèles, et l'introduction progressive dans ceux-ci des différentes composantes (océan, atmosphère, surfaces continentales et glace de mer) régissant l'évolution du climat à cette échelle. Malgré ces efforts, prévoir la température et les précipitations de la saison à venir reste délicat, non seulement sur les latitudes tempérées mais aussi sur des régions sujettes à des aléas climatiques forts comme l'Afrique de l'ouest pendant la saison de mousson. L'une des clés d'une bonne prévision est la prise en compte des incertitudes liées à la formulation des modèles (résolution, paramétrisations, approximations et erreurs). Une méthode éprouvée est l'approche multi-modèle consistant à regrouper les membres de plusieurs modèles couplés en un seul ensemble de grande taille. Cette approche a été mise en œuvre notamment dans le cadre du projet européen ENSEMBLES, et nous montrons qu'elle permet généralement d'améliorer les rétro-prévisions saisonnières des précipitations sur plusieurs régions d'Afrique par rapport aux modèles pris individuellement. On se propose dans le cadre de cette thèse d'étudier une autre piste de prise en compte des incertitudes du modèle couplé CNRM-CM5, consistant à ajouter des perturbations stochastiques de la dynamique du modèle d'atmosphère ARPEGE-Climat. Cette méthode, baptisée “dynamique stochastique”, consiste à introduire des perturbations additives de température, humidité spécifique et vorticité corrigeant des estimations d'erreur de tendance initiale du modèle. Dans cette thèse, deux méthodes d'estimation des erreurs de tendance initiale ont été étudiées, basées sur la méthode de nudging (guidage) du modèle vers des données de référence. Elles donnent des résultats contrastés en termes de scores des rétro-prévisions selon les régions étudiées. Si on estime les corrections d'erreur de tendance initiale par une méthode de nudging itéré du modèle couplé vers les réanalyses ERA-Interim, on améliore significativement les scores sur l'hémisphère Nord en hiver en perturbant les prévisions saisonnières en tirant aléatoirement parmi ces corrections. Cette amélioration est accompagnée d'une nette réduction des biais de la hauteur de géopotentiel à 500 hPa. Une rétro-prévision en utilisant des perturbations dites“optimales” correspondant aux corrections d'erreurs de tendance initiale du mois en cours de prévision montre l'existence d'une information à l'échelle mensuelle qui pourrait permettre de considérablement améliorer les prévisions. La dernière partie de cette thèse explore l'idée d'un conditionnement des perturbations en fonction de l'état du modèle en cours de prévision, afin de se rapprocher si possible des améliorations obtenues avec ces perturbations optimales / Over the last twenty years, research in ensemble predictions at a seasonal timescale using general circulation models has undergone a considerable development due to the exponential growth rate of computing capacities, the improved model resolution and the introduction of more and more components (ocean, atmosphere, land surface and sea-ice) that have an impact on climate at this time scale. Regardless of these efforts, predicting temperature and precipitation for the upcoming season is a difficult task, not only over mid-latitudes but also over regions subject to high climate risk, like West Africa during the monsoon season. One key to improving predictions is to represent model uncertainties (due to resolution, parametrizations, approximations and model error). The multimodel approach is a well-tried method which consists in pooling members from different individual coupled models into a single superensemble. This approach was undertaken as part of the European Commission funded ENSEMBLES project, and we find that it usually improves seasonal precipitation re-forecasts over several regions of Africa with respect to individual model predictions. The main goal of this thesis is to study another approach to addressing model uncertainty in the global coupled model CNRM-CM5, by adding stochastic perturbations to the dynamics of the atmospheric model ARPEGE-Climat. Our method, called “stochastic dynamics”, consists in adding additive perturbations to the temperature, specific humidity and vorticity fields, thus correcting estimations of model initial tendency errors. In this thesis, two initial tendency error estimation techniques were studied, based on nudging the model towards reference data. They yield different results in terms of re-forecast scores, depending on the regions studied. If the initial tendency error corrections are estimated using an iterative nudging method towards the ERA-Interim reanalysis, seasonal prediction scores over the Northern Hemisphere in winter are significantly improved by drawing random corrections. The 500 hPa geopotential height is also clearly reduced. A re-forecast using “optimal” perturbations drawn within the initial tendency error corrections from the current forecast month shows that useful information at a monthly timescale exists, and could allow significant forecast improvement. The last part of this thesis focuses on the idea of classifying the model perturbations according to its current state during the forecast, in order to take a step closer (if possible) to the improvements noted with these optimal perturbations
30

Prévision linéaire des processus à longue mémoire

Godet, Fanny 05 December 2008 (has links) (PDF)
Nous étudions des méthodes de prévision pour les processus à longue mémoire. Ils sont supposés stationnaires du second ordre, linéaires, causals et inversibles. Nous supposons tout d'abord que l'on connaît la loi du processus mais que l'on ne dispose que d'un nombre fini d'observations pour le prédire. Nous proposons alors deux prédicteurs linéaires : celui de Wiener-Kolmogorov tronqué et celui construit par projection sur le passé fini observé. Nous étudions leur comportement lorsque le nombre d'observations disponibles tend vers l'infini. Dans un deuxième temps nous ne supposons plus la loi du processus connue, il nous faut alors estimer les fonctions de prévision obtenues dans la première partie. Pour le prédicteur de Wiener-Kolmogorov tronqué, nous utilisons une approche paramétrique en estimant les coefficients du prédicteur grâce à l'estimateur de Whittle calculé sur une série indépendante de la série à prédire. Pour le prédicteur obtenu par projection, on estime les coefficients du prédicteur en remplaçant dans les équations de Yule-Walker les covariances par les covariances empiriques calculé sur une série indépendante ou sur la série à prédire. Pour les deux prédicteurs, on estime les erreurs quadratiques due à l'estimation des coefficients et on prouve leurs normalités asymptotiques.

Page generated in 0.0639 seconds