Spelling suggestions: "subject:"prévision"" "subject:"révision""
1 |
Point-scale evaluation of the Soil, Vegetation, and Snow (SVS) land surface modelLeonardini Quelca, Gonzalo Americo 10 February 2024 (has links)
Le modèle de surface Soil, Vegetation, and Snow (SVS) a été récemment mis au point par Environnement et Changement climatique Canada (ECCC) à des fins opérationnelles de prévisions météorologique et hydrologique. L’objectif principal de cette étude est d’évaluer la capacité de SVS, en mode hors ligne à l’échelle de points de grille, à simuler différents processus par rapport aux observations in situ. L’étude est divisée en deux parties: (1) une évaluation des processus de surface terrestre se produisant dans des conditions sans neige, et (2) une évaluation des processus d’accumulation et de fonte de la neige. Dans la première partie, les flux d’énergie de surface et la teneur en eau ont été évalués sous des climats arides, méditerranéens et tropicaux pour six sites sélectionnés du réseau FLUXNET ayant entre 4 et 12 ans de données. Dans une seconde partie, les principales caractéristiques de l’enneigement sont examinées pour dix sites bien instrumentés ayant entre 8 et 21 ans de données sous climats alpins, maritimes et taiga du réseau ESM-SnowMIP. Les résultats de la première partie montrent des simulations réalistes de SVS du flux de chaleur latente (NSE = 0.58 en moyenne), du flux de chaleur sensible (NSE = 0.70 en moyenne) et du rayonnement net (NSE = 0.97 en moyenne). Le flux de chaleur dans sol est raisonnablement bien simulé pour les sites arides et un site méditerranéen, et simulé sans succès pour les sites tropicaux. Pour sa part, la teneur en eau de surface a été raisonnablement bien simulée aux sites arides (NSE = 0.30 en moyenne) et méditerranéens (NSE = 0.42 en moyenne) et mal simulée aux sites tropicaux (NSE = -16.05 en moyenne). Les performances du SVS étaient comparables aux simulations du Canadian Land surface Scheme (CLASS) non seulement pour les flux d’énergie et le teneur en eau, mais aussi pour des processus plus spécifiques tels que l’évapotranspiration et le bilan en eau. Les résultats de la deuxième partie montrent que SVS est capable de reproduire de manière réaliste les principales caractéristiques de l’enneigement de ces sites. Sur la base des résultats, une distinction claire peut être faite entre les simulations aux sites ouverts et forestiers. SVS simule adéquatement l’équivalent en eau de la neige, la densité et la hauteur de la neige des sites ouverts (NSE = 0.64, 0.75 et 0.59, respectivement), mais présente des performances plus faibles aux sites forestiers (NSE = - 0.40, 0.15 et 0.56, respectivement), ce qui est principalement attribué aux limites du module de tassement et à l’absence d’un module d’interception de la neige. Les évaluations effectuées au début, au milieu et à la fin de l’hiver ont révélé une tendance à la baisse de la capacité de SVS à simuler SWE, la densité et l’épaisseur de la neige à la fin de l’hiver. Pour les sites ouverts, les températures de la neige en surface sont bien représentées (RMSE = 3.00 _C en moyenne), mais ont montré un biais négatif (PBias = - 1.6 % en moyenne), qui était dû à une mauvaise représentation du bilan énergétique de surface sous conditions stables la nuit. L’albédo a montré une représentation raisonnable (RMSE = 0.07 en moyenne), mais une tendance à surestimer les valeurs de fin d’hiver (biais = 0,04 sur la fin de l’hiver), en raison de la diminution progressive pendant les longues périodes de fonte. Enfin, un test de sensibilité a conduit à des suggestions aux développeurs du modèles. Les tests de sensibilité du processus de fonte de la neige suggèrent l’utilisation de la température de surface de la neige au lieu de la température moyenne lors du calcul. Cela permettrait d’améliorer les simulations SWE, à l’exception de deux sites ouverts et d’un site forestier. Les tests de sensibilité à la partition des précipitations permettent d’identifier une transition linéaire de la température de l’air entre 0 et 1 _C comme le meilleur choix en l’absence de partitions observées ou plus sophistiquées. / The Soil, Vegetation, and Snow (SVS) land surface model has been recently developed at Environment and Climate Change Canada (ECCC) for operational numerical weather prediction (NWP) and hydrological forecasting. The main goal of this study is to evaluate the ability of SVS, in offline point-scale mode, to simulate different processes when compared to in-situ observations. The study is divided in two parts: (1) an evaluation of land-surface processes occuring on snow-free conditions, and (2) and evaluation of the snow accumulation and melting processes. In the first part, surface heat fluxes and soil moisture were evaluated under arid, mediterranean, and tropical climates at six selected sites of the FLUXNET network having between 4 and 12 years of data. In the second part, the main characteristics of the snow cover are examined at ten well-instrumented sites having between 8 and 21 years under alpine, maritime and taiga climates from ESM-SnowMIP network. Results of the first part show SVS’s realistic simulations of latent heat flux (NSE = 0.58 on average), sensible heat flux (NSE = 0.70 on average), and net radiation (NSE = 0.97 on average). Soil heat flux is reasonably well simulated for the arid sites and one mediterranean site, and poorly simulated for the tropical sites. On the other hand, surface soil moisture was reasonably well simulated at the arid (NSE = 0.30 on average) and mediterranean sites (NSE = 0.42 on average) and poorly simulated at the tropical sites (NSE = - 16.05 on average). SVS performance was comparable to simulations of the Canadian Land Surface Scheme (CLASS) not only for energy fluxes and soil moisture, but more specific processes such as evapotranspiration and water balance. Results of the second part show that SVS is able to realistically reproduce the main characteristics of the snow cover at these sites. Based on the results, a clear distinction between simulations at open and forest sites can be made. SVS is able to simulate well snow water equivalent, density and snow depth at open sites (NSE = 0.64, 0.75 and 0.59, respectively), but exhibits lower performances over forest sites (NSE = - 0.40, 0.15 and 0.56, respectively), which is attributed mainly to the limitations of the compaction scheme and the absence of a snow interception scheme. Evaluations over early, mid and end winter periods revealed a tendency to decrease SVS’s ability to simulate SWE, density and snow depth during end winter. At open sites, SVS’ snow surface temperatures are well represented (RMSE = 3.00_C on average), but exhibited a cold bias (PBias = - 1.6% on average), which was due to a poor representation of the surface energy balance under stable conditions at nighttime. Albedo showed a reasonable representation (RMSE = 0.07 on average), but a tendency to overestimate end winter albedo (bias = 0.04 over end winter), due to the slow decreasing rate during long melting periods. Finally, sensitivity tests to the snow melting process suggest the use of surface snow temperature instead of the average temperature when computing the melting rate. This would provide the improvement of the SWE simulations, with exception of two open and one forest sites. Sensitivity tests to partition of precipitation allows to identify a linear transition of air temperature between 0 and 1_C as the best choice in the absence of observed or more sophisticated partitions
|
2 |
La redondance en hydrologie prévisionnelle : une expérience heuristiqueRichard, Philippe 15 September 2022 (has links)
Avec l'avènement de l'ère numérique, accompagnée d'une automatisation et d'une puissance de calcul toujours croissante, le devenir des interactions humains-machines est appelé à des changements inéluctables. Le domaine de l'hydrologie prévisionnelle n'est pas indifférent à cette nouvelle réalité en regard des progrès constants de l'intelligence artificielle. En effet, il existe trois catégories de systèmes distincts qui interviennent en hydrologie prévisionnelle: manuel (in-the-loop), automatisé (out-of-the-loop) et supervisé (over-the-loop). Ces systèmes se distinguent par les interactions humains-machines qui les constituent. Le premier système nécessite indispensablement des interactions à son bon fonctionnement. Le second est complètement passif pour un usager externe et totalement hermétique. Le dernier permet des interactions, comprend des indicateurs de dysfonctionnement tout en étant complètement automatisée. Cette thèse est née de la conjoncture liée à deux initiatives indépendantes : (1) une dizaine d'années de recherche et développement menant à la création de HOOPLA "HydrOlOgical Prediction LAboratory"; et (2) l'implantation d'un nouveau système de gestion de données et de prévisions et d'alertes hydrologiques à la Direction de l'Expertise Hydrique du Québec permettant d'incorporer plusieurs systèmes de prévisions. Ce projet de recherche a pour motivation première l'amélioration des outils disponibles pour effectuer des prévisions hydrologiques dans le bassin versant du Saint-Laurent tout en laissant place au savoir et aux connaissances des experts-hydrologues. Pour ce faire, un système de prévisions hydrologiques opérationnel et complètement automatisé est mis en place tout au long du projet. Ce dernier, basé sur HOOPLA, incorpore plusieurs niveaux de redondance, notamment sur les données d'entrées, les modèles hydrologiques et les méthodes d'arrimage. La redondance est un concept largement utilisé dans les domaines de l'ingénierie, de l'aviation, de la météorologie et de l'informatique. Elle consiste en la duplication de composantes partageant les mêmes fonctionnalités. Elle permet d'établir des diagnostics et d'assurer une meilleure fiabilité. En hydrologie prévisionnelle, la redondance est omniprésente à plusieurs niveaux, mais elle est peu étudiée comme telle. Les résultats montrent qu'il est avantageux de recourir à la redondance interne dans un système. Cette dernière permet de déceler les défaillances et augmente les performances des prévisions lorsque ces dernières sont cohérentes. La multiplicité de systèmes de prévisions présente un enjeu de taille en ce qui concerne les dépassements de seuils. Cette thèse met en lumière les différentes mises en oeuvre possibles de la redondance en hydrologie prévisionnelle et expose ses enjeux et avantages dans un contexte opérationnel et heuristique. / With the advent of the digital era, with ever increasing automation and computing power, the future of humanmachine interactions is bound to change. The field of predictive hydrology is not indifferent to this new reality in view of the constant progress of programmable intelligence. Indeed, there are three distinct categories of systems involved in predictive hydrology: manual (in-the-loop), automated (out-of-the-loop) and supervised (over-the-loop). These systems are distinguished by the human-machine interactions that constitute them. The first system requires interactions for its proper functioning. The second one is passive and totally independent for a user, without however ensuring its good functioning. The last one allows for interactions and includes indicators of dysfunction while being completely automated. This thesis was born from the conjunction of a decade of research and development leading to the creation of HOOPLA "HydrOlOgical Prediction LAboratory" and the implementation of a new data management system and hydrological forecasts and alerts of the Direction de l'Expertise Hydrique du Québec allowing to incorporate several forecasting systems. This research project is primarily motivated by the improvement of the tools available to make hydrological forecasts in the St. Lawrence watershed while leaving room for the knowledge of expert hydrologists. To do so, an operational and fully automated hydrological forecasting system is be implemented throughout the project. This system, based on HOOPLA, incorporates several levels of redundancy, notably on input data, hydrological models and docking methods. Redundancy is a widely used tool in the fields of engineering, aviation, meteorology and computer science. It consists in the duplication of components sharing the same functionality. It allows to establish diagnoses and to ensure a better reliability. In predictive hydrology, redundancy is ubiquitous at several levels, but it is little studied as such. The results show that there are benefits to using internal redundancy in a system. The latter allows to detect failures and increases the performance of predictions when the latter are consistent. External system redundancy presents a significant challenge with respect to threshold violations. This thesis highlights the different possible implementations of redundancy in predictive hydrology and exposes its issues and benefits in an operational and heuristic context.
|
3 |
La redondance en hydrologie prévisionnelle : une expérience heuristiqueRichard, Philippe 12 November 2023 (has links)
Avec l'avènement de l'ère numérique, accompagnée d'une automatisation et d'une puissance de calcul toujours croissante, le devenir des interactions humains-machines est appelé à des changements inéluctables. Le domaine de l'hydrologie prévisionnelle n'est pas indifférent à cette nouvelle réalité en regard des progrès constants de l'intelligence artificielle. En effet, il existe trois catégories de systèmes distincts qui interviennent en hydrologie prévisionnelle: manuel (in-the-loop), automatisé (out-of-the-loop) et supervisé (over-the-loop). Ces systèmes se distinguent par les interactions humains-machines qui les constituent. Le premier système nécessite indispensablement des interactions à son bon fonctionnement. Le second est complètement passif pour un usager externe et totalement hermétique. Le dernier permet des interactions, comprend des indicateurs de dysfonctionnement tout en étant complètement automatisée. Cette thèse est née de la conjoncture liée à deux initiatives indépendantes : (1) une dizaine d'années de recherche et développement menant à la création de HOOPLA "HydrOlOgical Prediction LAboratory"; et (2) l'implantation d'un nouveau système de gestion de données et de prévisions et d'alertes hydrologiques à la Direction de l'Expertise Hydrique du Québec permettant d'incorporer plusieurs systèmes de prévisions. Ce projet de recherche a pour motivation première l'amélioration des outils disponibles pour effectuer des prévisions hydrologiques dans le bassin versant du Saint-Laurent tout en laissant place au savoir et aux connaissances des experts-hydrologues. Pour ce faire, un système de prévisions hydrologiques opérationnel et complètement automatisé est mis en place tout au long du projet. Ce dernier, basé sur HOOPLA, incorpore plusieurs niveaux de redondance, notamment sur les données d'entrées, les modèles hydrologiques et les méthodes d'arrimage. La redondance est un concept largement utilisé dans les domaines de l'ingénierie, de l'aviation, de la météorologie et de l'informatique. Elle consiste en la duplication de composantes partageant les mêmes fonctionnalités. Elle permet d'établir des diagnostics et d'assurer une meilleure fiabilité. En hydrologie prévisionnelle, la redondance est omniprésente à plusieurs niveaux, mais elle est peu étudiée comme telle. Les résultats montrent qu'il est avantageux de recourir à la redondance interne dans un système. Cette dernière permet de déceler les défaillances et augmente les performances des prévisions lorsque ces dernières sont cohérentes. La multiplicité de systèmes de prévisions présente un enjeu de taille en ce qui concerne les dépassements de seuils. Cette thèse met en lumière les différentes mises en œuvre possibles de la redondance en hydrologie prévisionnelle et expose ses enjeux et avantages dans un contexte opérationnel et heuristique. / With the advent of the digital era, with ever increasing automation and computing power, the future of human-machine interactions is bound to change. The field of predictive hydrology is not indifferent to this new reality in view of the constant progress of programmable intelligence. Indeed, there are three distinct categories of systems involved in predictive hydrology: manual (in-the-loop), automated (out-of-the-loop) and supervised (over-the-loop). These systems are distinguished by the human-machine interactions that constitute them. The first system requires interactions for its proper functioning. The second one is passive and totally independent for a user, without however ensuring its good functioning. The last one allows for interactions and includes indicators of dysfunction while being completely automated. This thesis was born from the conjunction of a decade of research and development leading to the creation of HOOPLA "HydrOlOgical Prediction LAboratory" and the implementation of a new data management system and hydrological forecasts and alerts of the Direction de l'Expertise Hydrique du Québec allowing to incorporate several forecasting systems. This research project is primarily motivated by the improvement of the tools available to make hydrological forecasts in the St. Lawrence watershed while leaving room for the knowledge of expert hydrologists. To do so, an operational and fully automated hydrological forecasting system is be implemented throughout the project. This system, based on HOOPLA, incorporates several levels of redundancy, notably on input data, hydrological models and docking methods. Redundancy is a widely used tool in the fields of engineering, aviation, meteorology and computer science. It consists in the duplication of components sharing the same functionality. It allows to establish diagnoses and to ensure a better reliability. In predictive hydrology, redundancy is ubiquitous at several levels, but it is little studied as such. The results show that there are benefits to using internal redundancy in a system. The latter allows to detect failures and increases the performance of predictions when the latter are consistent. External system redundancy presents a significant challenge with respect to threshold violations. This thesis highlights the different possible implementations of redundancy in predictive hydrology and exposes its issues and benefits in an operational and heuristic context.
|
4 |
Prévision de l'inflation au CanadaKouassi, Adoumou 10 February 2024 (has links)
Ce document a pour but de présenter la prévision de l’inflation à l’aide du modèle ARIMA et la Courbe de Phillips. Il est important de s’intéresser à ce sujet en tant qu’économiste, car c’est une variable macroéconomique essentielle qui influence les choix économiques et financiers. Plusieurs méthodes existent pour prévoir l’inflation dont le modèle ARIMA et la courbe de Phillips. Le modèle ARIMA est très robuste en ce sens qu’il englobe le processus autorégressif, la partie de différenciation et la composante de moyenne mobile. Cependant, la courbe de Phillips standard met en évidence la relation inverse entre l’inflation et le taux de chômage. Par ailleurs, la courbe de Phillips améliorée établit la relation inverse entre l’inflation et le taux de chômage et la relation positive entre l’inflation et le taux de de change et le taux d’intérêt de court terme. La méthode employée pour obtenir le modèle ARIMA est l’approche de Box-Jenkins. De plus, le meilleur modèle ARIMA obtenu de la série de l’inflation canadienne est ARIMA (3,1,2) pour les données mensuelles de l’inflation de 1971 à 2016. Le meilleur modèle observé est la courbe de Phillips améliorée. Cela est d’autant plus normale, car le Canada est une petite économie ouverte, et donc ces variables macroéconomiques dépendent en partie de la situation économique de l’extérieur. Néanmoins, la courbe de Phillips améliorée révèle que le taux de chômage influence en majeure partie le taux d’inflation. Nos résultats présentent des prévisions à la baisse du niveau d’inflation de 2017 à 2020, ce qui est conforme avec l’évolution des valeurs réalisées de l’inflation canadienne.
|
5 |
Probabilistic streamflow forecasts in hydropower systems operationOsina Torrez, Michael 02 February 2024 (has links)
Au Canada, comme dans de nombreux pays de l'OCDE (Organisation de Coopération et de Développement Économiques), l'exploitation plus efficace des actifs hydroélectriques existants devient de plus en plus pertinente. Le fonctionnement optimal d'un système hydroélectrique est un problème de prise de décision séquentielle. Une séquence de décisions de soutirage d'eau doit être déterminée sur une période de planification donnée en tenant compte de diverses contraintes physiques et écologiques. Étant donné que cette période de planification peut s'étendre sur un futur plus ou moins lointain, les décisions de soutirage sont influencées par la disponibilité de prévisions hydrologiques fiables, y compris les systèmes de prévisions hydrologiques d'ensemble (H-EPS). Les hydrologues s'appuient souvent sur des scores statistiques pour évaluer la fiabilité et l'exactitude du H-EPS, mais ces scores ne donnent aucune indication sur la valeur économique des prévisions. Cette étude cherche à identifier les attributs les plus pertinents des prévisions hydrologiques d'ensemble en production hydroélectrique. Pour ce faire, un large ensemble de prévisions est construit à partir de 20 modèles hydrologiques et de prévisions météorologiques d'ensemble de 50 membres sur une période de 6 ans (2011-2016). De ce large ensemble, plusieurs H-EPS sont ensuite produits (configurés) et utilisés par un modèle d'optimisation hydroélectrique. La gestion du système hydrique est ensuite simulée en horizon roulant sur une période de 6 ans (2011-2016). Les résultats de la simulation indiquent qu'il existe une tendance entre la qualité globale et la valeur de la prévision en termes deproduction d'énergie, mais que cette relation n'est pas directement proportionnelle (1 :1). La configuration multimodèle fonctionne un peu mieux que les autres configurations. De plus, les résultats de la simulation montrent que les prévisions d'ensemble à court terme (CT) ont dela valeur, mais la marge d'amélioration se situe clairement dans les prévisions à moyen terme(MT, saisonnières), car un grand réservoir en amont contrôle la disponibilité de l'eau dans tout le système. Par ailleurs, les prévisions probabilistes donnent de meilleures performances que les déterministes, car elles donnent des informations sur l'incertitude du modèle d'optimisation.Enfin, les prévisions CT ont de la valeur tandis que les modèles d'optimisation CT-MT sont couplés. / In Canada, like in many OECD (Organization for Economic Co-operation and Development) countries, the more efficient use of existing hydropower assets is becoming increasingly relevant.The optimal operation of a hydroelectric system is a sequential decision making problem. A sequence of release decisions must be determined over a given planning period taking into account a variety of physical and ecological constraints. Since this planning period may extend over a more or less distant future, release decisions are influenced by the availability of reliable hydrologic forecasts, including hydrological ensemble prediction systems (H-EPS).Hydrologists often rely on statistical scores to assess the reliability and accuracy of H-EPS,but those scores do not give any indication of the economic value of the forecasts. This studyseeks to identify the most relevant attributes of ensemble hydrological forecasts in hydropower production. To do this, a large set of forecasts is built from 20 hydrological models and ensemble meteorological forecasts of 50 members over a period of 6 years (2011-2016). From this large set, several H-EPS are then produced (configured) and used by a hydroelectric optimization model. The management of the water system is then simulated on a rolling horizon over a period of 6 years (2011-2016). The simulation results indicate that there is a trend between the overall quality and the value of the forecast in terms of energy production,but that this relationship is not directly proportional (1: 1). The multi-model setup works a bit better than the other setups. In addition, the simulation results show that the ensemble forecast at short-term (ST) has value, but the room for improvement is clearly in the forecastat mid-term (MT, seasonal), as a large reservoir upstream controls the availability of water throughout the system. In addition, probabilistic forecasts give better performance than determinists, because they provide information on the uncertainty of the optimization model.Finally, ST forecasts have value while ST-MT optimization models are coupled.
|
6 |
Exploration opérationnelle de la prévision hydrologique d'ensemble avec assimilation automatique de donnéesAbaza, Mabrouk 20 April 2018 (has links)
Ce projet de recherche a pour but d’identifier une méthode d’assimilation automatique de données qui pourrait être utilisée dans le cadre de la prévision opérationnelle de crues. Le filtre de Kalman d’ensemble (EnKF) et l’assimilation variationnelle ont ainsi été comparés en premier lieu en utilisant le modèle GR4Jneige. Les résultats ont montré que l’EnKF fournit la meilleure performance pour tous les horizons de prévision lorsque comparé à différentes implantations de la méthode variationnelle. La performance de la méthode variationnelle varie toutefois d’un bassin à un autre. Les prévisions hydrologiques déterministes émises à partir de l’EnKF produisent une performance supérieure au scénario sans assimilation, ce qui n’est pas toujours le cas pour la méthode variationnelle. L’assimilation naïve des sorties ne donne pas des bons résultats au-delà du second jour de prévision. L’EnKF a par la suite été mis en œuvre avec un modèle hydrologique semi-distribué (Hydrotel) afin d’améliorer les conditions initiales de la prévision hydrologique d’ensemble (PHE). La vérification de la qualité des PHE sur le bassin versant au Saumon, pour la période exempte de l’influence de la neige, a révélé une amélioration considérable de la performance et de la fiabilité par rapport aux résultats sans assimilation. L’assimilation manuelle fournit une performance similaire à l’EnKF, mais est beaucoup moins fiable que cette dernière. Les 1000 membres de la PHE générée par EnKF peuvent se réduire jusqu’à 50 sans perte de fiabilité ou de performance. De bons résultats ont aussi été obtenus pour la période d’accumulation et de fonte de la neige, notamment par mise à jour de l’équivalent en eau de la neige en plus des variables identifiées précédemment : la teneur en eau du sol et l’écoulement terrestre. Différents produits canadiens de prévision météorologique d’ensemble (PME) ont finalement été comparés pour évaluer l’impact de leur résolution spatiale sur la qualité de la PHE – ils ont aussi été comparés à des produits déterministes. Les résultats ont montré que la PME mène à une meilleure performance que les produits déterministes. Les PME globale et régionale partagent la même performance, par contre le produit régional s’est révélé plus fiable et a une meilleure capacité à caractériser l’incertitude de la prévision. / The aim of this research project is to identify an automatic data assimilation method that could be used in an operational flood forecasting context. The Ensemble Kalman Filter (EnKF) and the variational assimilation method were first compared on the GR4Jsnow model. Results showed that the EnKF provides the best performance for all forecast horizons when compared to various implementations of the variational method. The performance of the variational method varied from one watershed to another. The deterministic hydrological forecasts issued from the EnKF generate better performance than forecasts without assimilation, which is not always the case for the variational method. The naïve output assimilation is not recommended for forecasts beyond a 2-day horizon. The EnKF was next implemented on a semi-distributed hydrological model (Hydrotel) to improve the initial conditions of the hydrological ensemble predictions (HEP), for the snow-free flows on the au Saumon watershed. The verification of the quality of the HEP showed a considerable improvement in both performance and reliabilty in comparison to the results of model without assimilation. Manual assimilation provides performance similar to the EnKF, but with much less reliability. The 1000-member HEP obtained from the EnKF can be reduced up to 50 members without any loss of reliability or performance. Similar results were obtained for snow accumulation and melt periods, especially when updating the snow water equivalent in addition to the state variables previously identified for the snow-free flows, namely the soil water content and the land flow. Different Canadian meteorological ensemble prediction systems (EPS) were also compared to assess the impact of spatial resolution of these systems on the quality of the HEP – they were also compared to deterministic products. The results showed that EPS are superior to the deterministic products. Global and regional EPS share the same performance, in contrast the regional product that turned out more reliable and characterize the uncertainty of the forecast.
|
7 |
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économiqueNjimi, Hassane 05 September 2008 (has links)
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique.
|
8 |
Prévision de série issue de l'agrégation contemporaine : comparaison entre l'approche agrégée et désagrégéeMarcil, Philippe January 2007 (has links) (PDF)
Nous étudions la différence des erreurs de prévisions entre une représentation agrégée et
désagrégée lorsque l'on s'intéresse à la prévision de la série agrégée. Pour ce faire, nous développons un modèle théorique qui étudie les erreurs de prévisions d'une représentation agrégée et désagrégée en unissant les théories de différents auteurs dans un même cadre analytique. Le modèle que nous avons développé démontre que la présence de racine commune est essentielle, mais est une condition non suffisante pour que le modèle agrégé ait une erreur de prévision plus faible que le modèle désagrégé. De plus, les simulations démontrent que la présence de racines communes aide à faire diminuer l'écart des erreurs de prévisions entre une représentation agrégée et désagrégée.
|
9 |
Rôle des mesures biophysiques au 1er trimestre de la grossesse dans la prédiction de la prééclampsieGasse, Cédric 24 April 2018 (has links)
Parmi les diverses complications de la grossesse, la prééclampsie (PE) représente encore à ce jour l’une des causes majeures de mortalité et morbidité maternelle et fœtale. Malheureusement, il n’existe toujours pas de traitement curatif efficace autre que l’accouchement et la délivrance du placenta. Par contre, la prise quotidienne d’aspirine chez les femmes à risque élevé, débutée avant 16 semaines de grossesse, constitue une méthode préventive efficace de la PE. Il devient impératif de trouver une façon d’identifier les femmes à risque de PE. Plusieurs méthodes ont été proposées, dont l’utilisation de mesures biophysiques. Les études sur ce sujet présentent des résultats variables qui peuvent être en partie attribuables à l’hétérogénéité des techniques de mesure et des méthodologies utilisées. Nous avons réalisé une étude de cohorte prospective afin d’estimer la valeur prédictive de deux paramètres biophysiques. Ces deux paramètres sont l’indice de masse corporel (IMC) et la pression artérielle moyenne (PAM). Nous avons observé que l’IMC, modélisé en tant que variable continue, et la PAM, prise à l’aide d’un appareil automatisé validé pour les femmes enceintes, des femmes au premier trimestre de la grossesse sont associés au risque de développer une PE. Ces marqueurs peuvent donc être utiles pour la prédiction précoce de la PE et devraient être considérés dans un modèle de prédiction de la PE à être utilisé en clinique. / Among the various complications of pregnancy, preeclampsia (PE) is one of the major causes of maternal and fetal mortality and morbidity to this day. Unfortunately, there is still no effective cure of PE other than the delivery of the placenta. However, daily aspirin have been shown to effectively prevent PE in high-risk women when started before 16 weeks of gestation. It is imperative to identify women at risk for PE early in gestation. Several methods have been proposed, including the use of biophysical measurements. Studies on this topic show varying results, which can be partly due to differences in measurement techniques and in methodology. We conducted a prospective observational cohort study to estimate the performance of two biophysical parameters, measured with standardized techniques during the first trimester of pregnancy, for the prediction of PE. These two parameters are the body mass index (BMI) and the mean arterial blood pressure (MAP). We observed that the BMI, modeled as a continuous variable, and the MAP, measured using an automated device validated for pregnant women, of women in the first trimester of pregnancy are associated with the risk of developing PE. Therefore, these markers appear to be useful for the early prediction of PE and should be considered in a predictive model of PE for clinical use.
|
10 |
Analyse expérimentale du biais de négligence de la corrélation dans un contexte de sondage pré-électoralLea Jombi, Nathan Roger 27 January 2024 (has links)
L’objectif de ce mémoire est de mieux comprendre un des biais cognitifs susceptibles d’affecter le pouvoir prédictif des sondages : le biais de négligence de la corrélation. Intuitivement, le biais de négligence de la corrélation est une simplification du processus de décision chez les votants qui les amène à ignorer la corrélation entre leurs préférences électorales et les coûts de participation au vote. Afin d’analyser ce biais, nous avons conduit une expérience consistant en une série de questions-réponses sous la forme de sondages. Les participants se réfèrent à un ensemble d’informations sur les gains et les coûts rattachés à leurs choix de vote. Les résultats expérimentaux montrent que le biais de négligence envers la corrélation affecte significativement les réponses des participants aux questions de sondage. De plus, certaines caractéristiques socioéconomiques des participants semblent augmenter la probabilité de souffrir du biais. Enfin, l’analyse des données recueillies lors de l’expérience montre que la mesure proposée du biais n’était pas calculable pour certaines observations car les participants avaient effectué des choix certains.
|
Page generated in 0.0495 seconds