Spelling suggestions: "subject:"prévision"" "subject:"révision""
71 |
Les impacts du transport en commun sur les constructions immobilières commerciales et résidentielles : le cas du métro de MontréalChampagne, Marie-Pier 27 January 2024 (has links)
Ce mémoire a pour objectif d'évaluer l'impact de l'extension de la ligne orange du métro de Montréal à Laval sur le développement immobilier. L'analyse empirique s'intéresse à l'effet des nouvelles stations de métro sur la localisation et la quantification des constructions commerciales et résidentielles, entre 1998 et 2017. L'hypothèse principale est que le nombre de nouvelles constructions commerciales est spatialement concentré autour des stations, laissant moins de place pour les nouvelles constructions résidentielles, qui se localisent en périphérie de cette zone. Pour tester cette hypothèse, une approche par appariement est choisie, dans laquelle le nombre de nouvelles constructions commerciales et résidentielles jouent le rôle des variables dépendantes. Une zone de 2 kilomètres autour des stations est divisée à l'aide d'un maillage hexagonal, où les hexagones représentent les entités individuelles. Afin de comparer l'effet sur les nouvelles constructions, une comparaison entre deux groupes, un susceptible d'être influencé par l'arrivée des nouvelles stations (traitement) et un autre supposé moins touché (contrôle), est effectuée à l'aide d'une approche incrémentale. Chacun des groupes est formé de zones basées sur la distance critique à la station la plus près. Cette distance varie entre 250 et 1 750 mètres. L'analyse décompose également les zones par période afin de vérifier la présence d'effets liés à la spéculation, l'anticipation et l'ajustement. Les principaux résultats confirment en grande partie l'hypothèse émise. Une plus grande concentration spatiale des nouveaux bâtiments commerciaux est notée dans un rayon d'au plus 750 mètres des stations et le développement de nouveaux immeubles résidentiels, quant à lui, est identifié entre 1 000 et 1 250 mètres. La hausse conjointe des nouvelles constructions résidentielles et commerciales à grande proximité des stations après la mise en service souligne également l'essor des quartiers mixtes, accueillant à la fois des activités résidentielles et commerciales. / This master thesis aims to evaluate the impact of the extension of the orange line of the metro from Montreal to Laval on real estate development. The empirical analysis focuses on its impact on the location and quantification of commercial and residential constructions, between 1998 and 2017. The main hypothesis is that new commercial constructions will be spatially concentrated around the stations, leaving less room for new residential construction, which will be located just outside the commercial zone. To test this hypothesis, a pairing approach is chosen, in which the number of new commercial and residential constructions are the dependent variables. A 2 kilometers area around the stations is separated into a hexagonal mesh, where the hexagons represent the individual entities. In order to compare the effect of new constructions, a comparison between two groups, one likely to be influenced by the arrival of new stations (treatment) and another most likely less affected (control), is carried out with an incremental approach. Each of the groups is generated by zones based on the distance to the nearest station and a radius varying between 250 and 1 750 meters defines these zones. The analysis also divided the zones by period to identify the effects related to speculation, anticipation, and adjustment. The main results largely confirm the hypothesis. A greater spatial concentration of new commercial buildings is noted within a radius of, at most, 750 meters from the stations and the development of new residential buildings is noted between 1 000 and 1 250 meters. The joint increase in new residential and commercial construction near stations after the launch also underlines the rise of mixed neighbourhood, accommodating both residential and commercial activities.
|
72 |
Projections des taux de faible revenu chez les ainés au Québec à l'horizon 2050Sebrier, Laure 13 December 2024 (has links)
Dans ce mémoire nous utilisons SimUL, un modèle de microsimulation dynamique en forme réduite de l'économie québécoise développé au sein de la Chaire de recherche Industrielle Alliance sur les enjeux économiques des changements démographiques. Notre objectif est triple : projeter l'évolution des taux de faible revenu chez les aînés québécois, estimer l'effet de la rente au conjoint survivant sur la vulnérabilité des veuves et enfin mesurer la sensibilité des taux de faible revenu aux seuils choisis. Toutes nos projections couvrent la période 2016 à 2050 et utilisent la Mesure du Panier de Consommation (MPC) comme mesure de faible revenu. En se basant sur les tendances récentes et sur les règles fiscales en vigueur, SimUL projette une diminution importante des taux de faible revenu chez les aînés québécois. Le taux de faible revenu des 65-74 ans passant de 7,8% en 2016 à 3,1% en 2050, et celui des 75 ans et plus passant de 5,2% à 1,5%. Cette forte diminution s'explique par la plus grande participation des femmes au marché du travail parmi les cohortes plus jeunes, les rendant dans le futur moins dépendantes des revenus de leurs conjoints et des transferts publics. Nous projetons ensuite le rôle de la rente au conjoint survivant dans la diminution de la vulnérabilité des aînées. La rente au conjoint survivant est un programme permettant de transférer une partie de la rente RRQ d'une personne décédée à son conjoint survivant. Nous trouvons qu'en l'absence de ce programme, le taux de faible revenu des veuves augmenterait de cinq points de pourcentages. Malgré une tendance à la baisse, ce programme continuerait de jouer un rôle important jusqu'en 2050 où le taux de faible revenu sans ce programme passerait de 3% à plus de 5%. Enfin, les taux de faible revenu étant réputés extrêmement sensibles aux seuils choisis, nous procédons à une troisième simulation en majorant ces seuils. Nous trouvons un effet de seuils extrêmement important, une majoration de 5% faisant passer le taux de faible revenu des veuves de 12% à plus de 30% et une majoration de 10% porterait le taux à 40% pour l'année 2017.
|
73 |
Influence de la motivation monétaire sur la production du hasard par l'humainPaquet, Claude 23 February 2022 (has links)
Cette étude prédit et vérifie l'hypothèse principale voulant que les sujets énonceront plus de verbalisations erronées que de verbalisations correctes dans une tâche de production de suites aléatoires. L'hypothèse secondaire voulant que les sujets verbaliseront d'autant plus de conceptions erronées que l'enjeu monétaire sera important n'est pas confirmée. À titre exploratoire, la possibilité d'analyser les suites produites en regard des alternances et segments produits est examinée. Au moyen d'un ordinateur, les sujets (N=45) produisent une suite de 100 pile-face en utilisant la méthode de la pensée à voix haute. Un montant de$5.00 est offert aux sujets du groupe 1, les sujets du groupe 2 reçoivent de$10.00 à$20.00 selon le degré d'aléatoirité de la suite. L'enjeu monétaire du groupe 3 est une somme de$125.00 décernée à la personne ayant produite la suite de P-F la plus au hasard. La discussion soulève les aspects pratiques et théoriques de ces résultats.
|
74 |
Elicitation of subjective expectations : an application to a public good experimentLopera, Maria Adelaida 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Ce mémoire est une contribution empirique à l'étude de la séparation des préférences individuelles et des anticipations en présence d'incertitude dans le cadre d'une expérience économique sur les biens publics. Nous comparons deux expériences existantes pour identifier les anticipations. La première méthode est généralement utilisée clans les expériences sur des bien publics et consiste à demander aux participants une prédiction ponctuelle dont la valeur résume les anticipations: la seconde méthode consiste à demander quelques questions de nature probalistique, de sorte que les probabilités ainsi obtenues puissent être utilisées pour estimer la fonction subjective de densité cumulative (FDC subjective) de chaque participant. Les anticipations nous ont permis d'estimer un modèle structurel de type logistique pour décrire la fonction d'utilité des participants à l'aide de chacune des deux rnéthodes. En général, lorsqu'on demande explicitement aux participants de donner la moyenne de leurs anticipations, leur prédiction pouctuelle peut être associée à l'espérance de leur FDC. Cependant, la FDC subjective contient plus d'inlformation sur les anticipations individuelles que la prédiction ponctuelle, et sa connaissance nous permet de tester certaines restrictions supplérnentaires sur le modèle. Les paramètres estimés dans le modèle nous ont permis de générer ensuite des prédictions puis de comparer celles-ci aux données tirées de notre expérience. Ces prédictions indiquent que la probabilité de contribuer au bien public est décroissante dans le montant contribué, résultat qui résume bien la tendance observée dans l'expérience. Finalement, les prédictions du modèle sont cohérentes avec le comportement observé des participants ainsi qu'avec les résultats d'autres expériences sur les biens publics, tel que les contributions décroissantes et l'effet de fin de jeu.
|
75 |
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économiqueNjimi, Hassane 05 September 2008 (has links)
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
76 |
Modèles non linéaires et prévision / Non-linear models and forecastingMadkour, Jaouad 19 April 2013 (has links)
L’intérêt des modèles non-linéaires réside, d’une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d’autre part, dans une prévision plus riche en information.A ce niveau, l’originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu’une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu’il faut disposer de tests d’évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l’adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l’évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L’utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d’une analyseempirique a confirmé l’idée selon laquelle les premiers sont préférés si l’objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci. / The interest of non-linear models is, on the one hand, to better take into account non-linearities characterizing themacroeconomic and financial series and, on the other hand, to get richer information in forecast. At this level,originality intervals (asymmetric and / or discontinuous) and forecasts densities (asymmetric and / or multimodal)offered by this new modelling form suggests that improving forecasts according to linear models is possible and thatwe should have enough powerful tests of evaluation to check this possible improvement. Such tests usually meanchecking distributional assumptions on violations and probability integral transform processes respectively associatedto each of these forms of forecast. In this thesis, we have adapted the GMM framework based on orthonormalpolynomials designed by Bontemps and Meddahi (2005, 2012) to test for some probability distributions, an approachalready adopted by Candelon et al. (2011) in the context of backtesting Value-at-Risk. In addition to the simplicity androbustness of the method, the tests we have developed have good properties in terms of size and power. The use of ournew approach in comparison of linear and non-linear models in an empirical analysis confirmed the idea according towhich the former are preferred if the goal is the calculation of simple point forecasts while the latter are moreappropriated to report the uncertainty around them.
|
77 |
Améliorations et développements d'une méthode de prévision probabiliste des pluies par analogie. Application à la prévision hydrologique sur les grands bassins fluviaux de la Saône et de la Seine.Ben Daoud, Aurélien 10 February 2010 (has links) (PDF)
Cette thèse porte sur l'amélioration d'une méthode de prévision probabiliste des précipitations adaptée par analogie, appliquée aux grands bassins versants de la Saône et de la Seine. En considérant un jour cible dont on souhaite prévoir les précipitations, cette méthode permet de rechercher dans une archive les situations météorologiques passées les plus similaires. Les cumuls pluviométriques des journées analogues sont ensuite exploités pour estimer de manière probabiliste la quantité de précipitations attendue pour le jour cible. Une étape préliminaire consiste à construire et à choisir les archives nécessaires à l'application de ce type de méthode. A partir de l'algorithme de sélection d'analogues développé par Bontron (2004) sur des bassins du Sud-Est de la France, la méthode de prévision est ensuite améliorée en introduisant deux nouvelles variables : la température, qui permet de prendre en compte les effets saisonniers ; et la vitesse verticale, qui vise à mieux caractériser les mouvements atmosphériques verticaux. Finalement, la méthode est appliquée en contexte de prévision parfaite (situations cibles extraites de réanalyses) sur la plus longue période possible, puis en contexte opérationnel (situations cibles générées par un modèle de prévision) sur une durée de trois ans. Les scénarios de prévision de précipitations sont également exploités par le modèle pluie-débit GR3P pour la prévision des débits sur les bassins de la Saône et de la Seine. De manière générale, les résultats montrent qu'avec ce type d'approche, il est possible d'obtenir une prévision de débit utile, sur les grands bassins tests, pour une échéance de l'ordre de la semaine.
|
78 |
Modèles non linéaires et prévisionMadkour, Jaouad 19 April 2013 (has links) (PDF)
L'intérêt des modèles non-linéaires réside, d'une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d'autre part, dans une prévision plus riche en information.A ce niveau, l'originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu'une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu'il faut disposer de tests d'évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l'adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l'évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L'utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d'une analyseempirique a confirmé l'idée selon laquelle les premiers sont préférés si l'objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci.
|
79 |
Prévision d’ensemble par agrégation séquentielle appliquée à la prévision de production d’énergie photovoltaïque / Ensemble forecasting using sequential aggregation for photovoltaic power applicationsThorey, Jean 20 September 2017 (has links)
Notre principal objectif est d'améliorer la qualité des prévisions de production d'énergie photovoltaïque (PV). Ces prévisions sont imparfaites à cause des incertitudes météorologiques et de l'imprécision des modèles statistiques convertissant les prévisions météorologiques en prévisions de production d'énergie. Grâce à une ou plusieurs prévisions météorologiques, nous générons de multiples prévisions de production PV et nous construisons une combinaison linéaire de ces prévisions de production. La minimisation du Continuous Ranked Probability Score (CRPS) permet de calibrer statistiquement la combinaison de ces prévisions, et délivre une prévision probabiliste sous la forme d'une fonction de répartition empirique pondérée.Dans ce contexte, nous proposons une étude du biais du CRPS et une étude des propriétés des scores propres pouvant se décomposer en somme de scores pondérés par seuil ou en somme de scores pondérés par quantile. Des techniques d'apprentissage séquentiel sont mises en oeuvre pour réaliser cette minimisation. Ces techniques fournissent des garanties théoriques de robustesse en termes de qualité de prévision, sous des hypothèses minimes. Ces méthodes sont appliquées à la prévision d'ensoleillement et à la prévision de production PV, fondée sur des prévisions météorologiques à haute résolution et sur des ensembles de prévisions classiques. / Our main objective is to improve the quality of photovoltaic power forecasts deriving from weather forecasts. Such forecasts are imperfect due to meteorological uncertainties and statistical modeling inaccuracies in the conversion of weather forecasts to power forecasts. First we gather several weather forecasts, secondly we generate multiple photovoltaic power forecasts, and finally we build linear combinations of the power forecasts. The minimization of the Continuous Ranked Probability Score (CRPS) allows to statistically calibrate the combination of these forecasts, and provides probabilistic forecasts under the form of a weighted empirical distribution function. We investigate the CRPS bias in this context and several properties of scoring rules which can be seen as a sum of quantile-weighted losses or a sum of threshold-weighted losses. The minimization procedure is achieved with online learning techniques. Such techniques come with theoretical guarantees of robustness on the predictive power of the combination of the forecasts. Essentially no assumptions are needed for the theoretical guarantees to hold. The proposed methods are applied to the forecast of solar radiation using satellite data, and the forecast of photovoltaic power based on high-resolution weather forecasts and standard ensembles of forecasts.
|
80 |
Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grilleZamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.
|
Page generated in 0.06 seconds