• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 1
  • Tagged with
  • 14
  • 14
  • 14
  • 11
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Impact populationnel de la vaccination contre les virus du papillome humain : revue systématique et synthèse des prédictions de 16 modèles mathématiques dynamiques

Bénard, Élodie 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème; 90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%; 68%) chez les femmes et 36%(28%; 61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%; 100%) chez les femmes et 83%(75%; 100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%; 32%) chez les femmes et 35%(27%; 39%) chez les hommes à 40% de couverture, et 7%(0%; 10%) et 16%(1%; 25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11. / Background: As of 2015, 65 countries have introduced HPV vaccination programmes. Mathematical models have played a key role in the implementation of these programmes. Objectives: We conducted a systematic review and pooled-analysis of model predictions of population-level effectiveness of HPV vaccination against HPV-16/18/6/11 infection in women and men, to examine the robustness/variability of predicted populationnal effects, incremental benefit of vaccinating boys, and potential for HPV vaccine-type elimination. Methods: We searched Medline and Embase (2009-2015) for transmission-dynamic modeling studies predicting the population-level impact of vaccination on HPV-16/18/6/11 infections among women and men in high-income countries. Participating modeling teams produced predictions for 19 standardized scenarios. We derived pooled relative reduction in HPV prevalence (RRprev) 70 years after vaccination, using the median (10th; 90thpercentile) of model predictions. Strategies investigated were Girls-Only and Girls & Boys vaccination at 12 years of age. Findings: 16/19 eligible models, from ten high-income countries provided predictions. With 40% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 53%(46%; 68%) and 36%(28%; 61%), respectively. With 80% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 93%(90%; 100%) and 83%(75%; 100%), respectively. Vaccinating boys in addition to girls increased HPV-16 RRprev among women and men by 18%(13%; 32%) and 35%(27%; 39%) for 40% coverage, and 7%(0%; 10%) and 16%(1%; 25%) for 80% coverage, respectively. RRprev were greater for HPV-18/6/11 than HPV-16 for all scenarios. Finally at 80% coverage, most models predicted that Girls & Boys vaccination would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls & Boys could eliminate HPV-16/18/6/11.
2

Modélisation de la tendance de l'opinion publique à partir de la sphère digitale

Ben Ayed, Slim 16 April 2018 (has links)
Au niveau de notre étude, nous avons comparé la performance de prévision de plusieurs modèles statistique de prévisions, modèles simples et modèles sophistiqués. Pour atteindre notre bute nous avons utilisé le ± MAPE ¿ comme mesure de précision des prédictions pour voir le quel de ces modèles est la plus appropriés à fournir les meilleures prévisions de l'opinion publique. Pour le faire nous nous somme basé sur une liste de données composée de séries chronologiques gracieusement fourni par Swammer. Ces séries comportent des données journalières couvrant la campagne présidentielle de France de 2007. Nous résultats montrent clairement que les méthodes statistiques simples ont un pouvoir de prédiction plus important que celui des méthodes sophistiquées pour un horizon de prédiction à très court terme. Nous constatons aussi que pour un horizon de prévision un peu plus long la méthode paramétrique de la régression robuste non linéaire représente la meilleure perspective de prévision parmi tous les modèles étudiés. Nous concluons ainsi que les méthodes statistiques sophistiquées ont un pouvoir de prédiction plus élevé que ce lui des méthodes statistiques simples pour un horizon de prévision un peu plus long que le très court terme.
3

Comparaison des questions de sondage pré-électoral dans leur capacité à prédire le résultat d'une élection et à diminuer le biais causé par l'inattention envers la corrélation : une analyse expérimentale

Hamel, Rudy 21 December 2018 (has links)
Par leur utilité, les sondages sont devenus des éléments importants de toute campagne électorale. Ils ont d’ailleurs beaucoup évolué au fil du temps et on les retrouve maintenant sous plus d’une forme. En effet, inspirés par les marchés de prédiction, les sondeurs ont développé un type de questionnement complémentaire aux sondages classiques interrogeant les individus sur leurs propres préférences. Cette autre méthode invite plutôt les participants à faire part de leurs anticipations sur le comportement agrégé de la population. Néanmoins, aucune de ces deux approches n’est parfaite. Leur pouvoir prédictif peut être affecté par plusieurs facteurs. Parmi ceux-ci, on compte l’inattention envers la corrélation, un biais cognitif susceptible d’affecter les réponses des individus sondés. À la lumière de qui précède, ce mémoire a pour premier objectif de comparer le pouvoir prédictif de ces deux types de méthode afin de distinguer la plus performante. Le second objectif est de mesurer l’effet potentiel du biais d’inattention envers la corrélation sur les réponses de participants à des sondages. Pour y arriver, des sujets ont été invités à participer à une expérience en laboratoire où ils ont occupé à la fois le rôle de sondé et de preneur de décision. Les résultats de l’expérience montrent que l’inattention envers la corrélation affecte significativement les réponses de participants à des sondages. De plus, certains facteurs personnels semblent être associés à une probabilité plus élevée d’être victime du biais.
4

How managers can use predictive analysis and mathematical models as decision making tools

Duclos Gosselin, Louis 18 April 2018 (has links)
Cet article propose une mesure simple (un modèle mathématique) évaluant la performance de différentes entités de vente (comme les vendeurs, les territoires de vente, les bureaux de vente régionaux ou l'ensemble des ventes de l'organisation) est proposée. Cette mesure est facile à estimer et elle peut facilement être comprise par les gestionnaires. De fait, elle peut être utilisé pour comparer les performances des différentes entités de vente, en tenant compte des conditions prévalant dans les différents marchés (tels que l'efficacité de la concurrence, la pénétration des ventes, ou les fluctuations du marché local). Les résultats de la mise en oeuvre de cette mesure dans une grande entreprise d'assurance dommage nord-américaine sont présentés.
5

L'effet du climat sur les plantes fourragères au Québec : estimation des pertes par la modélisation

Duchesne de Ortiz, Isabelle 17 April 2018 (has links)
Les modèles de prédiction sont utilisés dans divers domaines. En agriculture, l'assurance récolte n'y fait pas exception. La Financière agricole du Québec (FADQ), qui se devait de réviser sa protection d'assurance collective pour le foin, souhaitait répondre davantage à la réalité des entreprises agricoles en basant sa protection sur la modélisation. Puisqu'au Québec cette protection d'assurance récolte couvre les pertes de rendement et de qualité des plantes fourragères, la nouvelle façon de faire devait s'appliquer à ces deux volets. Elle visait également à réduire la dépendance envers les producteurs et le personnel sur le terrain pour faire l'estimation des pertes. La production fourragère est affectée par plusieurs facteurs environnementaux et agronomiques, notamment le climat, les types de sols, la diversité des espèces utilisées (légumineuses et graminées) et l'âge de la culture. Pour estimer les pertes en plantes fourragères subies par les producteurs, il est possible de développer des modèles empiriques en utilisant des variables indépendantes dérivées des facteurs énumérés précédemment. Le présent projet de recherche visait d'une part à confirmer la possibilité de bâtir un modèle empirique à l'aide de régressions statistiques et de variables bioclimatiques et agronomiques afin d'estimer les pertes de rendement annuelles des plantes fourragères causées par le climat. D'autre part, il visait aussi à confirmer la possibilité de bâtir un modèle dynamique afin d'estimer les pertes de valeur nutritive des plantes fourragères. Le rendement moyen annuel s'est avéré la meilleure variable dépendante à modéliser suite à l'analyse des bases de données historiques (agronomiques et climatiques). La famille botanique de la culture, le nombre de coupes effectuées et le type de sol sont apparus comme des variables indépendantes à caractère agronomique qui influencent le rendement. À partir des variables climatiques disponibles dans la base de données et d'une revue bibliographique, 31 variables indépendantes à caractère bioclimatique ont été élaborées pour créer le modèle empirique d'estimation du rendement annuel (MEERA). Ces variables décrivaient les conditions automnales, hivernales, printanières et estivales pouvant affecter le rendement annuel des plantes fourragères. La perte ou le gain de rendement était établi en comparant le rendement estimé par le modèle avec un rendement de référence établi sur la moyenne historique des rendements. Deux modèles MEERA ont été créés, le premier, 98-05, avec une base de données s'étendant de 1998 à 2005 et le deuxième, 98-06, avec une base de données s'étendant de 1998 à 2006. Dans les deux modèles, la variable dépendante et les variables indépendantes ont été déterminées pour, respectivement, 710 et 887 zones d'assurance toutes années confondues et réparties à travers le Québec agricole. Chacune des zones d'assurance, aussi appelées territoires de stations climatologiques, confient une station climatologique à laquelle un groupe de producteurs est rattaché, et ce, pour chaque année donnée. Afin de circonscrire la diversité climatique, le Québec agricole a été divisé en 12 régions climatiques. Ainsi, les deux modèles MEERA reposent sur 12 équations générales, une par région climatique, développées à l'aide de la procédure Mixed de SAS. Ces équations contiennent entre 5 et 20 variables bioclimatiques, dont le paramétrage était fonction du caractère agronomique de chaque territoire de station climatologique. À la calibration, le modèle 98-05 avait une efficacité (EF) moyenne de 68 %, variant de 50 à 81 % selon les régions climatiques. Si l'ajustement des rendements simulés sur les rendements mesurés avait été parfait, l'EF aurait été de 100%. La moyenne des 12 racines quadratiques de l'erreur moyenne (RMSE) des régions climatiques était de 267 kg ha"1 , soit 9,9 % du rendement moyen. Les résultats obtenus avec notre modèle se comparaient avec ceux des modèles rencontrés dans la littérature. À la validation du modèle 98-05 sur l'année 2006, les statistiques comparatives effectuées sur les équations des 12 régions climatiques indiquaient que le modèle était peu performant, car toutes les EF étaient négatives. De plus, le RMSE était en moyenne pour les 12 régions climatiques de 467 kg ha-1 , soit 14,7 % du rendement moyen de 2006. Les 12 équations du modèle 98-06 présentaient une efficacité moyenne de 67 %, variant de 46 à 84 % selon les régions climatiques. Pour l'ensemble des 12 équations, le modèle sous-estimait de 4,3 kg ha-1 le rendement moyen de toutes les régions climatiques confondues (2702 kg ha"1 ). Cela représentait un biais moyen non significatif d'à peine 0,2 %. La moyenne des 12 RMSE était de 287 kg ha-1 , soit 10% du rendement moyen. Toutefois, par rapport au modèle 98-05, l'efficacité moyenne est demeurée sensiblement la même, alors que l'écart entre l'efficacité la plus faible et la plus forte s'était accru. La validation du modèle 98-06 sur l'année 2007 présentait des EF négatives pour les 12 régions climatiques. De plus, le RMSE était en moyenne de 571 kg ha"1 pour les 12 régions, soit 20,1 % du rendement moyen de 2007. Cette perte d'efficacité des deux modèles MEERA, lorsqu'ils estiment une année externe à la base de données de calibration, peut, entre autres, provenir de l'incertitude liée aux données d'entrées. En effet, la base de données climatiques comportait en moyenne 4,4 % de données manquantes pour les variables climatiques (températures minimale et maximale, précipitations et épaisseur de neige au sol). La perte de qualité des plantes fourragères est associée à l'accroissement de la proportion en fibres non digestibles lors de la maturation des plantes causé par le retard de coupe, particulièrement en première coupe, ainsi qu'à la perte des nutriments, surtout l'azote, causée par la pluie tombée sur le foin au sol. Pour estimer les pertes de qualité, nous avons développé un modèle d'estimation des pertes de qualité des fourrages (PERQUALI) par territoire de station climatologique, en distinguant la perte pour le foin de celle pour l'ensilage. Ultimement, le modèle devait estimer la perte cumulée pour toutes les coupes provenant des différentes causes possibles, c'est-à-dire le retard de coupe pouvant survenir en début ou en cours de récolte et la pluie tombée sur le fourrage laissé au sol suite à la coupe, en première coupe seulement. De plus, le modèle devait considérer la destruction du foin laissé au sol par la pluie après la coupe, et ce, pour toutes les coupes. Quatre variables bioclimatiques et une composante agronomique (famille botanique) ont été utilisées pour développer le modèle PERQUALI. Ces variables décrivaient les conditions qui prévalaient pendant les périodes de coupe et de récolte des plantes fourragères. Les degrés-jours historiques nécessaires pour débuter la première coupe, le nombre de jours propices pour effectuer la coupe et la durée de la coupe sont des variables qui sont calculées à partir des variables climatiques enregistrées dans chaque territoire de station climatologique et qui sont directement utilisées par le modèle PERQUALI. La composition botanique, le nombre de coupes et la texture du sol observés dans chaque territoire de station climatologique sont également considérés par le modèle. Ainsi, pour connaître la perte associée à l'augmentation de la teneur en fibres non solubles dans un détergent neutre (NDF), PERQUALI estime la teneur en NDF au moment où le fourrage est prêt à être coupé selon le nombre de degrés-jours accumulés en première coupe et le compare à la teneur en NDF au moment où le foin est effectivement coupé. Pour leur part, les teneurs en fibres non solubles dans un détergent acide (ADF) et celles en protéines brutes (PB) sont issues d'équations empiriques tirées de la littérature. La méthodologie utilisée pour estimer la perte de qualité associée à la pluie après la coupe est également tirée de la littérature. Cette dernière méthodologie s'applique à chacune des coupes réalisées dans chaque territoire de station climatologique. La Financière agricole du Québec ne possède pas de données de qualité des fourrages pour valider les estimations de pertes obtenues par le modèle PERQUALI. Le modèle utilisé pour les données 2008 surestime possiblement les pertes réelles sur le terrain, puisque dans plusieurs cas, la durée de coupe estimée par le modèle était au-delà de celle déclarée par les fermes témoins en 2008. Néanmoins, de façon générale, les pertes corroboraient les présomptions des conseillers régionaux de la FADQ, c'est-à-dire que les pourcentages de pertes estimés pour le foin variaient de 24,8 % à 66,7 % alors que pour la production d'ensilage, les pertes estimées oscillaient plutôt entre 1,1 % et 21 %. Ces résultats font également ressortir le fait que les pertes en ensilage sont moins élevées que celles du foin. D'une façon générale, en 2008, l'Abitibi-Témiscamingue, l'Outaouais, la Mauricie, la Capitale-Nationale (Québec), Chaudière-Appalaches et certains endroits du Lac-Saint-Jean ont été les régions les plus affectées par les pertes de qualité des fourrages, et ce, peu importe le mode de récolte. Toutefois, le modèle n'a pas été testé sur d'autres années pour vérifier si la durée estimée, par le modèle se rapprochait de la réalité des fermes témoins sous d'autres conditions climatiques. Le modèle PERQUALI devrait donc être testé sur d'autres années afin de confirmer la capacité du modèle à simuler la durée de coupe. À notre connaissance, il n'existe pas d'autres modèles semblables à MEERA et PERQUALI qui soient utilisés pour estimer des pertes dans le but d'octroyer une indemnité d'assurance. En France, le modèle dynamique et mécaniste, STICS, a été en partie utilisé pour faire des estimations de pertes en assurance agricole, mais ce modèle ne tient pas compte des pertes hivernales, ni des pertes de qualité. Les modèles MEERA et PERQUALI sont donc uniques puisqu'ils prennent en compte des caractéristiques agronomiques et l'ensemble des aléas climatiques et qu'ils estiment à la fois les pertes de rendement et les pertes de qualité. / In the province of Quebec, more than half of agricultural lands are in forage production, and forage crops represent 25% of all insured value of « La Financière agricole du Québec (FADQ) »'s crop insurance program. The FADQ has recently proceeded to a reform its forage crop insurance with the objective of estimating forage losses in yield and quality according to insured grower's reality. Furthermore, the FADQ wanted to reduce its dependence on grower's information and crop adviser interventions for the estimation of losses in each insurance year. Forage productivity depends on agronomic and environmental factors such as climate, soil texture, species (legumes and grasses) and sward age. These factors can be taken into account to estimate forage losses by developing empirical models using independent variables derived from the factors just listed. The first objective of the present study was to develop an empirical model (MEERA) for the estimation of annual forage yield. Yield losses or gains were established by comparing the model estimated yield with a reference yield based on historical production. The second objective was to develop a dynamic model to estimate forage quality losses (PERQUALI). Annual forage yield was chosen as the dependent variable and the botanical family of the forage crop (legumes or grasses), the number of cuts (1, 2 or 3) and the soil texture (coarse or mean-fine) contained in the agronomic database were considered as independent variables of interest. Also, 31 bioclimatic independent variables were available for the MEERA calibration. These variables described the effects of climatic conditions in fall, winter, spring and summer on the yield forage crops. Two MEERA models were developed. The first one, 98-05, was created from a database covering the years 1998 to 2005 and the second one, 98-06, was created from a database for the years 1998 to 2006. Dependent and independent variables of both models were respectively created for 710 and 887 insurance zones spread throughout Quebec. Each insurance zone, also referred to as a weather station territory, included a number of forage growers associated to a weather station. The agricultural area of the Quebec province was divided into 12 climatic regions and a general linear equation was calculated for each region using the SAS System for Mixed models. Equations included 5 to 20 bioclimatic variables. The model MEERA 98-05 had an average forecasting efficiency (EF) across the 12 climatic regions of 68 %, varying from 50 to 81 % depending on the climatic region. The average root mean square error (RMSE) was 267 kg ha-1 which represents 9,9 % of the average annual yield. These results are comparable with other models described in the literature. The model MEERA 98-05 was then validated using the 2006 database. The differences between measured and estimated annual forage yield obtained for the 12 equations suggested an unsatisfactory model since all EF were negative. Furthermore, the average RMSE was 467 kg ha-1 or 14,7% of the average annual yield. The model MEERA 98-06 had an average forecasting efficiency (EF) of 67 %, varying from 46 to 84 % depending on the climatic region. The average RMSE of 287 kg ha-1 represented 10 % of the average annual yield. The model MEERA 98-06 was validated using the 2007 database. Differences between measured and estimated annual forage yield obtain for the 12 equations were large and the EF were negative. Moreover, the average RMSE was 571 kg ha-1 which represented 20,1% of the average annual yield. The loss of efficiency at validation time, for both models, may be caused by missing values in the climatic data set. Forage quality losses are associated with indigestible fibres that increase with forage maturity caused by a delay in cutting, as well as, nutrients losses, especially nitrogen, caused by rainfall after cutting. To estimate quality losses, we developed a dynamic model (PERQUALI) that estimated losses for each weather station territory. PERQUALI estimations concerned the delay of cutting at the beginning and throughout the harvesting period, the damage and the destruction of forage left on the ground caused by rainfall after the cut; this was done for all cuts. Four bioclimatic independent variables were used to develop the PERQUALI model. The historical accumulated degree-days corresponding to the maturity stage at the beginning of the first cut (DDBC1 ), the number of working days usually used to do the first cut, and the duration of the first cut were determined for each weather station territory. Also, botanical family, soil texture and number of cuts were ascertained for each weather station territory. The decline in quality was associated to increasing concentration of neutral detergent fibre (NDF) which was estimated by comparing the NDF concentration at DDBC1 to the NDF concentration when the forage was effectively cut. Moreover, PERQUALI estimated concentrations of acid detergent fibre (ADF) and crude protein (CP) using published equations. In 2008, quality losses estimated by PERQUALI were possibly overestimated compared to those observed in the field. This observation was based on the fact that the calculated duration of the cut was longer than the duration of the cut as provided by growers. Nevertheless, losses estimated by the model were generally in accordance with those observed by crop advisors. PERQUALI loss estimations were between 24.8 % and 66.7 % for hay while they were between 1.1 % and 21 % for silage. These results were in concordance with the fact that losses are usually lower for silage than those for hay. In 2008 specifically, the regions of Abitibi-Témiscamingue, Outaouais, Mauricie, Capitale-Nationale (Québec), Chaudière-Appalaches, and some parts of Lac-Saint-Jean were more affected by wet conditions during the harvesting period than other parts of the province. To confirm the estimation capacity of PERQUALI, we need to test the model using other climatic conditions since our model has only been tested for one-year data. To our knowledge, MEERA and PERQUALI are the first models that can estimate yield and quality losses for forage crop insurance that considers whole climatic effects.
6

Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiques

Fortin, Mathieu 21 December 2018 (has links)
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
7

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
8

Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones

Filion, Mélanie 12 April 2018 (has links)
L'objectif premier de cette étude vise à modéliser, à l'aide des réseaux de neurones, deux paramètres de qualité de l'eau : les nitrates et la matière en suspension. L'intérêt d'une telle simulation est de pouvoir développer un outil d'aide à la décision en matière de gestion des pratiques agricoles. Bien que les réseaux aient montré plus de difficulté à modéliser les MES que les N-NO3, ils ont réussi à approximer les signaux avec une précision suffisante pour le but poursuivi. Le deuxième objectif vise à vérifier si l'ajout de données de teneur en eau du sol améliore la prévision des débits et de comparer le gain apporté, à celui apporté par l'ajout d'un indice de teneur en eau. Les résultats montrent que la couche intermédiaire du sol apporte le gain de performance le plus important quoique l'indice de teneur en eau soit une alternative intéressante.
9

Analyse non-paramétrique des anticipations subjectives du revenu

Lessard, Jean-Pascal 16 April 2018 (has links)
Dans ce mémoire, j'estime de manière non-paramétrique des résultats comparables à ceux obtenus par Dominitz dans son papier intitulé : "Estimation of Income Expectations Models Using Expectations and Realization Data". Dans celui-ci, Dominitz estime la moyenne et l'écart-type du revenu anticipé. Pour ce faire, il interroge d'abord chaque individu afin qu'ils révèlent des points sur leur distribution de revenu anticipé. Par la suite, pour chaque répondant, il trouve la distribution log-normale qui correspond à leurs points révélés. Finalement, il estime la moyenne et l'écart-type de chacune des distributions. L'hypothèse que la distribution est de type log-normale pour tous les individus est problématique. Elle peut biaiser l'estimation de la moyenne et de l'écart-type, dans le cas où la fonction de distribution n'est pas réellement de type log-normale. Dans cette optique, ce mémoire présente de nouvelles estimations obtenues en appliquant une méthode qui ne suppose aucune forme de distribution spécifique pour les individus. Ces nouvelles estimations permettent de découvrir une relation non observée par Dominitz. Soit une relation négative entre le revenu réalisé pendant l'année et le degré d'incertitude des participants face à leur anticipation. Ce qui signifie qu'en moyenne les personnes ayant des revenus plus élevés prétendent connaître plus précisément quel sera leur revenu des 12 prochains mois que les autres répondants.
10

Évaluation de deux modèles de produits dérivés : pour le marché de l'électricité en Amérique du Nord

Beaudoin, Luc 12 April 2018 (has links)
Dans ce mémoire, nous adressons l'efficacité du marché financier de l'électricité en Amérique du Nord. Nous regardons spécifiquement la complexité des modèles à terme et la qualité de leurs prévisions. Nous concentrons notre étude sur deux modèles à terme, le modèle simple de Black et Scholes et un plus complexe, défini par Pilipovic. Nous regardons six marchés dans les États-Unis comme la MidColombia, le NP15, le ComEd, le Cinergy, le PJM et le NePool. La plage des données quotidiennes utilisées est de 1997 à 2002, soit pré et post Enron. Nous avons incorporé dans les modèles les propriétés stochastiques fondamentales associées aux prix à terme comme la diffusion de saut et moyenne inversée. Nous employons le facteur de corrélation pour étudier les modèles contre des prix passés et les données projetés. Nos résultats montrent que Black-Scholes est légèrement supérieur pour prévoir le prix court à terme. Les deux modèles ne sont pas appropriés pour l'évaluation à long terme. / In this thesis, we address the efficiency of the financial market of electricity in North America. We specifically look at the complexity of future models and the quality of the forecast. We focus our study on two future models, from a basic model, the Black-Scholes to a more complex, one defined by Pilipovic. We look at six markets in United-States as Mid-Colombia, NP15, ComEd, Cinergy, PJM and NePool. The daily data range from 1997 to 2 002, as pre and post Enron. We incorporated fundamental stochastic properties associated to spot and futures prices as jump diffusion and mean reversion. We use a correlation factor to define the fitness of the models against past and real prices. Our findings show that Black-Scholes is slightly better to foresee short term price. Both models are not appropriate for long term pricing.

Page generated in 0.3781 seconds