• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Prévision de la demande d'essence au Canada

Guelmbaye, Ngarsandje 23 April 2018 (has links)
Ce mémoire compare le pouvoir prédictif de 6 modèles de demande d’essence au Canada. Le modèle de tendance linéaire, le modèle à tendance quadratique, le modèle à tendance exponentielle, le modèle d’ajustement partiel ainsi que deux modèles basés sur l’approche Box-Jenkins ont été évalués. Le modèle d’ajustement partiel permet de montrer que la demande d’essence est inélastique par rapport au revenu ainsi qu’au prix. Toutefois, l’élasticité-revenu est plus forte que l’élasticité prix. Sur base de cette analyse, il est prévu qu’en 2020, au quatrième trimestre, la demande d’essence par habitant au Canada augmentera de moins d’un pourcent relativement au quatrième trimestre 2009.
142

L'effet du climat sur les plantes fourragères au Québec : estimation des pertes par la modélisation

Duchesne de Ortiz, Isabelle 17 April 2018 (has links)
Les modèles de prédiction sont utilisés dans divers domaines. En agriculture, l'assurance récolte n'y fait pas exception. La Financière agricole du Québec (FADQ), qui se devait de réviser sa protection d'assurance collective pour le foin, souhaitait répondre davantage à la réalité des entreprises agricoles en basant sa protection sur la modélisation. Puisqu'au Québec cette protection d'assurance récolte couvre les pertes de rendement et de qualité des plantes fourragères, la nouvelle façon de faire devait s'appliquer à ces deux volets. Elle visait également à réduire la dépendance envers les producteurs et le personnel sur le terrain pour faire l'estimation des pertes. La production fourragère est affectée par plusieurs facteurs environnementaux et agronomiques, notamment le climat, les types de sols, la diversité des espèces utilisées (légumineuses et graminées) et l'âge de la culture. Pour estimer les pertes en plantes fourragères subies par les producteurs, il est possible de développer des modèles empiriques en utilisant des variables indépendantes dérivées des facteurs énumérés précédemment. Le présent projet de recherche visait d'une part à confirmer la possibilité de bâtir un modèle empirique à l'aide de régressions statistiques et de variables bioclimatiques et agronomiques afin d'estimer les pertes de rendement annuelles des plantes fourragères causées par le climat. D'autre part, il visait aussi à confirmer la possibilité de bâtir un modèle dynamique afin d'estimer les pertes de valeur nutritive des plantes fourragères. Le rendement moyen annuel s'est avéré la meilleure variable dépendante à modéliser suite à l'analyse des bases de données historiques (agronomiques et climatiques). La famille botanique de la culture, le nombre de coupes effectuées et le type de sol sont apparus comme des variables indépendantes à caractère agronomique qui influencent le rendement. À partir des variables climatiques disponibles dans la base de données et d'une revue bibliographique, 31 variables indépendantes à caractère bioclimatique ont été élaborées pour créer le modèle empirique d'estimation du rendement annuel (MEERA). Ces variables décrivaient les conditions automnales, hivernales, printanières et estivales pouvant affecter le rendement annuel des plantes fourragères. La perte ou le gain de rendement était établi en comparant le rendement estimé par le modèle avec un rendement de référence établi sur la moyenne historique des rendements. Deux modèles MEERA ont été créés, le premier, 98-05, avec une base de données s'étendant de 1998 à 2005 et le deuxième, 98-06, avec une base de données s'étendant de 1998 à 2006. Dans les deux modèles, la variable dépendante et les variables indépendantes ont été déterminées pour, respectivement, 710 et 887 zones d'assurance toutes années confondues et réparties à travers le Québec agricole. Chacune des zones d'assurance, aussi appelées territoires de stations climatologiques, confient une station climatologique à laquelle un groupe de producteurs est rattaché, et ce, pour chaque année donnée. Afin de circonscrire la diversité climatique, le Québec agricole a été divisé en 12 régions climatiques. Ainsi, les deux modèles MEERA reposent sur 12 équations générales, une par région climatique, développées à l'aide de la procédure Mixed de SAS. Ces équations contiennent entre 5 et 20 variables bioclimatiques, dont le paramétrage était fonction du caractère agronomique de chaque territoire de station climatologique. À la calibration, le modèle 98-05 avait une efficacité (EF) moyenne de 68 %, variant de 50 à 81 % selon les régions climatiques. Si l'ajustement des rendements simulés sur les rendements mesurés avait été parfait, l'EF aurait été de 100%. La moyenne des 12 racines quadratiques de l'erreur moyenne (RMSE) des régions climatiques était de 267 kg ha"1 , soit 9,9 % du rendement moyen. Les résultats obtenus avec notre modèle se comparaient avec ceux des modèles rencontrés dans la littérature. À la validation du modèle 98-05 sur l'année 2006, les statistiques comparatives effectuées sur les équations des 12 régions climatiques indiquaient que le modèle était peu performant, car toutes les EF étaient négatives. De plus, le RMSE était en moyenne pour les 12 régions climatiques de 467 kg ha-1 , soit 14,7 % du rendement moyen de 2006. Les 12 équations du modèle 98-06 présentaient une efficacité moyenne de 67 %, variant de 46 à 84 % selon les régions climatiques. Pour l'ensemble des 12 équations, le modèle sous-estimait de 4,3 kg ha-1 le rendement moyen de toutes les régions climatiques confondues (2702 kg ha"1 ). Cela représentait un biais moyen non significatif d'à peine 0,2 %. La moyenne des 12 RMSE était de 287 kg ha-1 , soit 10% du rendement moyen. Toutefois, par rapport au modèle 98-05, l'efficacité moyenne est demeurée sensiblement la même, alors que l'écart entre l'efficacité la plus faible et la plus forte s'était accru. La validation du modèle 98-06 sur l'année 2007 présentait des EF négatives pour les 12 régions climatiques. De plus, le RMSE était en moyenne de 571 kg ha"1 pour les 12 régions, soit 20,1 % du rendement moyen de 2007. Cette perte d'efficacité des deux modèles MEERA, lorsqu'ils estiment une année externe à la base de données de calibration, peut, entre autres, provenir de l'incertitude liée aux données d'entrées. En effet, la base de données climatiques comportait en moyenne 4,4 % de données manquantes pour les variables climatiques (températures minimale et maximale, précipitations et épaisseur de neige au sol). La perte de qualité des plantes fourragères est associée à l'accroissement de la proportion en fibres non digestibles lors de la maturation des plantes causé par le retard de coupe, particulièrement en première coupe, ainsi qu'à la perte des nutriments, surtout l'azote, causée par la pluie tombée sur le foin au sol. Pour estimer les pertes de qualité, nous avons développé un modèle d'estimation des pertes de qualité des fourrages (PERQUALI) par territoire de station climatologique, en distinguant la perte pour le foin de celle pour l'ensilage. Ultimement, le modèle devait estimer la perte cumulée pour toutes les coupes provenant des différentes causes possibles, c'est-à-dire le retard de coupe pouvant survenir en début ou en cours de récolte et la pluie tombée sur le fourrage laissé au sol suite à la coupe, en première coupe seulement. De plus, le modèle devait considérer la destruction du foin laissé au sol par la pluie après la coupe, et ce, pour toutes les coupes. Quatre variables bioclimatiques et une composante agronomique (famille botanique) ont été utilisées pour développer le modèle PERQUALI. Ces variables décrivaient les conditions qui prévalaient pendant les périodes de coupe et de récolte des plantes fourragères. Les degrés-jours historiques nécessaires pour débuter la première coupe, le nombre de jours propices pour effectuer la coupe et la durée de la coupe sont des variables qui sont calculées à partir des variables climatiques enregistrées dans chaque territoire de station climatologique et qui sont directement utilisées par le modèle PERQUALI. La composition botanique, le nombre de coupes et la texture du sol observés dans chaque territoire de station climatologique sont également considérés par le modèle. Ainsi, pour connaître la perte associée à l'augmentation de la teneur en fibres non solubles dans un détergent neutre (NDF), PERQUALI estime la teneur en NDF au moment où le fourrage est prêt à être coupé selon le nombre de degrés-jours accumulés en première coupe et le compare à la teneur en NDF au moment où le foin est effectivement coupé. Pour leur part, les teneurs en fibres non solubles dans un détergent acide (ADF) et celles en protéines brutes (PB) sont issues d'équations empiriques tirées de la littérature. La méthodologie utilisée pour estimer la perte de qualité associée à la pluie après la coupe est également tirée de la littérature. Cette dernière méthodologie s'applique à chacune des coupes réalisées dans chaque territoire de station climatologique. La Financière agricole du Québec ne possède pas de données de qualité des fourrages pour valider les estimations de pertes obtenues par le modèle PERQUALI. Le modèle utilisé pour les données 2008 surestime possiblement les pertes réelles sur le terrain, puisque dans plusieurs cas, la durée de coupe estimée par le modèle était au-delà de celle déclarée par les fermes témoins en 2008. Néanmoins, de façon générale, les pertes corroboraient les présomptions des conseillers régionaux de la FADQ, c'est-à-dire que les pourcentages de pertes estimés pour le foin variaient de 24,8 % à 66,7 % alors que pour la production d'ensilage, les pertes estimées oscillaient plutôt entre 1,1 % et 21 %. Ces résultats font également ressortir le fait que les pertes en ensilage sont moins élevées que celles du foin. D'une façon générale, en 2008, l'Abitibi-Témiscamingue, l'Outaouais, la Mauricie, la Capitale-Nationale (Québec), Chaudière-Appalaches et certains endroits du Lac-Saint-Jean ont été les régions les plus affectées par les pertes de qualité des fourrages, et ce, peu importe le mode de récolte. Toutefois, le modèle n'a pas été testé sur d'autres années pour vérifier si la durée estimée, par le modèle se rapprochait de la réalité des fermes témoins sous d'autres conditions climatiques. Le modèle PERQUALI devrait donc être testé sur d'autres années afin de confirmer la capacité du modèle à simuler la durée de coupe. À notre connaissance, il n'existe pas d'autres modèles semblables à MEERA et PERQUALI qui soient utilisés pour estimer des pertes dans le but d'octroyer une indemnité d'assurance. En France, le modèle dynamique et mécaniste, STICS, a été en partie utilisé pour faire des estimations de pertes en assurance agricole, mais ce modèle ne tient pas compte des pertes hivernales, ni des pertes de qualité. Les modèles MEERA et PERQUALI sont donc uniques puisqu'ils prennent en compte des caractéristiques agronomiques et l'ensemble des aléas climatiques et qu'ils estiment à la fois les pertes de rendement et les pertes de qualité. / In the province of Quebec, more than half of agricultural lands are in forage production, and forage crops represent 25% of all insured value of « La Financière agricole du Québec (FADQ) »'s crop insurance program. The FADQ has recently proceeded to a reform its forage crop insurance with the objective of estimating forage losses in yield and quality according to insured grower's reality. Furthermore, the FADQ wanted to reduce its dependence on grower's information and crop adviser interventions for the estimation of losses in each insurance year. Forage productivity depends on agronomic and environmental factors such as climate, soil texture, species (legumes and grasses) and sward age. These factors can be taken into account to estimate forage losses by developing empirical models using independent variables derived from the factors just listed. The first objective of the present study was to develop an empirical model (MEERA) for the estimation of annual forage yield. Yield losses or gains were established by comparing the model estimated yield with a reference yield based on historical production. The second objective was to develop a dynamic model to estimate forage quality losses (PERQUALI). Annual forage yield was chosen as the dependent variable and the botanical family of the forage crop (legumes or grasses), the number of cuts (1, 2 or 3) and the soil texture (coarse or mean-fine) contained in the agronomic database were considered as independent variables of interest. Also, 31 bioclimatic independent variables were available for the MEERA calibration. These variables described the effects of climatic conditions in fall, winter, spring and summer on the yield forage crops. Two MEERA models were developed. The first one, 98-05, was created from a database covering the years 1998 to 2005 and the second one, 98-06, was created from a database for the years 1998 to 2006. Dependent and independent variables of both models were respectively created for 710 and 887 insurance zones spread throughout Quebec. Each insurance zone, also referred to as a weather station territory, included a number of forage growers associated to a weather station. The agricultural area of the Quebec province was divided into 12 climatic regions and a general linear equation was calculated for each region using the SAS System for Mixed models. Equations included 5 to 20 bioclimatic variables. The model MEERA 98-05 had an average forecasting efficiency (EF) across the 12 climatic regions of 68 %, varying from 50 to 81 % depending on the climatic region. The average root mean square error (RMSE) was 267 kg ha-1 which represents 9,9 % of the average annual yield. These results are comparable with other models described in the literature. The model MEERA 98-05 was then validated using the 2006 database. The differences between measured and estimated annual forage yield obtained for the 12 equations suggested an unsatisfactory model since all EF were negative. Furthermore, the average RMSE was 467 kg ha-1 or 14,7% of the average annual yield. The model MEERA 98-06 had an average forecasting efficiency (EF) of 67 %, varying from 46 to 84 % depending on the climatic region. The average RMSE of 287 kg ha-1 represented 10 % of the average annual yield. The model MEERA 98-06 was validated using the 2007 database. Differences between measured and estimated annual forage yield obtain for the 12 equations were large and the EF were negative. Moreover, the average RMSE was 571 kg ha-1 which represented 20,1% of the average annual yield. The loss of efficiency at validation time, for both models, may be caused by missing values in the climatic data set. Forage quality losses are associated with indigestible fibres that increase with forage maturity caused by a delay in cutting, as well as, nutrients losses, especially nitrogen, caused by rainfall after cutting. To estimate quality losses, we developed a dynamic model (PERQUALI) that estimated losses for each weather station territory. PERQUALI estimations concerned the delay of cutting at the beginning and throughout the harvesting period, the damage and the destruction of forage left on the ground caused by rainfall after the cut; this was done for all cuts. Four bioclimatic independent variables were used to develop the PERQUALI model. The historical accumulated degree-days corresponding to the maturity stage at the beginning of the first cut (DDBC1 ), the number of working days usually used to do the first cut, and the duration of the first cut were determined for each weather station territory. Also, botanical family, soil texture and number of cuts were ascertained for each weather station territory. The decline in quality was associated to increasing concentration of neutral detergent fibre (NDF) which was estimated by comparing the NDF concentration at DDBC1 to the NDF concentration when the forage was effectively cut. Moreover, PERQUALI estimated concentrations of acid detergent fibre (ADF) and crude protein (CP) using published equations. In 2008, quality losses estimated by PERQUALI were possibly overestimated compared to those observed in the field. This observation was based on the fact that the calculated duration of the cut was longer than the duration of the cut as provided by growers. Nevertheless, losses estimated by the model were generally in accordance with those observed by crop advisors. PERQUALI loss estimations were between 24.8 % and 66.7 % for hay while they were between 1.1 % and 21 % for silage. These results were in concordance with the fact that losses are usually lower for silage than those for hay. In 2008 specifically, the regions of Abitibi-Témiscamingue, Outaouais, Mauricie, Capitale-Nationale (Québec), Chaudière-Appalaches, and some parts of Lac-Saint-Jean were more affected by wet conditions during the harvesting period than other parts of the province. To confirm the estimation capacity of PERQUALI, we need to test the model using other climatic conditions since our model has only been tested for one-year data. To our knowledge, MEERA and PERQUALI are the first models that can estimate yield and quality losses for forage crop insurance that considers whole climatic effects.
143

Contribution à l'étude de la dégradation environnementale des matériaux cimentaires : transport hydrique et action des sulfates

Lory, Frédéric 13 June 2022 (has links)
La dégradation des matériaux poreux par l'intrusion d'une solution saline est connue depuis longtemps, mais demeure aujourd'hui un phénomène complexe à étudier en raison des multiples paramètres à considérer. Ce document propose des pistes d'amélioration du comportement des matériaux cimentaires afin de s'intégrer dans le cadre plus vaste de la prédiction du comportement des matériaux cimentaires face à la formation de phases expansives dans leur structure poreuse. La première partie de cette thèse se consacre à la revue bibliographique de la dégradation par l'action externe des sulfates et dresse le cadre général de l'étude des milieux poreux et du transport hydrique ainsi que le principe de dégradation par croissance d'un cristal de sel dans un milieu poreux. La stratégie de recherche qui en résulte s'articule autour de deux campagnes expérimentales. La première concerne l'application de la microfluidique, science qui mesure le comportement des fluides à l'échelle du micron, pour améliorer notre compréhension des phénomènes de saturation et de séchage d'un matériau poreux selon diverses solutions. Deux types de dispositifs ont été envisagés soit par lithographie au plasma et par érosion chimique après altération d'un substrat de verre par le passage d'un faisceau laser concentré. La seconde campagne expérimentale s'attache à l'analyse de matériaux cimentaires soumis à des solutions agressives diverses et dans des conditions de variation hydriques afin d'évaluer la combinaison de dégradations physico-chimiques par réactions chimiques avec les hydrates et par précipitation de sels. Finalement, un modèle de transport réactif multiphasique est présenté ainsi qu'une nouvelle approche basée sur la répartition de la distribution poreuse pour calculer les pressions induites à différentes échelles matériau. Le système d'équations appliqué à la poromécanique est alors développé en vue d'une résolution numérique des pressions générées par expansion d'une phase. Pour conclure ce document, des perspectives de modification des normes relatives aux attaques sulfates sont entrevues et de nouvelles avenues possibles grâce à l'émergence de nouvelles technologies sont esquissées. Des propositions de développement additionnel du modèle sont également adressées. / The degradation of porous materials by the intrusion of saline solution is known for centuries but still nowadays remains a complex phenomenon to be considered. This thesis proposes ways of improving the behavior of cementitious materials in order to integrate into the larger framework of predicting the behavior of cementitious materials in the face of the formation of expansive phases in their porous structure. This document is divided into five main parts. The first two parts are devoted to the bibliographic review of the degradation by the external action of sulfates and establish the general framework of the study of porous media and water transport as well as the principle of degradation by an expansion of a crystal salt into a porous medium. The resulting research strategies are centered around two experimental campaigns and the establishment of a poromechanical model with reactive transport model. The third part concerns the application of microfluidics, innovative science that measures fluid behavior at the micron scale, to improve our understanding of the saturation and drying phenomena of a porous material exposed to various saline solutions. Two types of devices are studies either by plasma lithography and by chemical erosion after the alteration by the passage of a concentrated laser beam of a glass substrate. The fourth part deals with the analysis of cementitious materials exposed to various aggressive solutions and wetting/drying condition in order to combine chemical reactions with hydrates and salts precipitation. The fifth part sets up a multiphasic reactive transport model and a new approach based on the pore size distribution repartition to calculate the pressures induced on pore walls at several material scales. Poromechanics equation system is then developed to solve pressure generation for numerical resolutions of the degradation. Finally, ideas to improve the standards for understanding the interaction of sulfates and possible new avenues through the advent of new technologies are outlined. Additional development proposals for the model are also addressed.
144

Prédiction de la réponse au traitement de l'insomnie chez les personnes âgées

Gagné, Anouk 06 January 2022 (has links)
L'objectif principal du présent mémoire est d'améliorer la connaissance des variables permettant de prédire la réponse à différents traitements de l'insomnie chez les personnes âgées. La présente étude s'intègre à une étude comparant l'efficacité clinique de traitements psychologiques et pharmacologiques de l'insomnie chez les personnes âgées (Morin, Colecchi, Stone, Sood, & Brink, 1995). Un total de 78 adultes, âgés de plus de 55 ans et souffrant d'insomnie chronique ont été assignés aléatoirement à l'une des quatre conditions suivantes: (a)thérapie behaviorale cognitive (TBC); (b) pharmacothérapie (PCT); ( c) combinaison de TBC +PCT (COMB); et (d) placebo (PIAC). Certaines variables démographiques, cliniques, psychométriques et du sommeil ont été analysées afin de déterminer si elles prédisent la réponse au traitement. Cette dernière est définie par l'efficacité du sommeil après le traitement mesurée subjectivement par un agenda du sommeil (AS) et objectivement par la polysomnographie(PSG). Les résultats démontrent que l'âge, la durée de l'insomnie, la présence de maladies physiques, l'utilisation antérieure de somnifères et d'un traitement en psychologie ou psychiatrie dans le passé peuvent modérer la réponse subjective et/ ou objective du traitement chez les personnes âgées. Cependant, la présente étude ne permet pas d'identifier de variables prédisant avec fiabilité la réponse parmi les différentes modalités de traitements et d'évaluation.
145

Predicting the service life of shotcrete : investigation on the transport properties of shotcrete mixes

Power, Patrick 20 April 2018 (has links)
Le béton projeté est un procédé versatile de mise-en-place particulièrement adapté aux besoins de l’industrie moderne de la construction. Quand le béton projeté est spécifié pour des travaux de construction ou de réparation, le matériau doit souvent rencontrer les exigences en termes de résistance en compression, d’absorption après ébullition ou de pénétrabilité aux ions chlorures. Quoique relativement rapides et peu coûteux, ces essais ne permettent pas d’évaluer la durée de vie du matériau, ni de tenir compte des conditions d’exposition environnementales. Cette situation est problématique pour les fournisseurs et utilisateurs de béton projeté qui œuvrent à améliorer la qualité des mélanges. Il existe peu d’information traitant de l’influence du mélange initial et des paramètres de projection sur la durabilité du béton projeté. Ce projet de recherche vise à continuer l’étude des propriétés de transport du béton projeté afin de modéliser la réponse du matériau aux espèces ioniques en milieu agressif. / Shotcrete is a versatile placement process particularly well adapted to the needs of the modern construction industry. When shotcrete is specified for construction or repair work, the material must oftentimes meet a required compressive strength, boiled water absorption or chloride ion penetrability. Although relatively swift and cost-efficient, these tests do not provide an exact assessment of the potential service life provided by the mixture and do not consider the environmental exposure conditions affecting the concrete. This brings sizeable challenges to shotcrete mixture designers attempting to improve the quality of their mixtures. There is currently little information on the influence of the initial mixture design and the shooting parameters on shotcrete durability. This research project aims to continue the study of the transport properties of shotcrete to model the ingress of ionic species into the material in an aggressive environment.
146

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 20 March 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
147

Comparaison des questions de sondage pré-électoral dans leur capacité à prédire le résultat d'une élection et à diminuer le biais causé par l'inattention envers la corrélation : une analyse expérimentale

Hamel, Rudy 21 December 2018 (has links)
Par leur utilité, les sondages sont devenus des éléments importants de toute campagne électorale. Ils ont d’ailleurs beaucoup évolué au fil du temps et on les retrouve maintenant sous plus d’une forme. En effet, inspirés par les marchés de prédiction, les sondeurs ont développé un type de questionnement complémentaire aux sondages classiques interrogeant les individus sur leurs propres préférences. Cette autre méthode invite plutôt les participants à faire part de leurs anticipations sur le comportement agrégé de la population. Néanmoins, aucune de ces deux approches n’est parfaite. Leur pouvoir prédictif peut être affecté par plusieurs facteurs. Parmi ceux-ci, on compte l’inattention envers la corrélation, un biais cognitif susceptible d’affecter les réponses des individus sondés. À la lumière de qui précède, ce mémoire a pour premier objectif de comparer le pouvoir prédictif de ces deux types de méthode afin de distinguer la plus performante. Le second objectif est de mesurer l’effet potentiel du biais d’inattention envers la corrélation sur les réponses de participants à des sondages. Pour y arriver, des sujets ont été invités à participer à une expérience en laboratoire où ils ont occupé à la fois le rôle de sondé et de preneur de décision. Les résultats de l’expérience montrent que l’inattention envers la corrélation affecte significativement les réponses de participants à des sondages. De plus, certains facteurs personnels semblent être associés à une probabilité plus élevée d’être victime du biais.
148

Prévoir l'inflation américaine : l'utilisation des données agrégées ou désagrégées

Perron, Isabelle 12 April 2018 (has links)
L'objectif de ce mémoire est de déterminer s'il est préférable d'utiliser l'inflation totale directement ou l'inflation désagrégée afin de prévoir l'inflation totale américaine. Pour parvenir à cette fin, deux horizons de prévision sont exploités : le court terme et le moyen terme et un seul niveau de désagrégation est utilisé, soit 28 indices de prix. Dans le cadre des prévisions de court terme, le modèle agrégé utilisé est représenté par la nouvelle courbe de Phillips de Stock et Watson (1999) et deux modèles désagrégés sont mis à contribution. Le premier modèle désagrégé est estimé par un processus autorégressif multivarié alors que le second modèle est estimé par un processus autorégressif univarié. Pour ce qui est des prévisions de moyen terme, les modèles à comparer sont tous deux des modèles monétaires. Les résultats obtenus par les prévisions hors échantillon sont fort intéressants. L'utilisation des 28 indices de prix n'améliore en rien les prévisions de court terme puisque les erreurs de prévision sont beaucoup plus élevées que celles issues de la courbe de Phillips. À moyen terme, toutefois, le modèle désagrégé utilisant l'agrégat monétaire Ml génère de bien meilleures prévisions que les autres modèles monétaires agrégés.
149

Être youtubeur au Québec : étude exploratoire d'un métier en émergence

Nadeau, Valérie 16 September 2022 (has links)
Ce mémoire de maîtrise a pour but d'explorer le métier de youtubeur, tout en s'intéressant au rapport au travail de ces créateurs. Au fil des années, l'engouement envers la plateforme YouTube a été fulgurant, allant même jusqu'à la mise sur pied d'un programme partenaire, afin de permettre aux créateurs de commencer à être rémunérés pour les vidéos qu'ils mettaient en ligne. Parallèlement, les parcours professionnels sont de plus en plus atypiques et plusieurs jeunes semblent attirés par le travail autonome et même, par l'entrepreneuriat (Pennel, 2013; Noiseux, 2012; Longo et al., 2019). Comme la plateforme YouTube est accessible dans plusieurs pays, des chercheurs de partout dans le monde se sont intéressés à ce médium, surtout sous l'angle de son utilisation et de sa consommation par les individus. Toutefois, peu d'entre eux se sont penchés sur ces travailleurs, d'un point de vue orientation, perspective de carrière et rapport au travail. Pour cette recherche qualitative, une recherche documentaire sur la plateforme YouTube a été menée. Ensuite, douze youtubeurs ont été rencontrés lors d'entrevues individuelles, conduites de façon semi-dirigée. L'analyse de ces données a permis de rédiger une description du travail des youtubeurs, puis de dégager quatre profils types, soit 1) le youtubeur de carrière, 2) de youtubeur à entrepreneur, 3) le youtubeur et ses conciliations et 4) l'aspirant youtubeur. Ces quatre profils types ont pu être comparés en regard des six ethos du travail songés par Mercure et Vultur (2010). Dans la discussion, il sera possible d'affirmer qu'être youtubeur peut représenter une activité professionnalisante, un travail pouvant apporter des revenus aux créateurs. La notion d'indépendance et de dépendance envers le travail sur plateforme sera aussi explicitée. Finalement, des réflexions seront abordées sur le métier de youtubeur, exercé dans le contexte singulier de la pandémie de COVID-19. / This master's thesis aims to explore the profession of youtubers, while focusing on the relationship between these creators and their work. Over the years, the popularity of the YouTube platform has been soaring, even going so far as to set up a partner program to allow creators to start earning money for the videos they put online. At the same time, career paths are increasingly atypical and many young people seem attracted to self-employment and even entrepreneurship (Pennel, 2013; Noiseux, 2012; Longo et al., 2019). As the YouTube platform is accessible in several countries, researchers from around the world have been interested in this medium, especially in terms of its use and consumption by individuals. However, few of them have studied these workers from the point of view of guidance sciences, career perspective and relationship to work. For this qualitative research, a literature search on the YouTube platform was conducted. Then, twelve youtubers were met during individual interviews, in a semi-structured manner. The analysis of these data allowed us to write a description of the youtubers' work, and then to identify four typical profiles : 1) the career youtuber, 2) from youtuber to entrepreneur, 3) the youtuber and his conciliations, and 4) the aspiring youtuber. These four typical profiles could be compared against the six work ethos thought by Mercure and Vultur (2010). In the discussion, it will be possible to affirm that being a youtuber can represent a professionalizing activity, a job that can bring income to creators. The notion of independence and dependence towards platform work will also be explored. Finally, reflections will be addressed on the profession of youtuber, exercised in the singular context of the COVID-19 pandemic.
150

Analyse des réseaux sociaux pour la prédiction de l'affluence lors d'un évènement

Logovi, Tété Elom Mike Norbert 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce projet de recherche porte sur l'utilisation de données des réseaux sociaux basés sur des évènements ainsi que des données météorologiques pour prédire la participation effective des utilisateurs à des évènements en ligne ou hors ligne, à l'ère de la technologie qui peut rassembler des participants du monde entier. Cette recherche a été principalement motivée par le fait que les organisateurs d'évènements ont souvent du mal à estimer le nombre de participants, ce qui peut entraîner des problèmes financiers, organisationnels et de réputation. Dans ce domaine, de nombreuses études ont développé des algorithmes d'apprentissage automatique pour prédire la participation des utilisateurs aux évènements, bien que des améliorations soient nécessaires. De plus, peu d'études ont examiné l'interprétabilité et l'explicabilité de ces algorithmes afin de déterminer les facteurs qui influencent le plus la participation d'un utilisateur à un évènement. Ce projet de recherche offre une solution complète à ces questions. Sa solution est une méthode consistant à collecter des données sur les évènements et les conditions météorologiques et à en extraire les caractéristiques pertinentes. Ces caractéristiques permettent ensuite d'entraîner des algorithmes d'apprentissage automatique afin de prédire si un utilisateur participera effectivement à un évènement. Il est important de noter que cette recherche cherche tente également d'expliquer comment les prédictions sont faites en déterminant les facteurs les plus importants. Des données météorologiques et des données relatives aux évènements du réseau social basé sur des évènements Meetup ont été utilisées dans le cadre de l'étude. L'expérience a révélé que l'algorithme Decision Tree était le plus performant pour prédire la participation à un évènement. En outre, la distance entre l'utilisateur et le lieu de l'évènement est le facteur le plus important pour prédire la participation des utilisateurs. Ce projet présente plusieurs avantages majeurs, notamment la possibilité de combiner des données d'événements provenant de Meetup, un réseau social basé sur les événements, avec les préférences des utilisateurs évaluées à l'aide de divers paramètres et une analyse approfondie de l'interprétabilité des classificateurs afin d'identifier les facteurs de participation aux événements. Cependant, il présente certaines limites, telles qu'un ensemble de données déséquilibré avec davantage d'utilisateurs non participants, des tests sur des événements passés plutôt que futurs, et le manque d'exploration des données des réseaux sociaux non basés sur des événements. En conclusion, cette recherche vise à améliorer la compréhension des mécanismes qui affectent l'engagement des utilisateurs dans les évènements, offrant de nouvelles perspectives aux organisateurs d'évènements et aux chercheurs dans ce domaine en évolution rapide. Elle fournit des outils pour anticiper et gérer la participation, améliorant ainsi la qualité et la préparation des évènements, qu'ils soient en ligne ou hors ligne. / This research project focuses on the use of event-based social network data and weather data to predict users’ actual participation in online and offline events, in the age of technology that can bring together participants from all over the world. This research was primarily motivated by the fact that event organizers often find it difficult to estimate the number of participants, which can lead to financial, organizational and reputational problems. In this field, many studies have developed machine learning algorithms to predict user participation in events, although improvements are needed. Moreover, few studies have examined the interpretability and explicability of these algorithms to determine which factors most influence a user’s participation in an event. This research project offers a comprehensive solution to these questions. Its solution is a method of collecting data on events and weather conditions and extracting relevant features. These features are then used to train machine learning algorithms to predict whether a user will actually attend an event. Importantly, this research also attempts to explain how predictions are made by identifying the most important factors. Weather and event data from the Meetup event-based social network were used in the study. The experiment revealed that the Decision Tree algorithm performed best in predicting event attendance. Furthermore, the distance between the user and the event location was the most important factor in predicting user participation. This project has several major advantages, including the ability to combine event data from Meetup, an event-based social network, with user preferences assessed using various parameters, and an in-depth analysis of classifier interpretability to identify event participation factors. However, it has certain limitations, such as an unbalanced dataset with more nonparticipating users, tests on past rather than future events, and lack of exploration of nonevent-based social network data. In conclusion, this research aims to improve understanding of the mechanisms affecting user engagement in events, offering new perspectives to event organizers and researchers in this rapidly evolving field. It provides tools for anticipating and managing participation, thus improving the quality and preparation of events, whether online or offline.

Page generated in 0.5065 seconds