• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Prévoir l'inflation américaine : l'utilisation des données agrégées ou désagrégées

Perron, Isabelle 12 April 2018 (has links)
L'objectif de ce mémoire est de déterminer s'il est préférable d'utiliser l'inflation totale directement ou l'inflation désagrégée afin de prévoir l'inflation totale américaine. Pour parvenir à cette fin, deux horizons de prévision sont exploités : le court terme et le moyen terme et un seul niveau de désagrégation est utilisé, soit 28 indices de prix. Dans le cadre des prévisions de court terme, le modèle agrégé utilisé est représenté par la nouvelle courbe de Phillips de Stock et Watson (1999) et deux modèles désagrégés sont mis à contribution. Le premier modèle désagrégé est estimé par un processus autorégressif multivarié alors que le second modèle est estimé par un processus autorégressif univarié. Pour ce qui est des prévisions de moyen terme, les modèles à comparer sont tous deux des modèles monétaires. Les résultats obtenus par les prévisions hors échantillon sont fort intéressants. L'utilisation des 28 indices de prix n'améliore en rien les prévisions de court terme puisque les erreurs de prévision sont beaucoup plus élevées que celles issues de la courbe de Phillips. À moyen terme, toutefois, le modèle désagrégé utilisant l'agrégat monétaire Ml génère de bien meilleures prévisions que les autres modèles monétaires agrégés.
152

Contribution à l'étude de la dégradation environnementale des matériaux cimentaires : transport hydrique et action des sulfates

Lory, Frédéric 13 December 2023 (has links)
La dégradation des matériaux poreux par l'intrusion d'une solution saline est connue depuis longtemps, mais demeure aujourd'hui un phénomène complexe à étudier en raison des multiples paramètres à considérer. Ce document propose des pistes d'amélioration du comportement des matériaux cimentaires afin de s'intégrer dans le cadre plus vaste de la prédiction du comportement des matériaux cimentaires face à la formation de phases expansives dans leur structure poreuse. La première partie de cette thèse se consacre à la revue bibliographique de la dégradation par l'action externe des sulfates et dresse le cadre général de l'étude des milieux poreux et du transport hydrique ainsi que le principe de dégradation par croissance d'un cristal de sel dans un milieu poreux. La stratégie de recherche qui en résulte s'articule autour de deux campagnes expérimentales. La première concerne l'application de la microfluidique, science qui mesure le comportement des fluides à l'échelle du micron, pour améliorer notre compréhension des phénomènes de saturation et de séchage d'un matériau poreux selon diverses solutions. Deux types de dispositifs ont été envisagés soit par lithographie au plasma et par érosion chimique après altération d'un substrat de verre par le passage d'un faisceau laser concentré. La seconde campagne expérimentale s'attache à l'analyse de matériaux cimentaires soumis à des solutions agressives diverses et dans des conditions de variation hydriques afin d'évaluer la combinaison de dégradations physico-chimiques par réactions chimiques avec les hydrates et par précipitation de sels. Finalement, un modèle de transport réactif multiphasique est présenté ainsi qu'une nouvelle approche basée sur la répartition de la distribution poreuse pour calculer les pressions induites à différentes échelles matériau. Le système d'équations appliqué à la poromécanique est alors développé en vue d'une résolution numérique des pressions générées par expansion d'une phase. Pour conclure ce document, des perspectives de modification des normes relatives aux attaques sulfates sont entrevues et de nouvelles avenues possibles grâce à l'émergence de nouvelles technologies sont esquissées. Des propositions de développement additionnel du modèle sont également adressées. / The degradation of porous materials by the intrusion of saline solution is known for centuries but still nowadays remains a complex phenomenon to be considered. This thesis proposes ways of improving the behavior of cementitious materials in order to integrate into the larger framework of predicting the behavior of cementitious materials in the face of the formation of expansive phases in their porous structure. This document is divided into five main parts. The first two parts are devoted to the bibliographic review of the degradation by the external action of sulfates and establish the general framework of the study of porous media and water transport as well as the principle of degradation by an expansion of a crystal salt into a porous medium. The resulting research strategies are centered around two experimental campaigns and the establishment of a poromechanical model with reactive transport model. The third part concerns the application of microfluidics, innovative science that measures fluid behavior at the micron scale, to improve our understanding of the saturation and drying phenomena of a porous material exposed to various saline solutions. Two types of devices are studies either by plasma lithography and by chemical erosion after the alteration by the passage of a concentrated laser beam of a glass substrate. The fourth part deals with the analysis of cementitious materials exposed to various aggressive solutions and wetting/drying condition in order to combine chemical reactions with hydrates and salts precipitation. The fifth part sets up a multiphasic reactive transport model and a new approach based on the pore size distribution repartition to calculate the pressures induced on pore walls at several material scales. Poromechanics equation system is then developed to solve pressure generation for numerical resolutions of the degradation. Finally, ideas to improve the standards for understanding the interaction of sulfates and possible new avenues through the advent of new technologies are outlined. Additional development proposals for the model are also addressed.
153

Étude des conditions météorologiques favorables au déclenchement d'avalanches de neige par l'entremise d'appareils photographiques automatisés dans la région d'Umiujaq, Nunavik

Grenier, Jérémy 10 January 2024 (has links)
La croissance démographique récente au Nunavik a amené l'expansion de certains villages nordiques près de zones de relief propice au déclenchement d'avalanches de neige tant à l'hiver qu'au printemps. Dans l'optique de développer une méthode de prévision précoce des avalanches au Nunavik, la surveillance des versants en contexte périglaciaire est primordiale. Les objectifs principaux de cette recherche sont donc de caractériser les événements avalancheux survenus de 2017 à 2020 sur le versant sud-ouest de la vallée Tasiapik (Umiujaq, Nunavik) et d'identifier les conditions météorologiques favorables à leur déclenchement. Pour ce faire, nous avons utilisé des appareils photographiques automatisés qui affichent une valeur de température sur chaque image capturée. Les données de température extraites sur près de 39 500 photographies ont été comparées aux données de température de deux stations météorologiques à proximité. Les résultats ont démontré que les appareils photographiques sont précis pour la mesure de la température à la fin de l'automne et à l'hiver. Au printemps et en été, ils ont une grande propension à surestimer la température. Les erreurs de mesure de température des appareils photographiques ont été statistiquement liées à la couverture nuageuse et à la radiation solaire incidente moyenne journalière. Par ailleurs, les photographies ont permis de caractériser 130 dépôts avalancheux. Deux principaux régimes d'avalanches ont été décrits : un régime hivernal, et un régime printanier. Des analyses de régression progressive ont permis d'établir que les conditions météorologiques propices au déclenchement des avalanches hivernales sont l'augmentation de la température minimale quotidienne et les chutes de neige ≥ à 10 cm à court terme (2 à 4 jours). Au printemps, ces conditions consistent en l'accumulation de degrés-jours de fonte, l'augmentation de la température minimale quotidienne, et la hauteur du couvert nival. Deux modèles de régression logistique ont été testés. Ensemble, ces modèles ont maintenu un taux de bonne classification global de 70.21% et ont correctement identifié 45 des 79 journées avalancheuses observées dans la vallée Tasiapik de 2017 à 2020. / Recent population growth in Nunavik has led to the expansion of northern villages some of which are located near mountainous areas prone to snow avalanches releases in winter and in spring. To develop an early avalanche forecasting method in Nunavik, monitoring of slopes in a periglacial context is essential. The main objectives of this research were to characterize avalanche events that occurred from 2017 to 2020 on the southwestern slope of the Tasiapik Valley (Umiujaq, Nunavik) and to identify the meteorological conditions that were favorable to their triggering. To do so, we used automated time-lapse cameras which displayed a temperature value on each captured image. Temperature data extracted from nearly 39,500 photographs were compared to temperature data from two nearby weather stations. The results showed that the cameras were accurate in measuring temperature in the late fall and winter. In spring and summer, they have a high propensity to overestimate temperature. The temperature measurement errors of the cameras were statistically related to the observable cloud coverage and the daily average incident solar radiation. In addition, the photographs were used to characterize 130 snow avalanche deposits. Two main avalanche regimes were described: winter and spring. Stepwise regression analyses established that the meteorological conditions conducive to winter snow avalanche initiation are the increasing daily minimum air temperature and short term (2-4 days) snowfall episodes ≥ 10 cm. In spring, these conditions are the accumulation of melting degree days, the increase in daily minimum air temperature, and snow cover height. Two logistic regression models were tested. Together, the models maintained a global correct classification rate of 70.21% correctly identifying 45 of 79 avalanche days observed within Tasiapik Valley from 2017 to 2020.
154

Analyse des réseaux sociaux pour la prédiction de l'affluence lors d'un évènement

Logovi, Tété Elom Mike Norbert 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce projet de recherche porte sur l'utilisation de données des réseaux sociaux basés sur des évènements ainsi que des données météorologiques pour prédire la participation effective des utilisateurs à des évènements en ligne ou hors ligne, à l'ère de la technologie qui peut rassembler des participants du monde entier. Cette recherche a été principalement motivée par le fait que les organisateurs d'évènements ont souvent du mal à estimer le nombre de participants, ce qui peut entraîner des problèmes financiers, organisationnels et de réputation. Dans ce domaine, de nombreuses études ont développé des algorithmes d'apprentissage automatique pour prédire la participation des utilisateurs aux évènements, bien que des améliorations soient nécessaires. De plus, peu d'études ont examiné l'interprétabilité et l'explicabilité de ces algorithmes afin de déterminer les facteurs qui influencent le plus la participation d'un utilisateur à un évènement. Ce projet de recherche offre une solution complète à ces questions. Sa solution est une méthode consistant à collecter des données sur les évènements et les conditions météorologiques et à en extraire les caractéristiques pertinentes. Ces caractéristiques permettent ensuite d'entraîner des algorithmes d'apprentissage automatique afin de prédire si un utilisateur participera effectivement à un évènement. Il est important de noter que cette recherche cherche tente également d'expliquer comment les prédictions sont faites en déterminant les facteurs les plus importants. Des données météorologiques et des données relatives aux évènements du réseau social basé sur des évènements Meetup ont été utilisées dans le cadre de l'étude. L'expérience a révélé que l'algorithme Decision Tree était le plus performant pour prédire la participation à un évènement. En outre, la distance entre l'utilisateur et le lieu de l'évènement est le facteur le plus important pour prédire la participation des utilisateurs. Ce projet présente plusieurs avantages majeurs, notamment la possibilité de combiner des données d'événements provenant de Meetup, un réseau social basé sur les événements, avec les préférences des utilisateurs évaluées à l'aide de divers paramètres et une analyse approfondie de l'interprétabilité des classificateurs afin d'identifier les facteurs de participation aux événements. Cependant, il présente certaines limites, telles qu'un ensemble de données déséquilibré avec davantage d'utilisateurs non participants, des tests sur des événements passés plutôt que futurs, et le manque d'exploration des données des réseaux sociaux non basés sur des événements. En conclusion, cette recherche vise à améliorer la compréhension des mécanismes qui affectent l'engagement des utilisateurs dans les évènements, offrant de nouvelles perspectives aux organisateurs d'évènements et aux chercheurs dans ce domaine en évolution rapide. Elle fournit des outils pour anticiper et gérer la participation, améliorant ainsi la qualité et la préparation des évènements, qu'ils soient en ligne ou hors ligne. / This research project focuses on the use of event-based social network data and weather data to predict users’ actual participation in online and offline events, in the age of technology that can bring together participants from all over the world. This research was primarily motivated by the fact that event organizers often find it difficult to estimate the number of participants, which can lead to financial, organizational and reputational problems. In this field, many studies have developed machine learning algorithms to predict user participation in events, although improvements are needed. Moreover, few studies have examined the interpretability and explicability of these algorithms to determine which factors most influence a user’s participation in an event. This research project offers a comprehensive solution to these questions. Its solution is a method of collecting data on events and weather conditions and extracting relevant features. These features are then used to train machine learning algorithms to predict whether a user will actually attend an event. Importantly, this research also attempts to explain how predictions are made by identifying the most important factors. Weather and event data from the Meetup event-based social network were used in the study. The experiment revealed that the Decision Tree algorithm performed best in predicting event attendance. Furthermore, the distance between the user and the event location was the most important factor in predicting user participation. This project has several major advantages, including the ability to combine event data from Meetup, an event-based social network, with user preferences assessed using various parameters, and an in-depth analysis of classifier interpretability to identify event participation factors. However, it has certain limitations, such as an unbalanced dataset with more nonparticipating users, tests on past rather than future events, and lack of exploration of nonevent-based social network data. In conclusion, this research aims to improve understanding of the mechanisms affecting user engagement in events, offering new perspectives to event organizers and researchers in this rapidly evolving field. It provides tools for anticipating and managing participation, thus improving the quality and preparation of events, whether online or offline.
155

Liens erronés avec le passé et séquences aléatoires

Lachance, Nadine 23 February 2022 (has links)
La première étude évalue la relation entre la production ou la reconnaissance de séquences aléatoires et le contenu des rapports verbaux des sujets. Elle est menée à l'aide de deux tâches différentes. L'une comporte deux alternatives (pile et face), l'autre en compte six (les côtés d'un dé). Les résultats révèlent que la majorité des verbalisations émises par les sujets font référence à des liens erronés avec le passé et ce, peu importe la tâche qu'ils ont à effectuer. La seconde expérience compare les comportements et cognitions des sujets qui génèrent des séquences aléatoires à partir des informations disponibles. Les résultats indiquent que les verbalisations rapportées par les sujets du premier groupe (avec information) font, majoritairement, référence à des liens inadéquats entre le présent et le passé. Cependant, l'hypothèse de base n'est pas vérifiée. La discussion soulève quelques éléments explicatifs et propose des études ultérieures en ce qui concerne l'implication des participants dans la tâche expérimentale.
156

La performance cyclique des outils prévisionnels : le cas de la devise canadienne

Tremblay, Nicolas 16 April 2018 (has links)
Depuis que Meese et Rogoff [1983] ont publié leur article sur la qualité des outils prévisionnels du taux de change des années 70, découvrir le meilleur type de modèle et la spécification la plus efficace est un sujet prolifique de la littérature en économie internationale. Ce mémoire conduira une comparaison bayesienne des principales modélisations utilisées pour prédire l'évolution du taux de change. La méthodologie mise en oeuvre sera celle proposée par Geweke [1994] qui se nomme l'importance sampling. Une comparaison des densités et des vraisemblances prédictives permettra de déterminer s'il est préférable d'utiliser le vecteur autorégressif ou le modèle à correction d'erreurs pour prédire les réalisations du taux de change lors des divers états de l'économie.
157

Évaluation de l'incertitude liée à la modélisation hydraulique au sein d'un système de prévision d'ensemble des niveaux d'eau

Bessar, Mohammed Amine 02 February 2024 (has links)
Les inondations présentent une grande menace à la sécurité humaine et matérielle. Les effets associés à ces phénomènes naturels risquent d'augmenter encore plus avec les tendances liées aux changements climatiques. Il est donc important de disposer d'outils de prévision et de prévention des crues fiables afin de mitiger les conséquences dévastatrices reliées. La mise en œuvre de ces outils implique des processus physiques assez complexes et nécessite beaucoup de données avec toute l'incertitude associée. Dans cette thèse, on explore les différentes sources d'incertitudes liée à la détermination des niveaux d'eau en rivières principalement dans un contexte de prévision où l'incertitude liée aux données de forçage est très importante. Les analyses conduites sont appliquées à la rivière Chaudière au Québec. En premier lieu, nous avons exploré les différentes sources paramétriques d'incertitude associées à la modélisation hydraulique dans un contexte de simulation avec un accent sur l'amélioration de la calibration du modèle hydraulique. Par la suite, dans un contexte de prévision opérationnel, on a évalué la propagation des sources d'incertitude de la prévision atmosphérique au modèle de rivière en passant par les prévisions hydrologiques avec des techniques probabilistes d'ensemble. La quantification de l'incertitude a montré que les données de forçage sont celles qui contribuent le plus à la description de l'incertitude dans la détermination des niveaux d'eau. L'incertitude paramétrique, dans un contexte de prévision, est quant à elle négligeable. Le recours à des prévisions d'ensemble a permis de produire une prévision de niveau d'eau assez fiable et a montré que celle-ci est fortement liée à la qualité des données qui proviennent de la chaine de prévision hydrométéorologique à l'amont du système de prévision proposé. / Floods are a major threat to human and infrastructure security. The impacts of these natural hazards are likely to increase further with climate change trends. It is therefore important to develop reliable flood forecasting and mitigation tools to help reduce their devastating consequences. The implementation of these tools involves quite complex physical processes and requires a lot of data with all the associated uncertainty. In this thesis, we explore and evaluate the different sources of uncertainty related to the determination of water levels in rivers mainly in a forecasting context where the uncertainty related to forcing data is very important. The analysis carried out is applied to the Chaudière River in Quebec. First, we explored the various parametric sources of uncertainty associated with hydraulic modelling in a simulation context with a focus on improving the calibration of the hydraulic model. Then, in an operational forecasting context, we evaluated the propagation of uncertainty sources from climate forecast to the river model through hydrological forecasting using ensemble driven techniques. Quantification of uncertainty showed that forcing data contribute the most to the description of uncertainty in water level determination and the parametric uncertainty, in a forecasting context, is very negligible. The adoption of ensemble forecasts allowed us to provide reliable water level forecasts and showed that they are highly dependent on the quality of the data produced by the hydrometeorological forecast chain upstream of the proposed forecasting system.
158

Hydroinformatics and diversity in hydrological ensemble prediction systems

Brochero, Darwin 19 April 2018 (has links)
Nous abordons la prévision probabiliste des débits à partir de deux perspectives basées sur la complémentarité de multiples modèles hydrologiques (diversité). La première exploite une méthodologie hybride basée sur l’évaluation de plusieurs modèles hydrologiques globaux et d’outils d’apprentissage automatique pour la sélection optimale des prédicteurs, alors que la seconde fait recourt à la construction d’ensembles de réseaux de neurones en forçant la diversité. Cette thèse repose sur le concept de la diversité pour développer des méthodologies différentes autour de deux problèmes pouvant être considérés comme complémentaires. La première approche a pour objet la simplification d’un système complexe de prévisions hydrologiques d’ensemble (dont l’acronyme anglais est HEPS) qui dispose de 800 scénarios quotidiens, correspondant à la combinaison d’un modèle de 50 prédictions météorologiques probabilistes et de 16 modèles hydrologiques globaux. Pour la simplification, nous avons exploré quatre techniques: la Linear Correlation Elimination, la Mutual Information, la Backward Greedy Selection et le Nondominated Sorting Genetic Algorithm II (NSGA-II). Nous avons plus particulièrement développé la notion de participation optimale des modèles hydrologiques qui nous renseigne sur le nombre de membres météorologiques représentatifs à utiliser pour chacun des modèles hydrologiques. La seconde approche consiste principalement en la sélection stratifiée des données qui sont à la base de l’élaboration d’un ensemble de réseaux de neurones qui agissent comme autant de prédicteurs. Ainsi, chacun d’entre eux est entraîné avec des entrées tirées de l’application d’une sélection de variables pour différents échantillons stratifiés. Pour cela, nous utilisons la base de données du deuxième et troisième ateliers du projet international MOdel Parameter Estimation eXperiment (MOPEX). En résumé, nous démontrons par ces deux approches que la diversité implicite est efficace dans la configuration d’un HEPS de haute performance. / In this thesis, we tackle the problem of streamflow probabilistic forecasting from two different perspectives based on multiple hydrological models collaboration (diversity). The first one favours a hybrid approach for the evaluation of multiple global hydrological models and tools of machine learning for predictors selection, while the second one constructs Artificial Neural Network (ANN) ensembles, forcing diversity within. This thesis is based on the concept of diversity for developing different methodologies around two complementary problems. The first one focused on simplifying, via members selection, a complex Hydrological Ensemble Prediction System (HEPS) that has 800 daily forecast scenarios originating from the combination of 50 meteorological precipitation members and 16 global hydrological models. We explore in depth four techniques: Linear Correlation Elimination, Mutual Information, Backward Greedy Selection, and Nondominated Sorting Genetic Algorithm II (NSGA-II). We propose the optimal hydrological model participation concept that identifies the number of meteorological representative members to propagate into each hydrological model in the simplified HEPS scheme. The second problem consists in the stratified selection of data patterns that are used for training an ANN ensemble or stack. For instance, taken from the database of the second and third MOdel Parameter Estimation eXperiment (MOPEX) workshops, we promoted an ANN prediction stack in which each predictor is trained on input spaces defined by the Input Variable Selection application on different stratified sub-samples. In summary, we demonstrated that implicit diversity in the configuration of a HEPS is efficient in the search for a HEPS of high performance.
159

Modélisation de la tendance de l'opinion publique à partir de la sphère digitale

Ben Ayed, Slim 16 April 2018 (has links)
Au niveau de notre étude, nous avons comparé la performance de prévision de plusieurs modèles statistique de prévisions, modèles simples et modèles sophistiqués. Pour atteindre notre bute nous avons utilisé le ± MAPE ¿ comme mesure de précision des prédictions pour voir le quel de ces modèles est la plus appropriés à fournir les meilleures prévisions de l'opinion publique. Pour le faire nous nous somme basé sur une liste de données composée de séries chronologiques gracieusement fourni par Swammer. Ces séries comportent des données journalières couvrant la campagne présidentielle de France de 2007. Nous résultats montrent clairement que les méthodes statistiques simples ont un pouvoir de prédiction plus important que celui des méthodes sophistiquées pour un horizon de prédiction à très court terme. Nous constatons aussi que pour un horizon de prévision un peu plus long la méthode paramétrique de la régression robuste non linéaire représente la meilleure perspective de prévision parmi tous les modèles étudiés. Nous concluons ainsi que les méthodes statistiques sophistiquées ont un pouvoir de prédiction plus élevé que ce lui des méthodes statistiques simples pour un horizon de prévision un peu plus long que le très court terme.
160

Modèle ICLV à noyau logit mixte : une application aux choix du type de service résidentiel pour les communications téléphoniques

Giroux, Amélie 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Ce mémoire propose un modèle de choix à noyau logit mixte qui permet l'intégration de variables latentes. Ce modèle, appelé modèle ICLV à noyau logit mixte, a pour objectif de représenter de façon plus réaliste les choix des agents. Des variables psychométriques sont incluses dans le modèle afin de modéliser l'influence des attitudes et des perceptions sur les choix. Pour estimer ce modèle qui intègre plusieurs équations, soit les équations structurelles et les équations de mesure du modèle de choix et du modèle à variables latentes, un estimateur du maximum de vraisemblance simulé est proposé. L'objectif principal de ce mémoire est de produire l'une des premières applications concrètes de l'utilisation des modèles ICLV à noyau logit mixte dans le contexte à plusieurs alternatives et plusieurs variables latentes. Pour ce faire, des données provenant d'un vaste sondage effectué par la compagnie NTT sont utilisées afin d'estimer la demande pour les services téléphoniques résidentiels. Des variables latentes telles que la connaissance de la téléphonie IP sont incluses dans le modèle afin de mieux modéliser les choix. Des scénarios simulés permettent finalement de prédire l'évolution de la demande pour la téléphonie IP, puisqu'on remarque que celle-ci est en constante évolution. Les résultats montrent qu'une augmentation de la connaissance de la téléphonie IP aurait le pouvoir d'augmenter considérablement les parts de marché de cette technologie.

Page generated in 0.0576 seconds