231 |
Comparing inverse probability of treatment weighting methods and optimal nonbipartite matching for estimating the causal effect of a multicategorical treatmentDiop, Serigne Arona 18 April 2019 (has links)
Des débalancements des covariables entre les groupes de traitement sont souvent présents dans les études observationnelles et peuvent biaiser les comparaisons entre les traitements. Ce biais peut notamment être corrigé grâce à des méthodes de pondération ou d’appariement. Ces méthodes de correction ont rarement été comparées dans un contexte de traitement à plusieurs catégories (>2). Nous avons mené une étude de simulation pour comparer une méthode d’appariement optimal non-biparti, la pondération par probabilité inverse de traitement ainsi qu’une pondération modifiée analogue à l’appariement (matching weights). Ces comparaisons ont été effectuées dans le cadre de simulation de type Monte Carlo à travers laquelle une variable d’exposition à 3 groupes a été utilisée. Une étude de simulation utilisant des données réelles (plasmode) a été conduite et dans laquelle la variable de traitement avait 5 catégories. Parmi toutes les méthodes comparées, celle du matching weights apparaît comme étant la plus robuste selon le critère de l’erreur quadratique moyenne. Il en ressort, aussi, que les résultats de la pondération par probabilité inverse de traitement peuvent parfois être améliorés par la troncation. De plus, la performance de la pondération dépend du niveau de chevauchement entre les différents groupes de traitement. La performance de l’appariement optimal nonbiparti est, quant à elle, fortement tributaire de la distance maximale pour qu’une paire soit formée (caliper). Toutefois, le choix du caliper optimal n’est pas facile et demeure une question ouverte. De surcroît, les résultats obtenus avec la simulation plasmode étaient positifs, dans la mesure où une réduction importante du biais a été observée. Toutes les méthodes ont pu réduire significativement le biais de confusion. Avant d’utiliser la pondération de probabilité inverse de traitement, il est recommandé de vérifier la violation de l’hypothèse de positivité ou l’existence de zones de chevauchement entre les différents groupes de traitement
|
232 |
Multivariate statistical modeling of an anode backing furnace : Modélisation statistique multivariée du four à cuisson des anodes utilisées dans la fabrication d'aluminium primaireDufour, Amélie 24 April 2018 (has links)
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson. / The aluminum manufacturing process is highly influenced by the anode quality. Several factors affect the anode quality and the actual quality control strategy is inadequate to detect faulty anodes before setting them in the electrolytic cells. A soft-sensor model developed from historical carbon plant data and multivariate statistical methods was proposed in past work to obtain quick predictions of individual anode properties right after baking for quality control purposes. It could only be used for anodes baked at the coldest and hottest positions within the furnace due to the core sampling strategy used at the partner’s plant. To complement the soft-sensor, this work proposes a method for taking into account the thermal history of anodes baked at eventually any position and to allowing for the prediction of properties for all anodes. It is shown that combining categorical variables for pit and baking positions and routinely available firing equipment data is sufficient for predicting the temperature profiles of anodes baked in different positions (measured during pit surveys) and account for its impact on anode properties. Prediction results were validated using core sampling and good performance was obtained for LC, apparent and real density, compressive strength and air reactivity.
|
233 |
Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en IndeLoko, Houdété Odilon 20 April 2018 (has links)
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
|
234 |
Analyse géostatique quasi-3D des propriétés hydrauliques d'un noyau de barrage en remblaiHébert, Étienne 24 April 2018 (has links)
La performance de l'effet de barrière hydraulique d'un noyau de barrage en remblai est hautement dépendante des conditions au compactage observées au cours de la construction, et conjointement aux propriétés géotechniques des matériaux, peuvent varier significativement dans l'espace. Des études récentes (Qin, 2015; Venkovic et al., 2013; Smith et Konrad, 2011) ont montré que les géostatistiques peuvent être utilisées pour modéliser la variabilité spatiale des propriétés géotechniques des barrages, tel que la conductivité hydraulique, à l'aide de données géoréférencées issus des essais de contrôle réalisés au cours de la construction. Ces études ont permis une meilleure compréhension de divers problèmes liées à nature stratifiée de la structure des barrages et ont élargi le champ d'application des géostatistiques dans le cadre de l'analyse des barrages en remblai. Ce mémoire porte sur l'amélioration de l'approche géostatistique utilisée pour modéliser la conductivité hydraulique du noyau en till compacté d'un barrage en remblai. Le site étudié est le barrage Sainte-Marguerite-3 (SM-3), érigé sur la rivière Sainte-Marguerite au nord-ouest de la ville de Sept-Îles au Québec. Une démarche de calcul faisant appel au taux d'agrégation des matériaux a d'abord été développée afinn d'obtenir une évaluation plus représentativede la conductivité hydraulique. Une structure d'interpolation spatiale quasi-3D a été utilisée dans le cadre de l'analyse géostatistique afin d'estimer la conductivité hydraulique du noyau en tout point de la structure. La priorité d'analyse des paramètres géotechniques utilisés dans le calcul de la conductivité hydraulique a ensuite été étudiée. Pour cet aspect du projet, les géostatistiques ont été utilisées pour analyser chaque paramètre individuellement, puis les estimations obtenues ont servi à calculer la conductivité hydraulique. Finalement, une analyse géostatistique par domaine a été réalisée dans le but de modéliser plus fidèlement l'importante variabilité spatiale des propriétés géotechniques, observées dans certaines zones du noyau, engendrée par la variation de l'origine des matériaux. Les résultats montrent que l'utilisation d'une structure d'interpolation spatiale quasi-3D est une alternative efficace à une analyse en 1D utilisée dans le cadre de travaux précédents et que ce type de structure d'interpolation respecte la continuité spatiale des matériaux. Les résultats montrent aussi qu'une analyse multi-paramétrique par domaine, motivée par la réalité du terrain, offre une meilleure estimation, particulièrement en ce qui concerne l'évaluation de l'influence des conditions au compactage. / The hydraulic barrier performance of the compacted till core of embankment dams is highly dependent on compaction conditions during construction, which alongside with basic geotechnical properties, may significantly vary spatially. Recent studies showed that geostatistics can be used to represent the spatial variability of the geotechnical properties of dam materials, such as hydraulic conductivity, using georeferenced construction control data. These studies led to advances in the understanding of various issues related to the stratified nature of dams' structure and broadened perspectives for geostatistical analyses of large embankment dams. This research focuses on the improvement of the geostatistical approach used to model the hydraulic conductivity of an embankment dam's compacted till core. The studied site is the Sainte-Marguerite-3 (SM-3) dam, built on the Sainte-Marguerite river, northwest to the city of Sept-Îles in Québec. A mathematical approach using an aggregation rate was first developed as a way to obtain a more representative assessment of the dam's hydraulic conductivity. A quasi-3D spatial interpolation structure was used for the geostatistical analysis to estimate the hydraulic conductivity for every location in the core. A priority analysis of the multiple geotechnical parameters used to compute hydraulic conductivity was then performed. For this aspect of the project, geostatistics were used to individually analyze the spatial variability of the parameters measured during construction, which were then used to compute the hydraulic conductivity. Finally, in order to provide a solution to a specific problem observed in the SM-3 dam, a geostatistical analysis using multiple domains was performed. This approach was used to accurately model the important spatial variability of the geotechnical parameters, observed in some areas of the dam, caused by variations in the origins of the materials. Results showed that the quasi-3D spatial interpolation structure used for this project is an effective alternative to a 1D analysis used in past projects and that this type of interpolation structure respects the materials' spatial continuity. The results also showed that a multi-parametric approach using domains, motivated by the terrain's reality, offers a better estimation, especially when it comes to assessing the influence of compaction conditions.
|
235 |
Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètesEssis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
|
236 |
Le Bootstrap comme méthode d'estimation du r de Pearson : une étude Monte CarloChabot, Martin 15 November 2021 (has links)
La méthode Bootstrap est proposée comme alternative aux tests statistiques traditionnels. Le Bootstrap est une nouvelle technique permettant d'approximer la distribution d'échantillonage d'un estimateur. Sa validité est ici étudiée afin de démontrer l'intérêt de son utilisation dans des situations fréquemment rencontrées en psychologie. La recherche comprend trois parties, soit: une analyse graphique, une étude de robustesse et une étude de puissance. Des simulations Monte Carlo sur ordinateur sont utilisées afin de mener ces trois analyses. Les résultats démontrent l’utilité du Bootstrap dans de nombreuses situations où certaines certaines caractéristiques des distributions d’échantillonnages s’éloignent du cas gaussien.
|
237 |
Les industries manufacturières du Québec, 1900-1959 : essai de normalisation des données statistiques en dix-sept groupes industriels et étude sommaire de la croissance de ces groupesVallières, Marc 11 April 2018 (has links)
La structure industrielle du Québec a suscité, depuis quelques années, maints commentaires, interprétations et critiques, à la fois d'économistes, d'historiens, d'hommes politiques et de planificateurs gouvernementaux. De la plupart de ces analyses ressortent diverses stratégies industrielles, plus ou moins clairement définies, qui tenteraient, soit d'élaborer une structure idéale vers laquelle devraient tendre les interventions sur la structure actuelle, soit de corriger les déséquilibres inhérents à cette structure, à la lumière d'objectifs socio-économiques prioritaires. Il est clair que de telles stratégies mettent en jeu les principes mêmes de la libre entreprise et de l'intervention de l'état dans l'économie. Même si l'immixtion des gouvernements dans le développement industriel ne soulève plus d'oppositions farouches, elle pose néanmoins le problème de son niveau, de son ampleur et de son orientation. Nous n'allons certes pas intervenir directement dans ces débats, mais plutôt tenter de les alimenter, en éclairant l'apparition et l'évolution de ces structures depuis le tournant du siècle jusqu'en 1959, à l'aube de la "révolution tranquille". Il peut paraître téméraire, de la part d'un historien d'aborder des problèmes de structures et de croissance, néanmoins l'absence relative d'analyses de ces problèmes, portant globalement sur les soixante premières années du XXième siècle justifie d'en relever le défi. Plusieurs historiens et économistes les ont certes abordés, mais, trop souvent, sans méthodologie appropriée et sans un souci évident du long terme. C'est pourquoi, nous avons adopté l'approche de l'historien économiste, qui 2 vise à intégrer l'apport méthodologique de l'Economique et le souci propre à l'historien d'interpréter le passé dans une perspective, à la fois globale sur une longue période et individualisée sur une courte période ou sur un aspect particulier du phénomène à un moment donné. Ainsi, alors que l'économiste garde à l'esprit les implications actuelles et futures de son analyse et oriente sa démarche à la lumière de cette préoccupation, l'historien se préoccupe beaucoup plus d'étudier chaque phénomène en lui-même, dans son contexte spatio-temporel. Ces deux tendances peuvent se concilier et même se fondre en une démarche cohérente. C'est dans cette perspective que nous étudierons la croissance et les caractéristiques structurelles des industries manufacturières québécoises. L'approche de l'historien économiste implique donc, concrètement, la collecte et la classification des données statistiques selon des critères uniformes pour une longue période, c'est-à-dire de 1900 à 1959. Nul doute que les nombreuses transformations des données et les estimations, qui se sont révélées nécessaires, peuvent susciter la critique, cependant l'objectif que nous assignons à ce travail peut justifier bien des accrocs à un raffinement statistique que nous souhaiterions plus élaboré. Sur ce plan, les travaux théoriques des économistes sur les industries manufacturières et les méthodes d'analyse qui y sont développées, éclairent la valeur et la portée des données des recensements industriels et fournissent d'excellents outils d'analyse, qu'on peut utiliser avec un certain succès, pour mieux apprécier les performances industrielles québécoises. Ainsi les estimations de W.F. Ryan et de G.W. Bertram (1900- 1910) et les travaux d'André Raynauld, sur la période de 1935 à 1955, décrivent certains éléments méthodologiques, qu'il est possible d'adapter à l'objet de ce travail. De là vient l'essentiel des méthodes de classification des données et de calcul des taux de croissance, utilisées dans nos estimations. Ces méthodes seront longuement décrites et discutées en un premier chapitre. Le développement et la croissance des industries manufacturières canadiennes et québécoises a soulevé diverses interprétations et hypothèses, souvent partielles ou partiales, se fondant sur un certain nombre de prérequis théoriques. Nous allons nous attarder brièvement, en un deuxième chapitre, sur ces théories et leurs implications sur les industries manufacturières québécoises. Il s'agit là, d'indiquer en quels termes se pose le problème de l'interprétation du développement et de la croissance industrielle au Québec. L'ensemble des résultats, dérivés de l'application de la méthodologie adoptée et rassemblés en appendices, de même que les données comparables déjà disponibles, permettront, en un troisième chapitre, d'élaborer des interprétations de la croissance et des structures des industries manufacturières québécoises. Nous n'avons certes pas la prétention d'en étudier tous les aspects, mais plutôt d'évaluer le comportement des groupes industriels québécois, par l'intermédiaire de la valeur de la production. Après avoir ainsi décrit les relations entre les groupes d'industries, nous nous attacherons plus particulièrement à préciser et analyser l'évolution interne de ces divers groupes, selon des critères bien définis: le taux moyen annuel de croissance et l'importance relative de la valeur de la production par rapport aux totaux québécois et canadiens. Ces études en apparence disparates permettront de faire ressortir plus précisément certains facteurs spécifiques, qui influencent le développement de chacun de ces groupes et de dégager des communs dénominateurs qui concrétiseront les tendances généra le s exprimées au chapitre précédent. 4 L'ensemble de cette démarche vise d'une part, à fournir un cadre général à des monographies, portant sur des groupes ou sous-groupes industriels, ou sur des entreprises ou régions particulières, qui pourraient confirmer ou infirmer certaines des hypothèses avancées dans les deux derniers chapitres, et d'autre part, à inclure dans une perspective de continuité la réflexion collective du Québec sur sa structure industrielle et sur les orientations possibles de son économie. / Québec Université Laval, Bibliothèque 2012
|
238 |
Manger et boire aux Expositions universelles de 1889 et 1900 à Paris : Économie, politique et expérience d'un espace vivantTran, Van Troi 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Cette thèse explore la dimension vivante des Expositions universelles parisiennes de 1889 et de 1900 en se penchant sur quotidien des pratiques de consommation alimentaire sur les sites d'exposition. Elle montre tout d'abord que l'alimentation des visiteurs est, pour les organisateurs, un problème central dans ce qui détermine le succès de l'événement. En effet, bien qu'ils fassent rarement partie des attractions aux expositions, la qualité des lieux de consommation alimentaires est un enjeu sensible car l'alimentation des visiteurs est susceptible d'affecter la perception des visiteurs sur le marché de la restauration, et ce, de nombreuses manières : empoisonnements, falsifications alimentaires, abus de la clientèle, manque d'hygiène. L'organisation des Expositions de 1889 et de 1900, implique donc la mise en place d'un ensemble de mesures et d'actions quotidiennes pour mieux contrôler le marché de la restauration sur les sites, réduire les risques associés à l'alimentation du public et assurer un environnement agréable de consommation. Cette recherche insiste aussi sur le rôle actif du public qui consomme. Les études sur l'histoire des expositions universelles se sont surtout penchées sur les discours officiels et le point de vue du public qui visite et utilise le site, et sans lequel on ne peut imaginer la tenue d'une exposition universelle, est souvent négligé. En étudiant spécifiquement la consommation alimentaire, nous montrons que ces manifestations sont des espaces publics où la qualité des aliments et des mets offerts est constamment soumise à l'épreuve de la réception des visiteurs, ce qui fait que les expositions sont des lieux dynamiques d'interaction entre l'État organisateur, les producteurs et vendeurs de denrées alimentaires, et le public. Notre recherche soutient finalement que les Expositions universelles doivent être considérés comme des espaces pluriels qui offrent une grande variété d'environnements et d'atmosphères pour répondre aux demandes et aux besoins corporels des visiteurs. Plusieurs témoignages confirment l'importance des différents rythmes de vie offerts par les lieux de restauration par rapport du reste de l'exposition. Avec la fatigue causée par les longues visites, les températures estivales qui créent le besoin de se désaltérer, l'environnement festif et les mouvements de foules qui épuisent à longue ; les cafés et restaurants situés sur les sites des Expositions universelles, tout comme l'organisation de pique-niques sur les parterres, prennent toute leur importance dans l'expérience de visite car ils permettent au public de vivre l'événement autrement.
|
239 |
Analyse des facteurs explicatifs du commerce international de biens environnementaux : utilisation de modèles de gravitéGbagbeu, Vramah Serge Marius 19 April 2018 (has links)
L’objectif de la présente étude est d’analyser les déterminants du commerce des biens environnementaux en particulier à partir du modèle de gravité de type CES et du modèle de gravité de type Translog inspiré des travaux de Novy (2012). Nos résultats d’estimation à partir de ces deux modèles permettent de dire d’une part que l’impact des variables explicatives est plus important sur le flux de commerce lorsqu’on utilise le modèle Translog mais cet impact n’est pas uniforme et d’autre part que cet impact est plus important sur le commerce des biens environnementaux par rapport au flux des échanges de l’ensemble des biens de façon générale. Enfin, la valeur des coefficients de régression ainsi celui de l’élasticité coût du commerce à partir du modèle Translog se trouvent au voisinage des résultats des études empiriques qui ont servi de cadre de référence. / The main objective of the present study is to analyze the determiners of the trade of goods generally and the environmental goods in particular from the models of gravity of type CES and Translog inspired by the works of Novy (2012). Our results of estimation from these two models allow to say on one hand that the impact of the explanatory variables is more important on the flow of trade when we use the model Translog but this impact is not uniform and on the other hand that this impact is more important on the trade of the environmental goods to compared with the flow of the exchanges of all the goods in a general way. Finally, the value of the coefficients of regression so that of the elasticity cost of the trade from the model Translog are in the neighborhood of the results of the empirical studies which served as reference frame.
|
240 |
Évaluation statistique et prévision de la performance de gestionnaires d'actifsSimard, Marie-Hélène 23 April 2018 (has links)
En finance, la gestion passive consiste à gérer un portefeuille d’actifs afin d’obtenir un rendement similaire à un indice de marché ciblé. La gestion active quant à elle vise à obtenir un rendement supérieur. Les coûts reliés à une gestion active et les risques associés sont plus élevés. Une compagnie d’assurance se pose la question si les gestionnaires d’actifs ont les capacités de battre l’indice de marché de façon statistiquement significative. Un modèle au coeur du type d’analyse permettant de répondre à cette question est le modèle d’évaluation des actifs financiers (MÉDAF). Dans ce mémoire, différents modèles de régression et deux approches ont été retenus pour évaluer la performance de ces gestionnaires dans le cadre du MÉDAF, soit une approche par critère et une approche par prévision. Nos résultats suggèrent que certains gestionnaires d’obligations ont les capacités de battre l’indice de marché de façon significative alors que ce n’est pas le cas pour les gestionnaires d’actions. / In finance, passive management is about managing assets to achieve a return similar to a targeted market index, whereas active management aims to achieve superior performance. The costs associated with active management and the associated risks are higher. An insurance company wants to know whether the asset managers have the ability to beat the market index, statistically speaking. The principal model to answer this question is the CAPM. In this thesis, different regression models and two approaches were used to evaluate the performance of these managers under the CAPM, an approach based on criteria and an approach based on forecasts. Our results suggest that some bond managers have the ability to beat the market index significantly, while this is not the case for stock managers.
|
Page generated in 0.0804 seconds