• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 99
  • 99
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Epidémiologie des traumatismes: quelles contributions des (méthodes) statistiques aux approches descriptive et analytique?

Senterre, Christelle 28 November 2014 (has links)
L’épidémiologie de terrain peut être définie comme un ensemble de méthodes de collecte et de traitement de l’information combinant successivement les approches de l’épidémiologie descriptive mais aussi celles de l’épidémiologie analytique. La finalité de l’analyse descriptive sera de décrire et de quantifier la survenue du phénomène étudié dans une population donnée, permettant ainsi la formulation d’hypothèses préalables à la phase analytique. Phase, qui se focalisera sur les "associations" entre des "facteurs de risque" et la survenue du phénomène étudié. Dans la réponse aux questionnements posés ces deux phases les méthodes statistiques seront des outils incontournables. Afin que les résultats produits par ces analyses soient non seulement utiles mais aussi valables et utilisables, une bonne identification et une application adéquate des méthodes d’analyse s’avèreront primordiales. <p>A côté de ce constat méthodologique, il y a, dans le champ des traumatismes, tant en Belgique, qu’en pays en développement, la quasi absence d’informations pertinentes et rigoureuses pour documenter l’importance de cette problématique dans le champ de la santé. Pourtant, selon l’Organisation Mondiale de la Santé, plus de 5 millions de personnes décèdent des suites d’un traumatisme chaque année, avec 90% de ces décès survenant dans les pays à faible revenu ou à revenu intermédiaire. En Europe, les données montrent qu’une personne décède toutes les deux minutes des suites d’un traumatisme, et que pour chaque citoyen européen qui en meure, 25 personnes sont admises à l’hôpital, 145 sont traitées en ambulatoire et plus encore se font soigner ailleurs. <p> Au vu du double constat, qui est, d’une part, que les méthodes statistiques ne sont pas toujours exploitées correctement, et d’autre part, qu’il y a un manque d’informations appropriées et rigoureuses pour documenter l’ampleur du problème des traumatismes; ce travail de thèse poursuit l’objectif majeur, de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques (univariées, multivariables et multivariées) adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés, tant en pays industrialisés (exemple de la Belgique) qu’en pays en développement (exemple du Cameroun).<p>La partie classiquement appelée "résultats", correspond dans ce travail à deux chapitres distincts. Le premier fait la synthèse de ce qui a été objectivé par la revue de la littérature en termes de sources de données exploitées et de méthodes d’analyse statistique utilisées. Le second correspond à l’exploitation de quatre bases de données :une "généraliste et populationnelle" (First Health of Young People Survey - Cameroun), une "généraliste et hospitalière" (Résumé Hospitalier Minimum - Belgique), une "spécifique et populationnelle" (données issue de compagnies d’assurances belges), et une " spécifique et hospitalière" (Service SOS Enfants du CHU St Pierre - Belgique). <p>Les constats majeurs à l’issue de ce travail sont qu’il est possible de trouver dans le panel des méthodes statistiques "classiques", les méthodes nécessaires pour répondre aux questionnements de surveillance "en routine" en termes d’occurrence et de facteurs associés. L’accent devrait être mis sur une (meilleure) utilisation (justifiée, correcte et complète) de ces méthodes et sur une meilleure présentation (plus complète) des résultats. L’utilisation adéquate s’assurant d’une part, par une meilleure formation en méthodologie statistique pour les praticiens mais aussi par l’intégration, à part entière, des statisticiens dans les équipes de recherches. En ce qui concerne les sources de données utilisées, le potentiel d’information existe. Chaque source de données a ses avantages et ses inconvénients mais utilisées conjointement elles permettent d’avoir une vision plus globale du fardeau des traumatismes. L’accent devrait être mis sur l’amélioration de la disponibilité, la mise en commun mais aussi sur la qualité des données qui seraient disponibles. Dès lors, en vue de s’intégrer dans une dynamique de "Système de Surveillance des Traumatismes", une réflexion sur une utilisation globale (qu’elle soit couplée ou non) de ces différentes sources de données devrait être menée. <p>En Belgique, de nombreuses données, contenant de l’information sur les traumatismes, sont collectées en routine, au travers des données hospitalières, et ponctuellement, au travers de données d’enquêtes. Actuellement, ces données, dont la qualité reste discutable pour certaines, sont sous-utilisées dans le champ qui nous intéresse. Dans le futur, "plutôt que de ne rien savoir", il est important de continuer à exploiter l’existant pour produire et diffuser de l’information, mais cette exploitation et cette diffusion doivent s’accompagner non seulement de réflexion mais aussi d’action sur la qualité des données. En ce qui concerne l’utilisation des méthodes statistiques, nous préconisons une double approche :l’intégration et la formation. Par intégration, nous entendons le fait qu’il faut d’une part considérer le statisticien comme un professionnel ayant à la fois des compétences techniques pointues sur les méthodes, qui pourront être mises à disposition pour garantir le bon déroulement de la collecte et de l’analyse des données, mais aussi comme un chercheur capable de s’intéresser plus spécifiquement à des problématiques de santé publique, comme la problématique des traumatismes par exemple. Par formation, nous entendons le fait qu’il est essentiel d’augmenter et/ou de parfaire non seulement les connaissances des futurs professionnels de la santé (publique) en cours de formation mais aussi celles des praticiens déjà actifs sur le terrain et dès lors premiers acteurs de la collecte de l’information et de son utilisation dans une démarche de prise de décision, de détermination de priorité d’action et d’évaluation. <p>L’objectif majeur de ce travail de thèse était de montrer l’intérêt qu’il y a à appliquer de manière pertinente, adéquate et complète, des méthodes statistiques adaptées aux différentes sources de données disponibles, afin de documenter l’importance des traumatismes, et des facteurs qui y sont associés. En ayant discuté de l’existence de plusieurs sources potentielles de données en Belgique et en ayant appliqué une série de méthodes statistiques univariées, multivariables et multivariées, sur quelques-unes de celles-ci, nous avons montré qu’il était possible de documenter le fardeau des traumatismes au-travers de résultats utiles mais aussi valables et utilisables dans une approche de santé publique.<p> / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished
32

Deep exploratory regression modelling of survey data. With applications to electoral survey data of the 2014 elections in Belgium.

Henry, Lionel 29 June 2020 (has links) (PDF)
This thesis contributes practical and conceptual tools for discovering and understanding the variation of quantitative patterns in social and political survey data. It uses regression modelling as an exploratory method with a focus on deep rather than wide model specifications, i.e. on interaction terms rather than control variables. Our main research question is how can we learn from survey data with an exploratory approach of regression modelling. We also seek to answer two more specific questions, what sort of quantitative variations should an exploratory approach seek to model, and how do we deal with statistical uncertainty within an exploratory approach. Our work shows how to use regression modelling for exploratory purposes by interpreting the results descriptively, and connecting these summaries to theory through an act of interpretation. Using data from the Partirep electoral survey of the 2014 elections in Belgium, we illustrate how the emphasis on group variations and interactions has both empirical and theoretical value. We propose to summarise the results of exploratory modelling in a notebook containing a series of increasingly disaggregated prediction graphs. These notebooks help researchers to increase their domain numeracy, i.e. develop a quantitative understanding of the patterns in the data. Regarding statistical uncertainty, we mitigate the risks of modelling sampling noise by using standard errors of binned averages as precision hints that serve as an indication of excessive disaggregation. We also lay out the path for regularising the estimates of the final results with Bayesian models by exploring methods of including the sampling weights in these models. / Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
33

Quantitative risk analysis for linear infrastructure supported by permafrost : methodology and computer program

Brooks, Heather 31 October 2019 (has links)
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit / Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.
34

Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde

Loko, Houdété Odilon 20 April 2018 (has links)
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
35

Analyse géostatique quasi-3D des propriétés hydrauliques d'un noyau de barrage en remblai

Hébert, Étienne 24 April 2018 (has links)
La performance de l'effet de barrière hydraulique d'un noyau de barrage en remblai est hautement dépendante des conditions au compactage observées au cours de la construction, et conjointement aux propriétés géotechniques des matériaux, peuvent varier significativement dans l'espace. Des études récentes (Qin, 2015; Venkovic et al., 2013; Smith et Konrad, 2011) ont montré que les géostatistiques peuvent être utilisées pour modéliser la variabilité spatiale des propriétés géotechniques des barrages, tel que la conductivité hydraulique, à l'aide de données géoréférencées issus des essais de contrôle réalisés au cours de la construction. Ces études ont permis une meilleure compréhension de divers problèmes liées à nature stratifiée de la structure des barrages et ont élargi le champ d'application des géostatistiques dans le cadre de l'analyse des barrages en remblai. Ce mémoire porte sur l'amélioration de l'approche géostatistique utilisée pour modéliser la conductivité hydraulique du noyau en till compacté d'un barrage en remblai. Le site étudié est le barrage Sainte-Marguerite-3 (SM-3), érigé sur la rivière Sainte-Marguerite au nord-ouest de la ville de Sept-Îles au Québec. Une démarche de calcul faisant appel au taux d'agrégation des matériaux a d'abord été développée afinn d'obtenir une évaluation plus représentativede la conductivité hydraulique. Une structure d'interpolation spatiale quasi-3D a été utilisée dans le cadre de l'analyse géostatistique afin d'estimer la conductivité hydraulique du noyau en tout point de la structure. La priorité d'analyse des paramètres géotechniques utilisés dans le calcul de la conductivité hydraulique a ensuite été étudiée. Pour cet aspect du projet, les géostatistiques ont été utilisées pour analyser chaque paramètre individuellement, puis les estimations obtenues ont servi à calculer la conductivité hydraulique. Finalement, une analyse géostatistique par domaine a été réalisée dans le but de modéliser plus fidèlement l'importante variabilité spatiale des propriétés géotechniques, observées dans certaines zones du noyau, engendrée par la variation de l'origine des matériaux. Les résultats montrent que l'utilisation d'une structure d'interpolation spatiale quasi-3D est une alternative efficace à une analyse en 1D utilisée dans le cadre de travaux précédents et que ce type de structure d'interpolation respecte la continuité spatiale des matériaux. Les résultats montrent aussi qu'une analyse multi-paramétrique par domaine, motivée par la réalité du terrain, offre une meilleure estimation, particulièrement en ce qui concerne l'évaluation de l'influence des conditions au compactage. / The hydraulic barrier performance of the compacted till core of embankment dams is highly dependent on compaction conditions during construction, which alongside with basic geotechnical properties, may significantly vary spatially. Recent studies showed that geostatistics can be used to represent the spatial variability of the geotechnical properties of dam materials, such as hydraulic conductivity, using georeferenced construction control data. These studies led to advances in the understanding of various issues related to the stratified nature of dams' structure and broadened perspectives for geostatistical analyses of large embankment dams. This research focuses on the improvement of the geostatistical approach used to model the hydraulic conductivity of an embankment dam's compacted till core. The studied site is the Sainte-Marguerite-3 (SM-3) dam, built on the Sainte-Marguerite river, northwest to the city of Sept-Îles in Québec. A mathematical approach using an aggregation rate was first developed as a way to obtain a more representative assessment of the dam's hydraulic conductivity. A quasi-3D spatial interpolation structure was used for the geostatistical analysis to estimate the hydraulic conductivity for every location in the core. A priority analysis of the multiple geotechnical parameters used to compute hydraulic conductivity was then performed. For this aspect of the project, geostatistics were used to individually analyze the spatial variability of the parameters measured during construction, which were then used to compute the hydraulic conductivity. Finally, in order to provide a solution to a specific problem observed in the SM-3 dam, a geostatistical analysis using multiple domains was performed. This approach was used to accurately model the important spatial variability of the geotechnical parameters, observed in some areas of the dam, caused by variations in the origins of the materials. Results showed that the quasi-3D spatial interpolation structure used for this project is an effective alternative to a 1D analysis used in past projects and that this type of interpolation structure respects the materials' spatial continuity. The results also showed that a multi-parametric approach using domains, motivated by the terrain's reality, offers a better estimation, especially when it comes to assessing the influence of compaction conditions.
36

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
37

Multivariate statistical modeling of an anode backing furnace : Modélisation statistique multivariée du four à cuisson des anodes utilisées dans la fabrication d'aluminium primaire

Dufour, Amélie 24 April 2018 (has links)
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson. / The aluminum manufacturing process is highly influenced by the anode quality. Several factors affect the anode quality and the actual quality control strategy is inadequate to detect faulty anodes before setting them in the electrolytic cells. A soft-sensor model developed from historical carbon plant data and multivariate statistical methods was proposed in past work to obtain quick predictions of individual anode properties right after baking for quality control purposes. It could only be used for anodes baked at the coldest and hottest positions within the furnace due to the core sampling strategy used at the partner’s plant. To complement the soft-sensor, this work proposes a method for taking into account the thermal history of anodes baked at eventually any position and to allowing for the prediction of properties for all anodes. It is shown that combining categorical variables for pit and baking positions and routinely available firing equipment data is sufficient for predicting the temperature profiles of anodes baked in different positions (measured during pit surveys) and account for its impact on anode properties. Prediction results were validated using core sampling and good performance was obtained for LC, apparent and real density, compressive strength and air reactivity.
38

Applications et comparaison de méthodes statistiques pour prédire la croissance du pin gris sur le territoire québécois

Julien, Pierre-Olivier 13 April 2018 (has links)
La modélisation de la croissance des arbres en milieu naturel est un élément clé de la gestion des forêts. Les unités d’observations sont des placettes, soit une surface de forêt circulaire de 400 m2. L’abondance des arbres sur une placette est caractérisée par leur nombre, la hauteur dominante, la surface terrière et le volume de bois. La prévision de la croissance de ces variables est donc un sujet d’intérêt pour les ingénieurs forestiers. On retrouve dans la littérature diverses méthodes de prédiction, entre autres, celles basées sur des modèles économétriques ou, plus récemment, sur des modèles de régression linéaire mixte multivariée. Ce mémoire est un compte rendu théorique et pratique de ces méthodes statistiques. Celles-ci sont appliquées et comparées à partir d’un jeu de données provenant du réseau de placettes échantillons permanentes du Ministère des Ressources naturelles et de la Faune du Québec, l’espèce d’arbre utilisé étant le pin gris. / The establishment of model for growth of trees in a natural environment is a key element to the management of forests. The units of observations are plots, which is a circular 400 m2 area of forest. The abundance of the trees on a plot is characterized by their number, the dominant height, the basal area and the volume. Forecasting of the growth of these variables is thus a subject of interest for the foresters. One finds in the literature various methods of prediction, those based on econometric models or, more recently, on multivariate mixed linear models. This essay is a theoretical and practical report of these statistical methods. Those are applied and compared starting from a data file coming from the network of permanent plots samples from ”le Ministère des Ressources naturelles et de la Faune du Québec”. The species of tree used here is the Jack pine.
39

Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées

Paris, Adéline 27 November 2020 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
40

Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis

Ghasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.

Page generated in 0.1158 seconds