• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 100
  • 100
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse géostatique quasi-3D des propriétés hydrauliques d'un noyau de barrage en remblai

Hébert, Étienne 24 April 2018 (has links)
La performance de l'effet de barrière hydraulique d'un noyau de barrage en remblai est hautement dépendante des conditions au compactage observées au cours de la construction, et conjointement aux propriétés géotechniques des matériaux, peuvent varier significativement dans l'espace. Des études récentes (Qin, 2015; Venkovic et al., 2013; Smith et Konrad, 2011) ont montré que les géostatistiques peuvent être utilisées pour modéliser la variabilité spatiale des propriétés géotechniques des barrages, tel que la conductivité hydraulique, à l'aide de données géoréférencées issus des essais de contrôle réalisés au cours de la construction. Ces études ont permis une meilleure compréhension de divers problèmes liées à nature stratifiée de la structure des barrages et ont élargi le champ d'application des géostatistiques dans le cadre de l'analyse des barrages en remblai. Ce mémoire porte sur l'amélioration de l'approche géostatistique utilisée pour modéliser la conductivité hydraulique du noyau en till compacté d'un barrage en remblai. Le site étudié est le barrage Sainte-Marguerite-3 (SM-3), érigé sur la rivière Sainte-Marguerite au nord-ouest de la ville de Sept-Îles au Québec. Une démarche de calcul faisant appel au taux d'agrégation des matériaux a d'abord été développée afinn d'obtenir une évaluation plus représentativede la conductivité hydraulique. Une structure d'interpolation spatiale quasi-3D a été utilisée dans le cadre de l'analyse géostatistique afin d'estimer la conductivité hydraulique du noyau en tout point de la structure. La priorité d'analyse des paramètres géotechniques utilisés dans le calcul de la conductivité hydraulique a ensuite été étudiée. Pour cet aspect du projet, les géostatistiques ont été utilisées pour analyser chaque paramètre individuellement, puis les estimations obtenues ont servi à calculer la conductivité hydraulique. Finalement, une analyse géostatistique par domaine a été réalisée dans le but de modéliser plus fidèlement l'importante variabilité spatiale des propriétés géotechniques, observées dans certaines zones du noyau, engendrée par la variation de l'origine des matériaux. Les résultats montrent que l'utilisation d'une structure d'interpolation spatiale quasi-3D est une alternative efficace à une analyse en 1D utilisée dans le cadre de travaux précédents et que ce type de structure d'interpolation respecte la continuité spatiale des matériaux. Les résultats montrent aussi qu'une analyse multi-paramétrique par domaine, motivée par la réalité du terrain, offre une meilleure estimation, particulièrement en ce qui concerne l'évaluation de l'influence des conditions au compactage. / The hydraulic barrier performance of the compacted till core of embankment dams is highly dependent on compaction conditions during construction, which alongside with basic geotechnical properties, may significantly vary spatially. Recent studies showed that geostatistics can be used to represent the spatial variability of the geotechnical properties of dam materials, such as hydraulic conductivity, using georeferenced construction control data. These studies led to advances in the understanding of various issues related to the stratified nature of dams' structure and broadened perspectives for geostatistical analyses of large embankment dams. This research focuses on the improvement of the geostatistical approach used to model the hydraulic conductivity of an embankment dam's compacted till core. The studied site is the Sainte-Marguerite-3 (SM-3) dam, built on the Sainte-Marguerite river, northwest to the city of Sept-Îles in Québec. A mathematical approach using an aggregation rate was first developed as a way to obtain a more representative assessment of the dam's hydraulic conductivity. A quasi-3D spatial interpolation structure was used for the geostatistical analysis to estimate the hydraulic conductivity for every location in the core. A priority analysis of the multiple geotechnical parameters used to compute hydraulic conductivity was then performed. For this aspect of the project, geostatistics were used to individually analyze the spatial variability of the parameters measured during construction, which were then used to compute the hydraulic conductivity. Finally, in order to provide a solution to a specific problem observed in the SM-3 dam, a geostatistical analysis using multiple domains was performed. This approach was used to accurately model the important spatial variability of the geotechnical parameters, observed in some areas of the dam, caused by variations in the origins of the materials. Results showed that the quasi-3D spatial interpolation structure used for this project is an effective alternative to a 1D analysis used in past projects and that this type of interpolation structure respects the materials' spatial continuity. The results also showed that a multi-parametric approach using domains, motivated by the terrain's reality, offers a better estimation, especially when it comes to assessing the influence of compaction conditions.
42

Méthodes du calcul de la prime : Bonus-malus, Réassurance, Système aléatoire à la liaisons complètes

Essis-Breton, Nicolas 16 April 2018 (has links)
Dans ce mémoire, nous considérons différentes méthodes du calcul de la prime et de révision de la prime. Dans l'introduction, nous examinons d'abord les propriétés souhaitables d'un calcul de la prime ainsi que les différentes méthodes pour déterminer un principe de prime. Nous nous concentrons ensuite sur deux contextes où le principe de prime est déterminé de façon à réviser la prime en fonction de l'expérience de l'assuré. Nous considérons aussi un contexte où les aspects numériques reliés au calcul d'un principe de prime peuvent être analysés. Avec les systèmes bonus-malus, nous présentons une méthode classique de révision de la prime. Puis, après une analyse des principaux produits de réassurance, nous expliquons différentes méthodes numériques pour évaluer la prime. Avec les systèmes aléatoires à liaisons complètes, nous introduisons une approche nouvelle au problème de révision de la prime qui permet de déterminer des principes de prime optimaux dans certaines situations. / [Bonus malus ; Système aléatoire à liaisons complètes]
43

Applications et comparaison de méthodes statistiques pour prédire la croissance du pin gris sur le territoire québécois

Julien, Pierre-Olivier 13 April 2018 (has links)
La modélisation de la croissance des arbres en milieu naturel est un élément clé de la gestion des forêts. Les unités d’observations sont des placettes, soit une surface de forêt circulaire de 400 m2. L’abondance des arbres sur une placette est caractérisée par leur nombre, la hauteur dominante, la surface terrière et le volume de bois. La prévision de la croissance de ces variables est donc un sujet d’intérêt pour les ingénieurs forestiers. On retrouve dans la littérature diverses méthodes de prédiction, entre autres, celles basées sur des modèles économétriques ou, plus récemment, sur des modèles de régression linéaire mixte multivariée. Ce mémoire est un compte rendu théorique et pratique de ces méthodes statistiques. Celles-ci sont appliquées et comparées à partir d’un jeu de données provenant du réseau de placettes échantillons permanentes du Ministère des Ressources naturelles et de la Faune du Québec, l’espèce d’arbre utilisé étant le pin gris. / The establishment of model for growth of trees in a natural environment is a key element to the management of forests. The units of observations are plots, which is a circular 400 m2 area of forest. The abundance of the trees on a plot is characterized by their number, the dominant height, the basal area and the volume. Forecasting of the growth of these variables is thus a subject of interest for the foresters. One finds in the literature various methods of prediction, those based on econometric models or, more recently, on multivariate mixed linear models. This essay is a theoretical and practical report of these statistical methods. Those are applied and compared starting from a data file coming from the network of permanent plots samples from ”le Ministère des Ressources naturelles et de la Faune du Québec”. The species of tree used here is the Jack pine.
44

Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées

Paris, Adéline 27 November 2020 (has links)
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé. / Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
45

Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis

Ghasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
46

Sévérité des sanctions et récidive criminelle : identification au moyen d'une reforme canadienne

Raymond, Nicolas 29 March 2022 (has links)
Dans ce mémoire, nous étudions l'impact du projet de loi C-10 (« Tough on Crime ») implanté par le gouvernement fédéral conservateur en 2012 sur le risque de récidive instantané de la population carcérale. Nous cherchons à déterminer si des peines plus sévères allongent ou réduisent le temps entre deux condamnations. À cet effet, ce mémoire met en œuvre un modèle de durée à risques proportionnels de type Cox. Les variables d'intérêt tiennent compte des caractéristiques individuelles des détenus, mais aussi de certaines conditions économiques et démographiques. Ainsi, par le biais de données fournies par le ministère de la Sécurité publique, nous construisons une base de données qui nous permet de prendre en compte pour l'âge de l'individu, son sexe, s'il est autochtone ou non, son score LS/CMI, le nombre de personnes à sa charge, le type de crime commis et son état civil, en plus du taux de chômage et du rapport des sexes dans la région de sa libération, au moment de celle-ci. Nous trouvons que la période qui suit la mise en place des politiques « Tough on Crime » est caractérisée par un taux de risque inférieur pour tous les groupes à l'étude. Cette diminution du taux de risque se traduit par une augmentation de l'espérance de la période de survie entre deux condamnations de 298 jours pour les hommes, de 243 jours pour les femmes et de 264 jours pour les autochtones. L'effet est plus faible pour les individus n'ayant pas reçu de peine de plus de six mois, mais est toujours positif, soit une hausse de 42, 40 et 114 jours pour les hommes, les femmes et les autochtones respectivement. L'augmentation de la sévérité des sanctions aura donc allongé le temps entre deux récidives dans le contexte québécois.
47

Un test pour la bonne spécification d'un modèle structurel marginal

Sall, Alioune 23 November 2018 (has links)
Estimer l’effet d’une exposition variant dans le temps à l’aide de modèles de régression ordinaires peut entraîner un biais si des variables confondantes variant dans le temps sont un effet des expositions passées. Les modèles structurels marginaux (MSMs) sont une solution à ce problème qui est de plus en plus utilisée, notamment dans les études en santé. L’une des hypothèses principales des MSMs est que la relation entre l’issue et les expositions antérieures est bien spécifiée. Ainsi, nous avons développé un test statistique de cette hypothèse. Différentes pondérations peuvent être utilisées pour estimer les paramètres du MSM et celles-ci devraient produire des estimations similaires lorsque le modèle est correctement spécifié. Un test statistique vérifiant si les différences observées sont au-delà de celles attendues permet donc de tester que le modèle est correct. La performance du test est étudiée à l’aide d’une étude de simulations sur des données synthétiques, où différentes véritables relations entre les expositions et l’issue, ainsi que différentes tailles d’échantillons étaient considérées. L’étude de simulation démontre une bonne performance du test : les taux de rejet de modèles corrects sont faibles alors que ceux de modèles incorrects sont généralement élevés, surtout pour des tailles d’échantillons élevées. Cependant, il existe des situations où le test est incapable de détecter des erreurs de spécification. Le test est appliqué pour étudier l’effet d’une exposition répétée au stress au travail sur une période de 5 ans sur la pression artérielle ambulatoire dans une cohorte de 1576 travailleurs cols-blancs. / Estimating the effect of a time-varying exposure using ordinary regression models may lead to bias if time-varying confounding variables are an effect of past exposures. Marginal structural models (MSMs) are a solution to this problem that is increasingly used, especially in health studies. One of the main assumptions of MSMs is that the relationship between outcome and past exposures is well specified. Thus, we developed a statistical test of this hypothesis. Different weights can be used to estimate MSM parameters and these should produce similar estimates when the model is correctly specified. A statistical test verifying if the differences observed are beyond those expected makes it possible to test that the model is correct. The performance of the test is investigated using a synthetic data simulation study, where different true relationships between exposures and outcome, as well as different sample sizes were considered. The simulation study demonstrates good test performance: rejection rates for correct models are low, while rejection rates for incorrect models are generally high, especially for large sample sizes. However, there are situations where the test is unable to detect specification errors. The test is applied to study the effect of repeated psychosocial work stressor exposure over a 5-year period on ambulatory blood pressure in a cohort of 1576 white-collar workers.
48

Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copules

Desbois-Bédard, Laurence 24 April 2018 (has links)
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance. / Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
49

Modèles de dépendance hiérarchique pour l'évaluation des passifs et la tarification en actuariat

Abdallah, Anas 24 April 2018 (has links)
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux. / The objective of this thesis is to propose innovative hierarchical approaches to model dependence within and between risks in non-life insurance in general, and in a loss reserving context in particular. One of the most critical problems in property/casualty insurance is to determine an appropriate reserve for incurred but unpaid losses. These provisions generally comprise most of the liabilities of a non-life insurance company. The global provisions are often determined under an assumption of independence between the lines of business. However, most risks are related to each other in practice, and this correlation needs to be taken into account. Recently, Shi and Frees (2011) proposed to include dependence between lines of business in a pairwise manner, through a copula that captures dependence between two equivalent cells of two different runoff triangles. In this thesis, we propose to generalize this model with two different approaches. Firstly, by using hierarchical Archimedean copulas to accommodate correlation within and between lines of business, and secondly by capturing this dependence through random effects. The first approach will be presented in chapters 2 and 3. In chapter 2, we use partially nested Archimedean copulas to capture dependence within and between two lines of business, through calendar year effects. In chapter 3, we use fully nested Archimedean copulas, to accommodate dependence between more than two lines of business. A copula-based risk aggregation model is also proposed to accommodate dependence. The inference for the dependence structure is performed with a rank-based methodology to bring more robustness to the estimation. In chapter 4, we introduce the Sarmanov family of bivariate distributions to a loss reserving context, and show that its flexibility proves to be very useful for modeling dependence between loss triangles. This dependence is captured by random effects, through calendar years, accident years or development periods. Closed-form expressions are given, and a real life illustration is shown again. In chapter 5, we use the Sarmanov family of bivariate distributions in a dynamic framework, where the random effects are considered evolutionary and evolve over time, to update the information and allow more weight to more recent claims. Hence, we propose an innovative way to jointly model the dependence between risks and over time with an illustration in a ratemaking context. Finally, a brief conclusion recalls the main contributions of this thesis and provides insights into future research and possible extensions to the proposed works.
50

Multivariate statistical modeling of an anode backing furnace : Modélisation statistique multivariée du four à cuisson des anodes utilisées dans la fabrication d'aluminium primaire

Dufour, Amélie 24 April 2018 (has links)
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson. / The aluminum manufacturing process is highly influenced by the anode quality. Several factors affect the anode quality and the actual quality control strategy is inadequate to detect faulty anodes before setting them in the electrolytic cells. A soft-sensor model developed from historical carbon plant data and multivariate statistical methods was proposed in past work to obtain quick predictions of individual anode properties right after baking for quality control purposes. It could only be used for anodes baked at the coldest and hottest positions within the furnace due to the core sampling strategy used at the partner’s plant. To complement the soft-sensor, this work proposes a method for taking into account the thermal history of anodes baked at eventually any position and to allowing for the prediction of properties for all anodes. It is shown that combining categorical variables for pit and baking positions and routinely available firing equipment data is sufficient for predicting the temperature profiles of anodes baked in different positions (measured during pit surveys) and account for its impact on anode properties. Prediction results were validated using core sampling and good performance was obtained for LC, apparent and real density, compressive strength and air reactivity.

Page generated in 0.6521 seconds