• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Étude des déformations hygromécaniques dans des feuilles de papier multicouches

Bourque, Jean-Pierre 13 April 2018 (has links)
Ce mémoire présente des travaux de recherche portant sur les déformations hygromécaniques en régime transitoire d'une feuille de papier multicouche. Un modèle semi-analytique permettant de prédire ces déformations a été développé. Ce modèle utilise la théorie de la diffusion de l'humidité en régime transitoire à travers une plaque multicouche combinée à la théorie classique des stratifiés modifiée pour tenir compte des non linéarités géométriques. Les résultats du modèle pour une feuille de papier multicouche et pour deux types de carton ont été comparés aux résultats d'un modèle d'éléments finis. Le modèle semi-analytique développé a permis d'obtenir des résultats similaires aux résultats du modèle d'éléments finis, tout en minimisant le temps de calcul requis. Une étude expérimentale a ensuite été menée afin de valider les prédictions du modèle. Différentes couches de papier ont été utilisées pour concevoir des assemblages multicouches. Toutes les propriétés des couches individuelles et des assemblages requises par le modèle ont été évaluées. Enfin, les assemblages conçus ont été esposés à différents cycles d'humidité afin d'étudier leurs déformations hygromécaniques. Un système de mesure des déplacements en 3D a été utilisé pour mesurer les courbures des assemblages en fonction du temps. Les résultats des essais expérimentaux montrent une assez bonne concordance avec les prédictions du modèle semi-analytique, mais le temps requis pour atteindre l'équilibre est beaucoup plus long que prévu.
302

Modélisation d'un usager de jeu vidéo avec un modèle de Markov caché

Bettayeb, Miloud 18 April 2018 (has links)
Le succès de l'utilisation du modèle de Markov caché dans des domaines comme le traitement des images, la biologie, la médecine et la robotique, est principalement dû à la possibilité qu'il offre d'obtenir des traitements efficaces et de construire des modèles par apprentissage automatique, même pour d'importantes masses de données. L'objectif de cette mémoire est de d'évaluer l'adéquation et l'efficacité de ce modèle pour modéliser les activités d'utilisateurs de jeux vidéo. Dans ce mémoire, nous avons choisi le jeu Pacman pour mener notre étude. Ce jeu présente un intérêt particulier car les décisions de déplacement et les stratégies utilisées par les joueurs sont basées sur des contraintes liées à l'environnement du jeu (les fantômes, les points, les pastilles, les fruits...). Nous avons choisi d'appliquer le modèle de Markov caché pour modéliser le contrôle du Pacman par un joueur. Notre premier objectif est de prédire la stratégie utilisée par le joueur pendant des parties de jeu. Pour cette tâche, nous avons utilisé seulement le modèle du Markov caché, Notre deuxième objectif est de tenter d'identifier un joueur à partir d'épisodes de jeux. Pour cette deuxième tâche, nous avons combiné un modèle de Markov caché avec une méthode de classification pour obtenir nos résultats. D'après les résultats obtenus dans nos travaux, nous pouvons affirmer que ces modèles se révèlent efficaces pour la reconnaissance d'activités dans des jeux vidéo.
303

Conception d'un système de stockage inertiel d'énergie à moyen terme : développement d'outils numériques et validation expérimentale

Filion, Guillaume 23 April 2018 (has links)
Les moteurs à combustion interne utilisés pour propulser les véhicules routiers produisent des gaz à effet de serre, l’une des causes probables des changements climatiques actuellement observés partout sur la planète. L’utilisation de véhicules électriques représente une alternative intéressante à cette problématique. Grâce aux nouvelles générations de piles, il est désormais possible de recharger les véhicules électriques rapidement, ce qui peut favoriser leur adoption. Afin de réduire l’impact de cette recharge rapide sur le réseau électrique, une solution est d’emmagasiner de l’énergie lors de périodes creuses de consommation énergétique pour recharger les véhicules électrique rapidement lors des périodes de forte demande. La présente thèse fait état de travaux visant le développement d’un système de stockage inertiel d’énergie à moyen terme destiné à cette problématique des véhicules électriques. La conception de ce type de système nécessite l’étude de plusieurs domaines du génie mécanique et du génie électrique. Les recherches présentées dans cette thèse s’intéressent principalement à la dynamique des rotors, à la mécanique des matériaux et aux roulements magnétiques passifs. Plusieurs outils théoriques ont été développés pour prévoir le comportement dynamique du système et pour prédire les contraintes internes induites par la rotation. Plusieurs parmi ceux-ci ont été validés théoriquement grâce à des cas présentés dans la littérature, ainsi qu’expérimentalement à l’aide d’un système de stockage expérimental original. Ce dernier a aussi été utilisé pour valider plusieurs concepts théoriques de la dynamique des rotors qui sont peu discutés dans la littérature, c’est-à-dire l’influence des imperfections des roulements magnétiques passifs radiaux et du moteur à aimants permanents sur le comportement du système. Pour ce faire, des roulements magnétiques passifs radiaux réduisant les pertes mécaniques dans le système ont été conçus, fabriqués et caractérisés en utilisant une méthodologie novatrice. Il a été démontré expérimentalement qu’il est possible d’utiliser le principal défaut de ce type de roulements, c’est-à-dire leur instabilité, afin de réduire les pertes induites par une butée axiale à bille. Finalement, les premières étapes du développement d’un composite lourd utilisant l’acier comme renfort sont présentées. Mots-clés : Dynamique de rotor; Roulement magnétique passif; composite lourd; renfort d’acier; validation expérimentale; Moteur synchrone à aimants permanents; Stockage inertiel. / Internal combustion engines used to propel road vehicles produce greenhouse gases, one of the probable causes of global warming, a phenomenon currently observed everywhere on the planet. The use of electric vehicles is an interesting alternative to reduce the production of those gas emissions. New battery technologies enable rapid electric vehicles recharge, a feature which might increase their adoption. In order to reduce the impact of this rapid charging on the grid, an attractive solution is to store energy during periods of low consumption and then use it rapidly to recharge the onboard batteries during high demand periods. This thesis reports the work aimed at the development of a flywheel energy storage system that would solve this problem for electric vehicles. The design of such a system requires the study of multiple disciplines related to both mechanical and electrical engineering. The areas of research presented in this thesis are rotor dynamics, materials strength and behavior and passive magnetic bearings. Several theoretical tools were developed in order to predict the behavior of the system during operation and to estimate the internal stresses induced by the rotation. These tools were theoretically validated using reference cases presented in the literature and experimentally with the help of an actual storage system developed for this research. This system was also used to validate several rotor dynamics theoretical concepts that are rarely discussed in the literature, namely the influence of the imperfections in the passive magnetic bearings on the behavior of the system. To achieve this study, radial passive magnetic bearings were developed, fabricated and characterized using a novel technique. It has been demonstrated that it is possible to use the main flaw of this type of bearing, its instability, to reduce the mechanical losses induced by the mechanical thrust bearing. Finally, the first steps of the development of a new heavy composite that uses steel wires as reinforcement are presented. Keywords: Passive magnetic bearing; Rotor dynamics; Heavy composite; Steel reinforced plastics; Experimental validation; Permanent magnet synchronous motor; Flywheel energy storage.
304

Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économique

Thivierge, Alex 30 November 2022 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
305

Modélisation XFEM, Nitsche, Level-set et simulation sous FEniCS de la dynamique de deux fluides non miscibles

Mekhlouf, Réda 28 June 2018 (has links)
À l’heure actuelle, les écoulements à deux fluides non miscibles jouent un rôle très important dans plusieurs domaines, que ça soit en science ou en ingénierie. Leur complexité est tellement élevée que les modèles actuels ne permettent de résoudre que des cas particuliers ou simplifiés avec un degré de précision qui demeurent souvent plutôt modeste. Une nouvelle approche numérique parait être une nécessité pour capturer la complexité physique du phénomène. Pour ce faire nous avons besoin d’outils robustes. Au niveau de l’interface de séparation entre les deux fluides non miscibles, les variables physiques sont discontinues, ce qui pose un défi majeur dans la description des variables et des conditions aux limites à l’interface. Le fait que les densités et les viscosités de chaque fluide soient différentes de part et d’autre de l’interface donne naissance à des défauts et des impuretés dans le champ des vitesses, ce qu’on appelle une discontinuité faible. Pour sa part, l’existence de la force de tension superficielle au niveau de l’interface crée une discontinuité sur le champ de pression, ce qu’on appelle une discontinuité forte. Un autre grand problème se pose au niveau de l’étude numérique du problème, où les méthodes numériques classiques ont une précision assez limitée dans ce genre de situation. L’objectif de ce travail est de fournir une étude complète de la dynamique de l’interface entre deux fluides non miscibles à l’aide d’outils mathématiques, physiques et numériques robustes. D’abord, une étude analytique du problème a été faite où l’équation de Navier-Stokes et les conditions de saut sur les variables physiques au niveau de l’interface de séparation entre les fluides ont été prouvées en détail. Pour traiter les discontinuités, nous avons discrétisé nos variables à l’aide de la méthode XFEM. Dû aux larges distorsions rencontrées dans ce genre d’écoulement, nous avons utilisé l’approche Eulérienne, pour corriger les oscillations des solutions dues aux choix du système de coordonnées nous avons utilisé les techniques de stabilisation SUPG/PSPG. Le traitement de la courbure des interfaces K été fait à l’aide de l’opérateur Laplace Beltrami et le suivi d’interface à l’aide de la méthode ¨Level-set¨. Pour le traitement des conditions de saut au niveau de l’interface la méthode Nitsche est développée dans différents contextes. Après avoir développé un modèle physique et mathématique dans les premières parties de notre travail, nous avons fait une étude numérique à l’aide de la plateforme de calcul FEniCS, qui est une plateforme de développement en langage C++ avec une interface Python. Un code de calcul a été développé dans le cas des écoulements de deux fluides non miscibles avec les modèles physiques et les outils mathématiques développés dans les sections précédentes. / The two-phase flow problems have an important role in the multitude of domains in science and engineering. Their complexity is so high that the actual models can solve only particular or simplified cases with a certain degree of precision. A new approach is a necessity to understand the evolution of new ideas and the physical complexity in this kind of flow, to contribute to the study of this field. A good study requires solid and robust tools to have performing results and a maximum of efficacy. At the interface of separation between the two immiscible fluids, the physical parameters are discontinuous, which gives us difficulties for the description of the physical variables at the interface and boundary conditions. The fact that the density and the viscosity are discontinuous at the interface creates kinks in the velocity, which represent a weak discontinuity. The existence of the surface tension at the interface create a discontinuity for the pressure field, it represents a strong discontinuity. The main objective of this work is to make a complete study based on strong and robust physical, mathematical and numerical tools. A strong combination, capable of capturing the physical aspect of the interface between the two fluids with a very good precision. Building such a robust, cost effective and accurate numerical model is challenging and requires lots of efforts and a multidisciplinary knowledge in mathematics, physics and computer science. First, an analytical study was made where the one fluid model of the Navier-Stokes equation was proved from Newton’s laws and jump conditions at the interface was proved and detailed analytically. To treat the problem of discontinuity, we used the XFEM method to discretize our discontinuous variables. Due to the large distortion encountered in this kind of fluid mechanic problems, we are going to use the Eulerian approach, and to correct the oscillation of solutions we will use the SUPG/PSPG stabilization technic. The treatment of the interface curvature k was done with the Laplace Beltrami operator and the interface tracking with the Level-set method. To treat the jump conditions with a very sharp precision we used the Nitsche’s method, developed in different cases. After building a strong mathematical and physical model in the first parts of our work, we did a numerical study using the FEniCS computational platform, which is a platform of computational development based on C++ with a Python interface. A numerical code was developed in this study, in the case of two-phase flow problem, based on the previous mathematical and physical models detailed in previous sections.
306

Évaluation de l'efficacité d'une couche de recouvrement par modélisation numérique : application au cas du Fjord du Saguenay

Dueri, Sibylle 11 April 2018 (has links)
Suite au déluge qui a marqué la région du Saguenay en 1996, une couche de nouveaux sédiments a recouvert les sédiments du secteur amont du fjord du Saguenay. Avant le déluge cette zone était caractérisée par la présence de sédiments contaminés, associés au déversement incontrôlé d’effluents liquides, pratiqué dans le passé par les industries de la région. La couche de sédiments déposés en 1996 a enfoui les sédiments contaminés et constitue donc une barrière isolante composée de matériaux plus propres. Afin d'estimer l'efficacité à long terme de la couche, un nouveau modèle numérique (TRANSCAP-1D) a été développé. Ce modèle simule la migration de composantes dissoutes dans une colonne de sédiments et considère l'advection, la diffusion/dispersion, et l'effet de la bio-irrigation. La formulation mathématique représente un milieu à double porosité, composé de pores et de trous ou tubes de vers. Le modèle a été calé avec les profils de concentration de l'arsenic dissous qui ont été mesurés à deux stations du fjord du Saguenay, après la déposition de la couche de recouvrement naturelle. Par la suite, une analyse de sensibilité a été réalisée afin d'évaluer l'impact de certains paramètres caractérisés par une variabilité ou incertitude importante aux sites à l'étude. Les résultats montrent que les paramètres associés à la bio-irrigation ont un impact significatif sur la migration des contaminants dissous vers la colonne d'eau. Par la suite, nous avons réalisé une analyse d'incertitude en utilisant la méthode Monte Carlo et les résultats ont été intégrés dans une analyse de décision pour le design d'une couche de recouvrement potentielle. Le cas présenté est hypothétique et concerne la réhabilitation d'un site contaminé qui est fréquenté régulièrement par la population de bélugas du Saint Laurent. L'exemple illustre les avantages de l'application de l'analyse de décision pour trouver l'alternative correspondante au coût total plus bas, en considérant les coûts et les risques d'échec associés au projet de réhabilitation. / In 1996 two days of intense rainfalls caused severe flooding in the Saguenay region and a new sediment layer was deposited on the upstream area of the Saguenay fjord. In the past, this area was exposed to the uncontrolled discharge of industrial effluents and the sediments were contaminated. The new sediment layer buried the contaminated sediments and constitutes a natural barrier of cleaner material, which isolates the contaminants from the water column. A new numerical model (TRANSCAP-1D) was developed in order to estimate the effectiveness of the natural barrier in isolating the contaminated sediments from the overlying water column. The model simulates the migration of dissolved compounds in a sediment column and includes advection, diffusion/dispersion and the effect of bio-irrigation. The mathematical formulation represents a double porosity medium, composed of sediment pores and tubes or burrows dug by worms. The model was calibrated using the concentration profiles of dissolved arsenic measured at two stations of the Saguenay fjord, after the capping event. Thereafter, a sensitivity analysis was performed in order to evaluate the impact of certain parameters showing a great variability and uncertainty at the studied sites. The results indicate that the parameters associated to bio-irrigation have a significant impact on the migration of dissolved contaminants towards the water column. Thereafter, we performed an uncertainty analysis, using the Monte Carlo method. The results were integrated in a decision analysis for the design of a capping layer in a hypothetical case of sediment remediation. The presented case considers a contaminated site regularly frequented by the beluga population of the St. Lawrence Estuary. The example illustrates the advantages of the application of the decision analysis method, which is used to find the least cost option, considering the costs and failure risks associated to the remediation project.
307

Relation dynamique entre les signaux électromyographiques et le couple produit au coude lors de contractions à angles constants

Bouchard, Stéphane 10 July 2019 (has links)
Ce mémoire utilise une approche basée sur les méthodes d’identification paramétrique afin de représenter la relation entre signaux électromyographiques du biceps et du triceps versus le moment de force au coude variant dynamiquement lors de contractions à angle constant. La performance de deux modèles linéaires, le modèle «Auto Régressive with eXogenous inputs (ARX)» et le modèle «Output Error(OE)», de plusieurs ordres sont comparées. La performance des modèles est évaluée lors de l’utilisation de différents pré-processeurs, basée sur des canaux uniques ou multiples et l’utilisation d’un filtre «adaptive whitening». Le pré-processeur «multiple channels with adaptive whitening» améliore les performances d’identification. Le modèle OE permet une meilleure identification mais est sujet à des problèmes de convergence. / This thesis analyzes different parametric System identification (ID) methods to détermine a linear relationship between electromyographic signais from the biceps and the triceps and a dynamically varying torque about the elbow for constant angles contractions. The performance of two different linear models, Auto Régressive with eXogenous inputs (ARX) and Output Error (OE) of different orders are compared. The performance of the models are estimated with different pre-processors, single and multiple, with / without adaptive whitening filter. The multiple channels with adaptive whitening pre-processor increases the performance of the two models tested. The OE model leads to a better identification performance but is subject to convergence problems. / Québec Université Laval, Bibliothèque 2019
308

Modélisation de la dépendance et apprentissage automatique dans le contexte du provisionnement individuel et de la solvabilité en actuariat IARD

Chaoubi, Ihsan 14 May 2022 (has links)
Les compagnies d'assurance jouent un rôle important dans l'économie des pays en s'impliquant de façon notable dans les marchés boursiers, obligataires et immobiliers, d'où la nécessité de préserver leur solvabilité. Le cycle spécifique de production en assurance amène des défis particuliers aux actuaires et aux gestionnaires de risque dans l'accomplissement de leurs tâches. Dans cette thèse, on a pour but de développer des approches et des algorithmes susceptibles d'aider à résoudre certaines problématiques liées aux opérations de provisionnement et de solvabilité d'une compagnie d'assurance. Les notions préliminaires pour ces contributions sont présentées dans l'introduction de cette thèse. Les modèles de provisionnement traditionnels sont fondés sur des informations agrégées. Ils ont connu un grand succès, comme en témoigne le nombre important d'articles et documents actuariels connexes. Cependant, en raison de la perte d'informations individuelles des sinistres, ces modèles représentent certaines limites pour fournir des estimations robustes et réalistes dans des contextes susceptibles d'évoluer. Dans ce sens, les modèles de réserve individuels représentent une alternative prometteuse. En s'inspirant des récentes recherches, on propose dans le Chapitre 1 un modèle de réserve individuel basé sur un réseau de neurones récurrent. Notre réseau a l'avantage d'être flexible pour plusieurs structures de base de données détaillés des sinistres et capable d'incorporer plusieurs informations statiques et dynamiques. À travers plusieurs études de cas avec des jeux de données simulés et réels, le réseau proposé est plus performant que le modèle agrégé chain-ladder. La détermination des exigences de capital pour un portefeuille repose sur une bonne connaissance des distributions marginales ainsi que les structures de dépendance liants les risques individuels. Dans les Chapitres 2 et 3 on s'intéresse à la modélisation de la dépendance et à l'estimation des mesures de risque. Le Chapitre 2 présente une analyse tenant compte des structures de dépendance extrême. Pour un portefeuille à deux risques, on considère en particulier à la dépendance négative extrême (antimonotonocité) qui a été moins étudiée dans la littérature contrairement à la dépendance positive extrême (comonotonocité). On développe des expressions explicites pour des mesures de risque de la somme d'une paire de variables antimontones pour trois familles de distributions. Les expressions explicites obtenues sont très utiles notamment pour quantifier le bénéfice de diversification pour des risques antimonotones. Face à une problématique avec plusieurs lignes d'affaires, plusieurs chercheurs et praticiens se sont intéressés à la modélisation en ayant recours à la théorie des copules au cours de la dernière décennie. Cette dernière fournit un outil flexible pour modéliser la structure de dépendance entre les variables aléatoires qui peuvent représenter, par exemple, des coûts de sinistres pour des contrats d'assurance. En s'inspirant des récentes recherches, dans le Chapitre 3, on définit une nouvelle famille de copules hiérarchiques. L'approche de construction proposée est basée sur une loi mélange exponentielle multivariée dont le vecteur commun est obtenu par une convolution descendante de variables aléatoires indépendantes. En se basant sur les mesures de corrélation des rangs, on propose un algorithme de détermination de la structure, tandis que l'estimation des paramètres est basée sur une vraisemblance composite. La flexibilité et l'utilité de cette famille de copules est démontrée à travers deux études de cas réelles. / Insurance companies play an essential role in the countries economy by monopolizing a large part of the stock, bond, and estate markets, which implies the necessity to preserve their solvency and sustainability. However, the particular production cycle of the insurance industry may involve typical problems for actuaries and risk managers. This thesis project aims to develop approaches and algorithms that can help solve some of the reserving and solvency operations problems. The preliminary concepts for these contributions are presented in the introduction of this thesis. In current reserving practice, we use deterministic and stochastic aggregate methods. These traditional models based on aggregate information have been very successful, as evidenced by many related actuarial articles. However, due to the loss of individual claims information, these models represent some limitations in providing robust and realistic estimates, especially in variable settings. In this context, individual reserve models represent a promising alternative. Based on the recent researches, in Chapter 1, we propose an individual reserve model based on a recurrent neural network. Our network has the advantage of being flexible for several detailed claims datasets structures and incorporating several static and dynamic information. Furthermore, the proposed network outperforms the chain-ladder aggregate model through several case studies with simulated and real datasets. Determining the capital requirements for a portfolio relies on a good knowledge of the marginal distributions and the dependency structures linking the individual risks. In Chapters 2 and 3, we focus on the dependence modeling component as well as on risk measures. Chapter 2 presents an analysis taking into account extreme dependence structures. For a two-risk portfolio, we are particularly interested in extreme negative dependence (antimonotonicity), which has been less studied in the literature than extreme positive dependence (comonotonicity). We develop explicit expressions for risk measures of the sum of a pair of antimonotonic variables for three families of distributions. The explicit expressions obtained are very useful, e.g., to quantify the diversification benefit for antimonotonic risks. For a problem with several lines of business, over the last decade, several researchers and practitioners have been interested in modeling using copula theory. The latter provides a flexible tool for modeling the dependence structure between random variables that may represent, for example, claims costs for insurance contracts. Inspired by some recent researches, in Chapter 3, we define a new family of hierarchical copulas. The proposed construction approach is based on a multivariate exponential mixture distribution whose common vector is obtained by a top-down convolution of independent random variables. A structure determination algorithm is proposed based on rank correlation measures, while the parameter estimation is based on a composite likelihood. The flexibility and usefulness of this family of copulas are demonstrated through two real case studies.
309

Contribution à l'identification et l'identification en ligne en vue de la base de la commande automatique en temps réel des systèmes complexes

Kada, Belkacem 11 April 2018 (has links)
Les systèmes complexes interviennent dans de nombreux secteurs d'activité du domaine industriel tels que la mécanique, l'électromécanique, la thermique, l'aérospatiale, la robotique, la biotechnologie, etc., L'asservissement de ces systèmes fait une partie importante des préoccupations actuelles des grandes unités de recherches en automatique et automatisation des procédés industriels à l'échelle internationale. Dans cette étude, une plate forme allant de la modélisation à la base de la commande automatique en temps réel a été développée et mise en ouvre pour ces systèmes. Une nouvelle approche de modélisation numérique des systèmes complexes en vue de leur commande en tempe réel a été proposée et formulée. En se basant sur l'exploitation des Fonctions Opératoires (FOs), le but de cette approche est d'adapter la structure et la paramétrisation du Modèle Interne (MI) ou de connaissance au processus de commande en temps réel. Ces fonctions ont été conçues pour qu'elles deviennent des outils efficaces pour l'estimation d'état et la prédiction des paramètres de la commande. Autrement dit, elles contiennent les informations nécessaires sur le système (caractère non linéaire, changement de phase, interaction interne, etc.) et sur le processus de commande (paramètres de la commande, perturbation, etc.). Un algorithme original d'identification et d'identification en ligne des modèles paramétriques multivariables dans des espaces multidimensionnels a été conçu et incorporé dans la plate-forme. Les contributions majeures de ce nouvel algorithme sont l'identification paramétrique, l'optimisation non linéaire, l'optimisation sous contraintes et l'incertitude paramétrique. Ses performances principales sont la configuration du réseau d'acquisition des données, la minimisation du temps de calcul et la grande précision. Cet algorithme peut être efficacement utilisé pour l'identification et l'ajustement des modèles multivariables avec un grand nombre de paramètres, les modèles de grandes incertitudes etc. Une nouvelle approche appelée Familles des Solutions Dynamiques (FSDs) a été développée comme base de la commande automatique en tempe réel des systèmes complexes. En se basant sur l'utilisation du MI identifié, nous avons conçu une nouvelle technique pour le développement des familles de trajectoires (cibles), des FOs (modèles) et des paramètres de la commande. Une banque mble de données cibles a été créée autour de l'état réel du System asservi pour une estimation d'état en ligne et une future prédiction de la commande automatique en temps réel. Ces familles sont caractérisées par leur stabilité exponentielle (asymptotique), convergence spatiotemporelle et la haute précision. Les FSDs constituent une base complète pour la commande à paramètres répartis et font une approche prometteuse dans le futur de l'automatique et l'automatisation des systèmes industriels de haute performance. / The complex Systems are implied in several modem industrial sectors such as mechanical engineering, mechatronic, aerospace, robotic, thermal engineering, chemical and nuclear engineering, biotechnology, etc. The real time control of these Systems is making the current interests of the advanced international research teams in the automatic and automation of industrial processes. In this thesis, a complete network of the numerical modeling, identification and online identification for a basis of real time automatic control of complex Systems was developed, implemented and tested. A new approach of numerical modeling for the real time control of complex Systems was proposed and formulated. Basing on the use of Operating functions (OFs) and the measures, the aim of this approach is to adapt the structure and the parameterization of the mathematical model or Internal Model (IM) to the real time control process. The OFs were conceived in order to become effective tools of the state estimation and the control prediction. In other words, these functions contain necessary information about the controlled System (nonlinear character, internal interaction, etc.) and the control process (control parameters, disturbances, etc). An original algorithm of identification and online identification of the multivariable models in multidimensional spaces was conceived and incorporated in the network. The major contributions of this algorithm are the online identification, nonlinear optimization, optimization under constraints and parametrical uncertainty. Its principal performances are the fast convergence, the minimal Computing time and the high precision. This algorithm is effectively used for the identification and adjustment of multivariable models, models with a great number of parameters and the models with a high uncertainty. A new basis called the Dynamic Families of Solutions (DFSs) was developed for the real time automatic control of the complex Systems. Using the identified IM, we have conceived a new technique for the development of complete families of tracking trajectories (targets or references) with the corresponding OFs (models) and the necessary control parameters (inputs). These families are characterized by the exponential (asymptotic) stability, fast convergence and high precision. The DFSs were developed as a complete basis for the real time automatic control of complex Systems and they constitute a promising approach in the automatic and automation of the industrial complex Systems such as the distributed parameter control.
310

Vers une approche chimio-poro-visco-élastique de comportement au jeune age des betons

Michaud, Paul-Marie 13 April 2018 (has links)
La théorie des milieux poreux réactifs fermés est explorée pour modéliser le comportement au jeune âge des bétons pour des couplages chimio-poro-visco-élastiques. Le modèle est construit autour de l'hypothèse que la dépression capillaire est le principal mécanisme responsable du retrait d'autodessiccation (Hua et al. 1995). Ce retrait correspond à la réponse viscoélastique de la matrice solide vieillissante du milieu poreux sous l'action d'une contrainte de compression induite par la condensation capillaire. L'apparition d'une déformation de gonflement dans les premières heures qui suivent la prise du matériau ne peut être expliquée par un phénomène de dessiccation, car l'humidité relative décroît au fur et à mesure de l'évolution de la réaction d'hydratation. Les déformations endogènes (déformations libres du matériau en conditions isothermes, sans chargement extérieur et sans échange hydrique avec l'extérieur) sont donc définies comme la somme d'un gonflement chimique macroscopique dû à la réaction d'hydratation et d'un retrait d'autodessiccation. L'approche chimio-poro-visco-élastique développée dans cette étude pour analyser le comportement au jeune âge des bétons a plusieurs objectifs. Premièrement, une modélisation basée sur une approche de la mécanique des milieux poreux permet d'avoir une base rigoureuse à la compréhension des mécanismes qui ont une influence sur les déformations différées observées à l'échelle macroscopique. Le deuxième objectif consiste en la mise en place d'un outil qui fournit les bases nécessaires à une meilleure compréhension de l'influence de la composition du matériau sur le comportement au jeune âge des bétons. Ce rapport est divisé en quatre parties dont les deux premières font état des connaissances publiées dans la littérature scientifique qui permettront d'arriver à une modélisation basée sur une approche multi-échelles du problème. Les conditions de retrait restreint sont développées dans la troisième partie afin de montrer comment un essai R2D2 peut être analysé en vue d'une modélisation du comportement au jeune âge. La quatrième décrit les bases théoriques du modèle ainsi que l'identification des paramètres de ce dernier. Le rapport finit par une application de l'approche pour étudier l'influence du ciment et du rapport E/C sur le comportement au jeune âge des bétons.

Page generated in 0.3062 seconds