• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 586
  • 184
  • 3
  • Tagged with
  • 775
  • 775
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Modélisation des effets de la configuration spatiale des interventions de coupes sur la mortalité du caribou des bois en forêt boréale

Vanlandeghem, Virginie 18 December 2019 (has links)
Ce projet vise à évaluer l’effet de la configuration spatiale des coupes forestières et des routes sur la mortalité des adultes du caribou des bois (Ranfiger tarandus), écotype forestier, dans des paysages habités par le loup gris (Canis lupus) et une proie alternative, l’orignal (Alces alces). Nous avons utilisé un modèle centré sur l’individu pour modéliser les déplacements d’agents, représentant des individusfictifs de chaque espèce, dans des environnements virtuels. Les agents se déplaçaient selon des règles de déplacement établies à partir de l’analyse des données de suivis télémétriques de caribous, d’orignaux et de loups. Les environnements virtuels étaient façonnés par différents aménagements forestiers se distinguant par leur niveau de perturbations et par la configuration spatiale des coupes et du réseau routier. Le nombre de caribous morts par la prédation augmentait avec le niveau de perturbations des scénarios d’aménagement forestier. De plus, pour un même niveau de perturbations, la mortalité des caribous différait selon la configuration spatiale des activités forestières. Le risque de prédation des caribous était plus élevé lorsque la configuration des coupes dans le paysage engendrait un dense et vaste réseau routier et une fragmentation importante de l’habitat du caribou. Ainsi, en plus du niveau de perturbations, les plans de gestion de l’habitat de l’écotype forestier du caribou des bois devraient prendre en compte l’effet de la configuration spatiale des coupes et des routes sur la mortalité du caribou afin d’atténuer l’impact dela prédation sur ces populations dû à l’extraction des ressources. / The aim of this project was to assess the impact of the spatial configuration of cuts and roads on adult mortality of the boreal ecotype of woodland caribou (Ranfiger tarandus)in landscapes inhabited by the gray wolf (Canis lupus) and an alternative prey, the moose (Alces alces). We used an individual-based model to simulate movements of agents, which are virtual individuals of each species, moving in virtual landscapes. Agents moved according to movement rules determined from field studies conducted on radio-collared caribou, moose and wolves. Virtual landscapes were shaped by various forest managements, differing in disturbance level sand spatial configuration of cuts and roads. The number of caribou killed by wolves increased with increasing disturbance levels. Also, for a given level of disturbance, caribou mortality varied with the spatial distribution of forest activities. Predation risk of caribou was higher in landscapes with extensive road networksand high degree of forest fragmentation. Thus, habitat management plans for boreal caribou should not only focus on assessing habitat disturbance thresholds but also consider the effect of the spatial configuration of cuts and roads on caribou mortality in order to reduce the impact of predation due to natural resource extraction on the ecotype’s populations.
202

Modélisation des procédés de mise en forme de composantes d'un train d'atterrissage d'avion : application au procédé de forgeage à chaud à matrices fermées

Ba, Kadiata 24 April 2018 (has links)
L’usage des outils de modélisation numérique dans la simulation des différents procédés de mise en forme est, de nos jours, un incontournable. L’industrie du forgeage, avec des logiciels de calcul et simulation très avancés tels que Forge ou Abaqus utilisés dans de nombreuses études et thèses, est en mesure d’assurer un bon contrôle des paramètres (paramètres procédé et paramètres matériau), ce qui permet la production de pièces de haute qualité, à géométrie complexe et très compétitives. La simulation numérique avec l’aide de méthodes appropriées comme ALE (Arbitrairement Eulérien Lagrangien) et SPH (Smoothed Particle Hydrodynamics) qui seront abordées dans le rapport, permet de réduire considérablement le temps et les coûts grâce aux procédés d’optimisation et de prototypage virtuel. Avec l’intégration des lois de comportement adaptées pour chaque cas dans les processus de mise en forme et le contrôle des paramètres du procédé, la simulation offre des résultats d’une grande précision pour des procédés tels que l’usinage et le forgeage, qui fait l’objet de notre étude. En partenariat avec Héroux-Devtek, notre travail porte sur la simulation de la mise en forme d’une composante d’un train d’atterrissage d’avion en aluminium par forgeage à chaud à matrices fermées. Cette étude nécessite une bonne compréhension de la cinématique des outils et des propriétés du matériau avant et lors de la mise en forme. Pour cela, une étude paramétrique pour vérifier l’importance de chaque paramètre sur les résultats finaux sera effectuée. Les logiciels de simulation utilisés sont Abaqus explicite et Ls-dyna. Les différentes analyses effectuées dans cette étude ont permis de développer une méthodologie d’analyse ainsi qu’une première bonne approximation de la mise en forme de la composante du train d’atterrissage et d’identifier les paramètres permettant de mieux contrôler le procédé et d’améliorer les résultats de simulation. Mots-clés : Forgeage à chaud, ALE, SPH, MEF, aluminium, train d’atterrissage / The use of numerical modeling tools in the simulation of different methods of forming is nowadays a must. The forging industry, thanks to advanced calculation and simulation softwares such as Forge or Abaqus used in many studies and theses, can take advantage of good control settings (process and material parameters) that enable the production of high quality pieces, with complex geometry and highly competitive. Numerical simulation with the help of appropriate methods as ALE (Arbitrary Lagrangian Eulerian) and SPH (Smoothed Particle Hydrodynamics) that will be addressed in the report , can significantly reduce the time and costs through process optimization and virtual prototyping. With the integration of material laws adapted for each case during the forming process and the control of process parameters, simulation results are highly accurate for processes such as machining and forging, which is the subject of our study. In partnership with Héroux-Devtek, our work focuses on the simulation of the manufacturing of an aircraft landing gear component in aluminum by hot closed-die forging. This study requires a good understanding of the kinematics of tools, and material properties before and during the forming process. Thus, a parametric study to test the importance of each parameter on the final results will be done. Simulation softwares that will be used are Abaqus explicit and Ls-dyna. The analyses conducted in this study were used to develop an analysis methodology, to find a good first approximation of the forging simulation of the component of the landing gear and to identify parameters that allow for better simulation results. Keywords: Hot forging, ALE, SPH, FEM, aluminum, landing gear
203

Optimisation des systèmes de distribution de fluides et des réseaux de chauffage urbains à l'aide d'un algorithme génétique

Ramos Bermudez, Mario Bernardo 12 April 2018 (has links)
Ce mémoire porte sur l'optimisation des systèmes de distribution de fluides incompressibles. Le programme proposé est basé sur un algorithme génétique modifié incluant la méthode d'optimisation des réseaux qui consiste à ajouter des points d'embranchement non consommateurs, ainsi que les techniques de recherche locale et de mutation ciblées. Dans un premier temps, nous définissons un modèle d'optimisation qui consiste à minimiser la puissance de pompage lorsque le volume total du réseau est contraint. Les topologies optimales contiennent donc implicitement les diamètres optimums des conduits. Deux cas complexes de distribution de fluides sont étudiés avec notre programme en prenant ce modèle d'optimisation : la topologie optimale reliant la source placée au centre d'un disque et les consommateurs situés sur la périphérie de ce dernier (2D) et la topologie optimale reliant la source placée au centre d'une sphère et les consommateurs situés sur la surface de cette dernière (3D). Les résultats montrent que les structures optimales qui minimisent le coût de pompage ont des formes de dendrite et d'arbre. Nous démontrons aussi que les meilleures solutions en termes de performance et de robustesse sont obtenues lorsque l'optimisation est libre, sans contraintes géométriques ou structurales imposées. Par la suite, nous nous intéressons à l'optimisation d'un réseau de chauffage urbain, application réelle du problème d'optimisation des systèmes de distribution de fluides. Cette fois-ci le volume n'est plus contraint et la solution optimale recherchée est celle qui minimise plusieurs coûts à la fois : des coûts de fonctionnement, caractérisés par le coût de pompage et le coût de chauffage et des coûts d'achat et d'installation, amortis sur plusieurs années, caractérisés par le volume total du réseau, l'isolant utilisé et les échangeurs thermiques installés dans chaque nœud consommateur. Un nouveau modèle est ainsi défini et nous étudions plusieurs scénarios, basés sur les coûts économiques des projets. Nos résultats montrent l'efficacité et la pertinence de notre programme pour résoudre ce type de problèmes, qualifiées de NP-difficiles. De plus, nous démontrons que pour les cas étudiés, le coût thermique prédomine sur le coût de pompage, ce qui mène à des topologies optimales qui se rapprochent du réseau le plus court. / Fluid distribution networks are present in many engineering applications like water, oil or gas pipelines, district heating or cooling systems (DHS or DCS) and electronics cooling devices or heat exchangers. In order to meet modern engineering needs, such systems must be optimized to achieve better performance. In this paper we take a fresh look at the design of minimal cost fluid distribution networks under global constraints by introducing a program based on a modified genetic algorithm (MGA) including Gilbert-Steiner optimization points approach, local search and targeted mutation procedures. This work is divided as follows: first, pumping power is regarded as the cost function and volume and continuity constraints are added to the mathematical model. This led us to the study of 2D and 3D complex fluid distribution systems: discshaped and sphere-shaped networks. Large dimension problems are analyzed with our program and results show that dendrites combined with tree-shaped structures are those who perform the best in order to meet minimum pumping power needs. Moreover, our study in chapter VI demonstrates that "free optimization", i.e. no geometric structure assumption, leads to higher performance and more robust designs. Next, we take a look at the optimization of DHS, for which energy equation is added to the mathematical formulation of the problem and volume constraint is relaxed. Cost function is enlarged to network construction and operational costs. A new model is defined, so that this problem can be regarded as a multi-criteria minimum spanning tree network, for which GA have proven to be highly efficient. Different scenarios, based on economic analysis for industrial projects, are analysed with our program. Our results show that in such systems, thermal needs are higher than pumping power needs, leading to shortest trees.
204

Conservative characteristic-based schemes for shallow flows

Mohammadian, Abdolmajid 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / Les équations en eaux peu profondes, encore appelées équations de Saint-Venant, sont utilisées dans de nombreux cas importants comme les fleuves, les lacs, les estuaires et les océans. La conservation de certaines quantités est une propriété importante qui est habituellement désirée pour assurer la précision des simulations à long terme et également pour le cas des écoulements complexes avec présence d'ondes de choc. Cette thèse examine tout d'abord la formulation de schémas semi-Lagrangiens, qui sont bien connus pour demeurer stables pour des nombres très élevés de CFL. Cependant, ces schémas perdent leur propriété de stabilité lorsque la conservation totale des quantités, qui est cruciale pour une simulation correcte les ondes de chocs, est imposée. Un schéma semi- Lagrangien entièrement conservatif est développé ici et ce dernier demeure stable pour des nombres élevés de CFL. L'approche proposée est ensuite étendue à la méthode des caractéristiques (MOC) et une version conservative du schéma MOC est développée. Contrairement au schéma MOC original, qui ne peut pas simuler correctement les ondes de choc à cause du manque de conservation, le schéma proposé les simule avec succès. De plus, le nouveau schéma présente des avantages sur le plan numérique, tant pour la diffusion et la dispersion que pour la stabilité. Le cas 2D est ensuite considéré, et la méthode de volume finie est utilisée à cause de son conservation inhérente. Le cas 2D est ensuite considéré, et la méthode de volumes finis est utilisée à cause de ses qualités inhérentes de conservation. La plupart des méthodes numériques disponibles sont sensibles au problème du déséquilibre entre les termes source et de flux, particulièrement en présence d'un maillage non structuré. D'autre part, la plupart des schémas numériques disponibles (par exemple les schémas HLL et ENO) induisent un niveau élevé de diffusion numérique en simulant des écoulements tourbillonnaires. Trois approches différentes, applicables sur des maillages non structurés sont développées ici. Elles peuvent simuler des conditions complexes d'écoulement comprenant les topographies variables, les écoulements tourbillonnaires, trans-critiques et discontinus. Finalement plusieurs méthodes de volumes finis upwind sont utilisées, via une analyse de type Fourier, pour évaluer le niveau d`amortissement des modes de Rossby. Contrairement aux bons résultats habituellement obtenus par les méthodes de volumes finis upwind dans iii le cas d'écoulements dominés par la convection, on remarque ici que les ondes de Rossby sont amorties de manière excessive. / Shallow water equations arise in many important cases such as in rivers, lakes, estuaries and oceans. Conservation is an important property which is usually desired to ensure the accuracy of the long term simulations and also for the case of complex flows with shockwaves. This thesis begins with semi-Lagrangian schemes, which are well known to remain stable for very high CFL numbers. However, they lose their high stability property when the fully conservative property, which is crucial for a correct simulation of shock waves, is imposed. An inherently fully conservative semi-Lagrangian scheme is developed here which remains stable for high CFL numbers. The proposed approach is then extended to the method of characteristics (MOC) and a conservative extension of MOC is developed. Contrary to the original MOC, which is unable to simulate shockwaves due to the lack of conservation, the proposed scheme easily simulates them. Further, the new scheme presents favorable features in terms of numerical diffusion and dispersion. The 2D case is then considered, and the finite volume method is employed due to its inherent conservation properties. Most available numerical methods face the problem of imbalance between the source and flux terms, particularly when unstructured grids are used. On the other hand, most available numerical schemes (such as the HLL and the ENO schemes) induce a high level of numerical diffusion in simulating recirculating flows. Three different approaches using unstructured grids are successfully developed here. The new schemes can simulate complex flow conditions including recirculating, trans-critical and discontinuous flows over variable topographies. Finally, the performance of the upwind finite volume schemes, for Rossby waves, is studied using a Fourier analysis approach. Contrary to the usual good results obtained for those schemes in the case of convection dominated flows, it is observed here that they lead to an excessive damping of the Rossby modes.
205

Numerical simulations of thermal loads exerted on dams by laterally confined ice covers

Kharik, Ekaterina 23 May 2018 (has links)
Les barrages hydro-électriques construits dans les climats froids subissent des poussées des glaces importantes. Ces charges doivent être prises en compte pour l’évaluation de la sécurité de ces structures. Bien que les barrages aient été construits et exploités dans différents pays pendant de nombreuses années, il n’y a pas de consensus sur les critères de charge de glace. Les valeurs de conception varient considérablement – plus de 3 fois d’une autorité internationale à l’autre. La nature complexe des poussées des glaces implique de nombreux facteurs et incertitudes qui empêchent encore la pleine compréhension des processus en jeu, malgré les avancées récentes. Cette recherche doctorale vise à donner une nouvelle approche aux calculs des poussées des glaces sur les barrages et, ainsi, faire progresser l’objectif d’harmonisation des critères de conception pour les poussées des glaces. L’approche méthodologique de cette recherche consiste à compiler les modèles existants de comportement rhéologique de la glace et les inclure dans la simulation numérique des principaux événements historiques de poussées des glaces mesurés au Canada. La construction d’un modèle numérique commence par un choix de processus et d’hypothèses clés, ainsi que par des modèles rhéologiques à inclure. Par conséquent, une revue compréhensive de la littérature sur le comportement rhéologique de la glace a été réalisée. Cette thèse décrit un modèle de fluage 3D du comportement rhéologique pour deux types de glace (glace columnaire et glace de neige). Le modèle construit peut être implémenté dans un logiciel d’éléments finis pour simuler le comportement de la glace sous les charges statiques. Au cours du projet, le logiciel ANSYS a été utilisé pour construire un modèle d’éléments finis pour des simulations d’événements mesurés. Le modèle d’éléments finis a été validé et étalonné par rapport à des expériences en laboratoire provenant de la littérature. Par la suite, il a été utilisé dans la simulation d’événements de poussées des glaces sur des barrages au Canada. Seule expansion thermique de la glace a été simulée par le modèle d’éléments finis. Les fluctuations de niveau d’eau ont été indirectement incluses dans le modèle par la simulation de la glace confinée latéralement. L’influence de différents facteurs sur la poussée des glaces simulées a été étudiée. Les conseils et les lignes directrices pour le choix et l’implémentation du modèle rhéologique de fluage dans un logiciel d’éléments finis commercial sont également fournis. La thèse est basée sur des résultats d’études qui ont été publiés dans deux articles de colloques et dans un article de journal. La thèse inclut l’introduction des poussées des glaces sur les barrages, les objectifs du projet, les revues de littérature sur les processus influents des poussées des glaces, sur les propriétés rhéologiques des deux types de glace fréquents sur un réservoir et la modélisation du comportement de la glace, ainsi que la présentation des données de terrain, la description du modèle, les études non encore publiées, la conclusion et les recommandations. La thèse discute du lien entre les expériences en laboratoire sur la glace et les mesures in situ des poussées des glaces sur les barrages. L’étude documente le fait que le fluage élastique retardé de la glace a un effet limité sur les poussées des glaces résultantes pour les grandeurs de grains de 3 mm à 20 mm, et son calcul peut être omis dans des évaluations approximatives des poussées des glaces avec cettes grandeurs de grains moyennes. Il est également montré que la variabilité du coefficient de dilatation thermique de la glace avec la température n’est pas importante pour les températures étudiées. L’importance des conditions initiales et du comportement de la glace en tension pour les poussées des glaces résultantes est également montrée. La thèse met l’accent sur l’importance de la considération correcte du confinement latéral et du type de glace pour les calculs de poussées des glaces sur les barrages. Il a été montré que la hausse du niveau d’eau et le confinement latéral de la glace peuvent produire très grandes forces de poussées, si la glace est principalement columnaire. De ce fait, il devient important d’évaluer la possibilité d’avoir des hivers secs ayant peu d’accumulation de neige sur la glace (les conditions favorables à la formation de la glace columnaire) pour la sélection de la charge de conception. / Hydroelectric dams are subjected to ice loads in cold climates. Withstanding such loads is an important safety requirement for the structures. Although dams have been built and operated by different countries for many years, there is no consensus on a design ice load criteria. Design values vary considerably – by more than 3 times from one international authority to another. The complex nature of ice loads involves many factors and uncertainties that still prevent the full understanding of ice field processes in spite of much progress done in this direction. This doctoral research aims to give new insights into reservoir ice loads, and, thus, to move forward the objective of harmonization of ice load design criteria. The main approach of this research is a compilation of existing models of ice material behaviour and their inclusion in the numerical simulation of key historical ice load events measured in Canada. A construction of a numerical model begins with a choice of key processes and key assumptions as well as material models to include. Therefore, a comprehensive literature review on the topic is required. During the project, diverse literature on ice material behaviour was reviewed. This thesis describes a 3D creep material model for rheological behaviour of two types of ice, namely columnar (S2) ice and snow (T1) ice. The constructed model can be implemented into software to simulate behaviour of ice under the static loads. In this project, the commercial software ANSYS was used for this purpose to build a finite element model (FEM) for simulations of field events. After the FEM was built, it was validated and calibrated against laboratory experiments taken from the literature. Subsequently, the resulting FEM was used for simulation of key Canadian field events. Only thermal expansion of ice was simulated by the FEM with indirect accounting of the impact of water level fluctuations through the modelling of ice cover under lateral confinement. The influence of different factors on the simulated ice load was studied, namely, the influence (i) of selected material constants, (ii) of lateral confinement, (iii) of grain size and of delayed elastic creep, (iv) of variable or constant coefficient of thermal dilatation, (v) of ice type, (vi) of initial stresses as well as (vii) the influence of ice behaviour in tension. The advice and guidelines for the choice and implementation of a creep material model into commercial finite element software are also given. The thesis is based on studies conducted for two conference papers and one journal paper. The thesis includes introduction to the ice loads on dams, objectives of the project, literature reviews on governing ice loading processes, on material properties of two types of ice of frequent occurrence on a reservoir and on modelling of ice behaviour as well as field data presentation, model description, yet unpublished studies, conclusion and recommendations. The thesis discusses the linkage between laboratory experiments on ice and in situ measurements of reservoir ice loads on dams through the numerical modelling of field events. It documents the fact that delayed elastic creep has a limited effect on the resulting ice load for grain sizes of 3 mm – 20 mm, and its calculation can be omitted in approximate assessments of field ice loads for ice cover with these average grain sizes. It is also shown that variability of coefficient of thermal dilatation of ice with temperature is not important for the temperature range studied. The importance of initial conditions and ice behaviour in tension for the resulting ice load is also shown. The thesis emphasizes the importance of correct accounting of lateral confinement and ice type for ice load calculations. It is shown that when water level rises and the ice is confined laterally, if the reservoir consists primarily of columnar ice, the loads can be very substantial. As such, it is recommended that engineers pay particular attention to the possibility of having cold dry winters with little snow accumulations on an ice cover (favorable conditions for columnar ice formation) when choosing their design criteria.
206

Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat

Mtalai, Itre 19 December 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues. / Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
207

Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones

Filion, Mélanie 12 April 2018 (has links)
L'objectif premier de cette étude vise à modéliser, à l'aide des réseaux de neurones, deux paramètres de qualité de l'eau : les nitrates et la matière en suspension. L'intérêt d'une telle simulation est de pouvoir développer un outil d'aide à la décision en matière de gestion des pratiques agricoles. Bien que les réseaux aient montré plus de difficulté à modéliser les MES que les N-NO3, ils ont réussi à approximer les signaux avec une précision suffisante pour le but poursuivi. Le deuxième objectif vise à vérifier si l'ajout de données de teneur en eau du sol améliore la prévision des débits et de comparer le gain apporté, à celui apporté par l'ajout d'un indice de teneur en eau. Les résultats montrent que la couche intermédiaire du sol apporte le gain de performance le plus important quoique l'indice de teneur en eau soit une alternative intéressante.
208

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
209

Analyse des problèmes incitatifs au sein des coopératives financières : modélisation et tests empiriques

Kaba, Léa 17 April 2018 (has links)
La présente étude a pour objectif d'analyser les problèmes incitatifs à l'intérieur des coopératives financières. Dans la première partie de l'étude, un modèle du comportement de la coopérative financière basé sur la relation principal-agent est présenté. Ce modèle inclut simultanément les dimensions d'aléa moral et d'antisélection. Il analyse la relation contractuelle entre un superviseur qui agit au nom des membres-propriétaires et un gestionnaire dont les intérêts ne sont pas toujours alignés avec ces derniers. Le contrat spécifie les règles de conduite optimales que doit respecter le gestionnaire, en vue de réduire les pertes d'efficience. Dans la deuxième partie de l'étude, des tests empiriques sont effectués. Deux hypothèses sont développées: l'hypothèse principale de coûts d'agence, dans laquelle nous testons l'impact de la variable des dépenses sur le levier financier et sur la probabilité de faillite de la coopérative. L'hypothèse secondaire nous permet de tester la présence d'une relation simultanée entre le levier financier et la probabilité de faillite, ainsi que l'influence d'autres facteurs sur ces deux variables. Les résultats obtenus suggèrent que les coûts d'agence semblent non présents au sein des coopératives financières qui composent notre échantillon. Par ailleurs, la relation simultanée entre le levier financier et la probabilité de faillite semble confirmée, et certaines variables de contrôle auraient une influence conforme aux anticipations faites.
210

Modélisation des interactions sol-outil de la charrue à versoirs avec la méthode des éléments finis

Plouffe, Carol 25 January 2020 (has links)
Des simulations ont été effectuées avec la méthode des éléments finis pour déterminer les effets de composantes et d'ajustements variables de la charrue à versoirs sur sa stabilité en profondeur. Les forces sur l'outil et les contraintes dans une argile Sainte-Rosalie ont été calculées en 3-D avec les modèles constitutifs du sol Cam clay et de friction Coulombien. La largeur du soc (W), le coefficient de friction (p) de la surface et la pointe ont davantage influencé la stabilité. En effet, la force verticale spécifique décroissait avec une augmentation de W. De plus, l'effet bénéfique de la pointe sur le soc était plus dominant à faible profondeur pour initier la pénétration du versoir. Une diminution de p a engendré des variations bénéfiques des forces longitudinale et verticale sur le versoir et des contraintes dans le sol. Bref, il serait recommandé de concevoir un versoir ayant un faible déportement latéral, une surface avec un p minimal et une pointe sur le soc pour améliorer la stabilité de la charrue. / Québec Université Laval, Bibliothèque 2020

Page generated in 0.0864 seconds