• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 15
  • 5
  • Tagged with
  • 76
  • 31
  • 28
  • 17
  • 17
  • 14
  • 13
  • 11
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Décodage neuronal dans le système auditif central à l'aide d'un modèle bilinéaire généralisé et de représentations spectro-temporelles bio-inspirées / Neural decoding in the central auditory system using bio-inspired spectro-temporal representations and a generalized bilinear model

Siahpoush, Shadi January 2015 (has links)
Résumé : Dans ce projet, un décodage neuronal bayésien est effectué sur le colliculus inférieur du cochon d'Inde. Premièrement, On lit les potentiels évoqués grâce aux électrodes et ensuite on en déduit les potentiels d'actions à l'aide de technique de classification des décharges des neurones. Ensuite, un modèle linéaire généralisé (GLM) est entraîné en associant un stimulus acoustique en même temps que les mesures de potentiel qui sont effectuées. Enfin, nous faisons le décodage neuronal de l'activité des neurones en utilisant une méthode d'estimation statistique par maximum à posteriori afin de reconstituer la représentation spectro-temporelle du signal acoustique qui correspond au stimulus acoustique. Dans ce projet, nous étudions l'impact de différents modèles de codage neuronal ainsi que de différentes représentations spectro-temporelles (qu'elles sont supposé représenter le stimulus acoustique équivalent) sur la précision du décodage bayésien de l'activité neuronale enregistrée par le système auditif central. En fait, le modèle va associer une représentation spectro-temporelle équivalente au stimulus acoustique à partir des mesures faites dans le cerveau. Deux modèles de codage sont comparés: un GLM et un modèle bilinéaire généralisé (GBM), chacun avec trois différentes représentations spectro-temporelles des stimuli d'entrée soit un spectrogramme ainsi que deux représentations bio-inspirées: un banc de filtres gammatones et un spikegramme. Les paramètres des GLM et GBM, soit le champ récepteur spectro-temporel, le filtre post décharge et l'entrée non linéaire (seulement pour le GBM) sont adaptés en utilisant un algorithme d'optimisation par maximum de vraisemblance (ML). Le rapport signal sur bruit entre la représentation reconstruite et la représentation originale est utilisé pour évaluer le décodage, c'est-à-dire la précision de la reconstruction. Nous montrons expérimentalement que la précision de la reconstruction est meilleure avec une représentation par spikegramme qu'avec une représentation par spectrogramme et, en outre, que l'utilisation d'un GBM au lieu d'un GLM augmente la précision de la reconstruction. En fait, nos résultats montrent que le rapport signal à bruit de la reconstruction d'un spikegramme avec le modèle GBM est supérieur de 3.3 dB au rapport signal à bruit de la reconstruction d'un spectrogramme avec le modèle GLM. / Abstract : In this project, Bayesian neural decoding is performed on the neural activity recorded from the inferior colliculus of the guinea pig following the presentation of a vocalization. In particular, we study the impact of different encoding models on the accuracy of reconstruction of different spectro-temporal representations of the input stimulus. First voltages recorded from the inferior colliculus of the guinea pig are read and the spike trains are obtained. Then, we fit an encoding model to the stimulus and associated spike trains. Finally, we do neural decoding on the pairs of stimuli and neural activities using the maximum a posteriori optimization method to obtain the reconstructed spectro-temporal representation of the signal. Two encoding models, a generalized linear model (GLM) and a generalized bilinear model (GBM), are compared along with three different spectro-temporal representations of the input stimuli: a spectrogram and two bio-inspired representations, i.e. a gammatone filter bank (GFB) and a spikegram. The parameters of the GLM and GBM including spectro-temporal receptive field, post spike filter and input non linearity (only for the GBM) are fitted using the maximum likelihood optimization (ML) algorithm. Signal to noise ratios between the reconstructed and original representations are used to evaluate the decoding, or reconstruction accuracy. We experimentally show that the reconstruction accuracy is better with the spikegram representation than with the spectrogram and GFB representation. Furthermore, using a GBM instead of a GLM significantly increases the reconstruction accuracy. In fact, our results show that the spikegram reconstruction accuracy with a GBM fitting yields an SNR that is 3.3 dB better than when using the standard decoding approach of reconstructing a spectrogram with GLM fitting.
42

L’arbre de régression multivariable et les modèles linéaires généralisés revisités : applications à l’étude de la diversité bêta et à l’estimation de la biomasse d’arbres tropicaux

Ouellette, Marie-Hélène 04 1900 (has links)
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres. / In ecology, in ecosystem services studies for example, descriptive, explanatory and predictive modelling all have relevance in different situations. Precise circumstances may require one or the other type of modelling; it is important to choose the method properly to insure that the final model fits the study’s goal. In this thesis, we first explore the explanatory power of the multivariate regression tree (MRT). This modelling technique is based on a recursive bipartitionning algorithm. The tree is fully grown by successive bipartitions and then it is pruned by resampling in order to reveal the tree providing the best predictions. This asymmetric analysis of two tables produces homogeneous groups in terms of the response that are constrained by splitting levels in the values of some of the most important explanatory variables. We show that to calculate the explanatory power of an MRT, an appropriate adjusted coefficient of determination must include an estimation of the degrees of freedom of the MRT model through an algorithm. This estimation of the population coefficient of determination is practically unbiased. Since MRT is based upon discontinuity premises whereas canonical redundancy analysis (RDA) models continuous linear gradients, the comparison of their explanatory powers enables one to distinguish between those two patterns of species distributions along the explanatory variables. The extensive use of RDA for the study of beta diversity motivated the comparison between its explanatory power and that of MRT. In an explanatory perspective again, we define a new procedure called a cascade of multivariate regression trees (CMRT). This procedure provides the possibility of computing an MRT model where an order is imposed to nested explanatory hypotheses. CMRT provides a framework to study the exclusive effect of a main and a subordinate set of explanatory variables by calculating their explanatory powers. The interpretation of the final model is done as in nested MANOVA. New information may arise from this analysis about the relationship between the response and the explanatory variables, for example interaction effects between the two explanatory data sets that were not evidenced by the usual MRT model. On the other hand, we study the predictive power of generalized linear models (GLM) to predict individual tropical tree biomass as a function of allometric shape variables. Particularly, we examine the capacity of gaussian and gamma error structures to provide the most precise predictions. We show that for a particular species, gamma error structure is superior in terms of predictive power. This study is part of a practical framework; it is meant to be used as a tool for managers who need to precisely estimate the amount of carbon recaptured by tropical tree plantations. Our conclusions could be integrated within a program of carbon emission reduction by land use changes.
43

Modélisation et résolution de problèmes généralisés de tournées de véhicules / Modeling and solving the generalized routing problems

Ha, Minh Hoang 14 December 2012 (has links)
Le problème de tournées de véhicules est un des problèmes d’optimisation combinatoire les plus connus et les plus difficiles. Il s’agit de déterminer les tournées optimales pour une flotte de véhicules afin de servir un ensemble donné de clients. Dans les problèmes classiques de transport, chaque client est normalement servi à partir d’un seul nœud (ou arc). Pour cela, on définit toujours un ensemble donné de nœuds (ou arcs) obligatoires à visiter ou traverser, et on recherche la solution à partir de cet ensemble de nœuds (ou arcs). Mais dans plusieurs applications réelles où un client peut être servi à partir de plus d’un nœud, (ou arc), les problèmes généralisés qui en résultent sont plus complexes. Le but principal de cette thèse est d’étudier trois problèmes généralisés de tournées de véhicules. Le premier problème de la tournée sur arcs suffisamment proche (CEARP), comporte une application réelle intéressante en routage pour le relevé des compteurs à distance ; les deux autres problèmes, problème de tournées couvrantes multi-véhicules (mCTP) et problème généralisé de tournées sur nœuds (GVRP), permettent de modéliser des problèmes de conception des réseaux de transport à deux niveaux. Pour résoudre ces problèmes, nous proposons une approche exacte ainsi que des métaheuristiques. Pour développer la méthode exacte, nous formulons chaque problème comme un programme mathématique, puis nous construisons des algorithmes de type branchement et coupes. Les métaheuristiques sont basées sur le ELS (ou Evolutionary Local Search) et sur le GRASP (ou Greedy Randomized Adaptive Search Procedure). De nombreuses expérimentations montrent la performance de nos méthodes. / The Routing Problem is one of the most popular and challenging combinatorial optimization problems. It involves finding the optimal set of routes for fleet of vehicles in order to serve a given set of customers. In the classic transportation problems, each customer is normally served by only one node (or arc). Therefore, there is always a given set of required nodes (or arcs) that have to be visited or traversed, and we just need to find the solution from this set of nodes (or arcs). But in many real applications where a customer can be served by from more than one node (or arc), the generalized resulting problems are more complex. The primary goal of this thesis is to study three generalized routing problems. The first one, the Close-Enough Arc Routing Problem(CEARP), has an interesting real-life application to routing for meter reading while the others two, the multi-vehicle Covering Tour Problem (mCTP) and the Generalized Vehicle Routing Problem(GVRP), can model problems concerned with the design of bilevel transportation networks. The problems are solved by exact methods as well as metaheuristics. To develop exact methods, we formulate each problem as a mathematical program, and then develop branch-and-cut algorithms. The metaheuristics are based on the evolutionary local search (ELS) method et on the greedy randomized adaptive search procedure (GRASP) method. The extensive computational experiments show the performance of our methods.
44

Modélisation multi-échelle des matériaux viscoélastiques hétérogènes : application à l'identification et à l'estimation du fluage propre de bétons d'enceintes de centrales nucléaires / Multiscale modeling of viscoelastic heterogeneous materials : application to the identification and estimation of the basic creep of concrete of containment vessels of nuclear power plants

Le, Quoc Viet 15 January 2008 (has links)
Le béton se présente comme un matériau constitué de granulats, jouant le rôle d'inclusions, enchâssés dans une matrice correspondant à la pâte de ciment hydraté. A l'échelle de la pâte, l'hydratation du ciment génère un milieu multiphasique, constitué d'un squelette solide et de pores remplis ou partiellement remplis d'eau selon leur taille. Le composant principal du squelette solide est le gel de C-S-H, les autres composants étant de nature cristalline. La qualification de gel du composant C-S-H est liée à sa nanostructure dont la schématisation la plus admise consiste en une phase aqueuse adsorbée, en sandwich avec des feuillets solides de nature cristalline. Il est bien admis que la structure du C-S-H est à l'origine de son comportement viscoélastique et donc de celui du béton. Ce comportement viscoélastique peut s'expliquer par un réarrangement de sa nanostructure sous l'effet des contraintes mécaniques appliquées à l'échelle macroscopique. La modélisation macroscopique du fluage du béton ne permet pas d'expliquer la variabilité du fluage d'une formulation de béton à une autre. En effet, les paramètres des modèles macroscopiques ne peuvent être identifiés que par l'analyse de résultats expérimentaux obtenus par des essais réalisés sur des éprouvettes de béton. Ces paramètres ne sont valables que pour une formulation donnée. L'identification de ces paramètres conduit donc à des programmes expérimentaux très coûteux et ne fournit pas suffisamment d'informations sur la sensibilité des paramètres macroscopiques à la variabilité des caractéristiques mécaniques et morphologies des constituants. Dans ce travail, on suppose qu'il existe une échelle microscopique à laquelle les mécanismes moteurs du fluage ne sont pas impactés par la formulation du béton. A cette échelle, celle du C-S-H, les propriétés viscoélastiques peuvent être considérées avoir un caractère intrinsèque. L'influence de la formulation ne concerne alors que les concentrations des différents hydrates. Trois approches, analytiques, semi-analytiques et numériques sont alors proposées pour estimer, par une homogénéisation multi-échelle, les propriétés viscoélastiques macroscopiques du béton à partir des propriétés de ses constituants ainsi qu'à partir de sa microstructure. Ces approches sont basées sur l'extension des schémas d'homogénéisation élastique au cas viscoélastique au moyen du principe de correspondance qui utilise la transformée de Laplace-Carson. Les propriétés effectives sont alors déterminées directement dans l'espace de Carson. Par la suite, celles dans l'espace temporel sont obtenues par la transformée inverse. Les approches proposées apportent des solutions aussi bien dans un cadre général que sous certaines hypothèses restrictives : coefficient de Poisson viscoélastique microscopique ou macroscopique constant, module de compressibilité constant. Sur le plan théorique, deux schémas d'homogénéisation ont été étudiés : le schéma de Mori-Tanaka, basé sur le problème de l'inclusion d'Eshelby, et le schéma auto-cohérente généralisé basé sur la neutralité énergique de l'inclusion. Les résultats obtenus montrent que sous ces hypothèses restrictives, le spectre macroscopique se présente comme une famille de sous ensembles de temps caractéristiques bornés par les temps caractéristiques microscopiques. Par ailleurs, les propriétés thermodynamiques, de croissance monotone et de concavité, des fonctions de retard macroscopiques ne sont préservées par l'homogénéisation que sous certaines conditions de compatibilité des spectres microscopiques. Sur le plan pratique, les méthodes développées ont été appliquées pour construire la complaisance de fluage propre macroscopique du béton en connaissant les données communes de toutes sortes de bétons et celles correspondant à une formulation donnée. Les résultats expérimentaux disponibles sont alors exploités pour analyser le caractère intrinsèque des propriétés viscoélastiques à l'origine du fluage du béton / Concrete can be considered as a multiscale heterogeneous material in which elastic inclusions, i.e., aggregates, are embedded in a viscoelastic matrix which corresponds to the hardened cement paste. At the cement paste scale, the hydration process leads to a partially saturated porous multiphase medium whose solid skeleton is mainly constituted of the C-S-H gel, the other hydrates being crystalline solids. The gel-like properties of the C-S-H are essentially related to the existence of strongly adsorbed structural water in the interlayer nanospace. It is well admitted that this feature is the microscopic origin of the creep mechanism of C-S-H and therefore of concrete at the macroscale. This viscoelastic behavior can be explained by a rearrangement of the nanostructure of the C-S-H component due to a macroscopically applied loading. Therefore, the macroscopic modeling of concrete creep does not allow explaining the variability of creep with respect to the concrete mix. Indeed, the identi?cation of the viscoelastic parameters of macroscopic models requires performing creep tests at the concrete scale. Thus, the validity of the identi?ed parameters is limited to the concrete mix under consideration and the identi?cation process does not permit to carry out the influence of the microstructure and the mechanical constituent properties on the macroscopic creep. In this work, we assume that there exists a microscopic scale at which the driving creep mechanisms are not affected by the concrete mix. At this scale, the C-S-H one, the viscoelastic properties can be considered to be intrinsic. The concrete mix will essentially influence the volume fraction of the hydrates. Analytical, semi-analytical and numerical approaches are developed in order to derive, by multi-scale homogenization, the macroscopic viscoelastic properties of concrete on the basis of the knowledge of the microscopic properties, of the constituents together with the knowledge of the mix-dependent microstructure. These approaches consist in extending results of elastic homogenization schemes to viscoelasticity with the help of the correspondence principle using the Laplace-Carson transform. Therefore, the effective properties are obtained in a straightforward manner in the Carson transform space, which requires the transform inversion in order to determine the time evolution of these properties. The proposed models permit to answer to this requirement, both under some restrictive assumptions (constant Poisson's ratio at either microscopic or macroscopic scale, constant bulk microscopic modulus) and in a general way. At the theoretical level, two homogenization schemes are investigated : the Mori-Tanaka scheme based on the Eshelby solution and the Generalized Self Consistent scheme, based on the energetic neutrality condition of the inclusion. The obtained results show that under the aforementioned restrictive conditions, the macroscopic creep spectrum presents as a family of sets of retardation times which are bounded by two successive microscopic characteristic times. Furthermore, the monotonically increasing and concavity features of the macroscopic creep compliance, which derive from thermodynamic considerations, are not always preserved, except if some compatibility conditions are ful?lled by the microscopic spectrums. From the practical point of view, these methods developed are used to establish the complaisance creep function of concrete from the knowledge of the common data of all types of concrete, as well as the other parameters that characterize a given formulation. Hence, by a back-analysis of creep tests obtained on cement paste or on concrete, the intrinsic basic creep properties of the gel C-S-H are estimated
45

Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse.

Kudawoo, Ayaovi Dzifa 22 November 2012 (has links)
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés.Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de « Lagrangien stabilisé » initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de « Lagrangien augmenté ». Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée. / This work deals with computational contact mechanics between deformable solids. The aim of this work is to improve the performance, the reliability and the robustness of the algorithms and numerical models set in Code_Aster which is finite element code developped by Électricité De France (EDF) for its engineering needs. The proposed algorithms are used to solve high dimensional industrial problems in order to optimize the computational running times. Several solutions techniques are available in the field of computational contact mechanics but they must take into account the difficulties coming from non-smooth aspects due to Signorini-Coulomb laws coupled to large deformations of bodies and material non linearities. Firstly the augmented Lagrangian formulation so-called « stabilized Lagrangian » is introduced. Successively, the mathematical properties of the discrete operators are highlighted and furthermore a novel energetic function is presented. Secondly the kinematical condition with regard to the normal unknowns are reinforced through unconstrained optimization techniques which result to a novel formulation which is so-called « non standard augmented Lagrangian formulation ». Three types of strategies are implemented in the code. The generalized Newton method is developped : it is a method in which all the non linearities are solved in one loop of iterations. The partial Newton method is an hybrid technique between the generalized Newton one and a fixed point method.
46

Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance

Dutang, Christophe 31 May 2012 (has links)
L’actuariat non-vie étudie les différents aspects quantitatifs de l’activité d’assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l’assuré, l’assureur et le marché, sur un marché d’assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l’assuré de renouveler ou non son contrat d’assurance avec son assureur actuel. La nécessitéd’un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d’un assureur contre le marché. Partant d’un modèle de marché à une période, un jeu d’assureurs est formulé, où l’existence et l’unicité de l’équilibre de Nash sont vérifiées. Les propriétés des primes d’équilibre sont étudiées pour mieux comprendre les facteurs clés d’une position dominante d’un assureur par rapport aux autres. Ensuite, l’intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d’être ruiné, de rester leader, de disparaître du jeu par manque d’assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d’équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d’optimisation pour la résolution des n sous-problèmes d’optimisation. Cette résolution sefait à l’aide d’une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d’équilibre de Nash généralisé. Ces équations nécessitent l’utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d’optimisation.Une étude de convergence et une comparaison des méthodes d’optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l’assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d’attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l’analyse structure de dépendance permet dequantifier l’écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète. / In non-life actuarial mathematics, different quantitative aspects of insurance activity are studied.This thesis aims at explaining interactions among economic agents, namely the insured,the insurer and the market, under different perspectives. Chapter 1 emphasizes how essentialthe market premium is in the customer decision to lapse or to renew with the same insurer.The relevance of a market model is established.In chapter 2, we address this issue by using noncooperative game theory to model competition.In the current literature, most competition models are reduced to an optimisationof premium volume based on the simplistic picture of an insurer against the market. Startingwith a one-period model, a game of insurers is formulated, where the existence and uniquenessof a Nash equilibrium are verified. The properties of premium equilibria are examinedto better understand the key factors of leadership positions over other insurers. Then, thederivation of a dynamic framework from the one-period game is done by repeating of theone-shot game over several periods. A Monte-Carlo approach is used to assess the probabilityof being insolvent, staying a leader, or disappearing of the insurance game. This gives furtherinsights on the presence of non-life insurance market cycles.A survey of computational methods of a Nash equilibrium under constraints is conductedin Chapter 3. Such generalized Nash equilibrium of n players is carried out by solving asemismooth equation based on a Karush-Kuhn-Tucker reformulation of the generalized Nashequilibrium problem. Solving semismooth equations requires using the generalized Jacobianfor locally Lipschitzian function. Convergence study and method comparison are carried out.Finally, in Chapter 4, we focus on ruin probability computation, another fundemantalpoint of non-life insurance. In this chapter, a risk model with dependence among claimseverity or claim waiting times is studied. Asymptotics of infinite-time ruin probabilitiesare obtained in a wide class of risk models with dependence among claims. Furthermore,we obtain new explicit formulas for ruin probability in discrete-time. In this discrete-timeframework, dependence structure analysis allows us to quantify the maximal distance betweenjoint distribution functions of claim severity between the continuous-time and the discrete
47

Modélisation de la dynamique saisonnière des éclosions d' Aedes (ochlerotatus) caspius (Pallas, 1771) (culicidae) dans un contexte de changement climatique

Roumieux, Camille 11 July 2012 (has links)
Ce travail de thèse étudie l'évolution des éclosions d'Aedes (Ochlerotatus) caspius (Pallas, 1771) (Culicidae) sur le littoral méditerranéen français dans un contexte de changement climatique. Aedes caspius est un moustique nuisant se développant dans les milieux naturels salés à submersions temporaires dont le cycle de vie est réglé par un nombre de paramètres environnementaux relativement limités. Nous avons tenté de mieux cerner les déterminants des dynamiques temporelles actuelle et future des éclosions d'Aedes caspius. L'étude de l'aire de répartition d'Aedes caspius à l'échelle du bassin méditerranéen a conduit à définir une enveloppe bioclimatique actuelle et future. L'ensemble des anomalies climatiques telles que envisagées par les scenarii A2 et B2 du GIEC (horizons 2020, 2050 et 2080) entraîne un élargissement de l'enveloppe bioclimatique vers le nord et l'ouest de la France, et potentiellement une extension de la zone d'intervention de l'Entente Interdépartementale pour la Démoustication Méditerranée (EID), sans toutefois exclure les zones humides actuellement démoustiquées. La dynamique temporelle a donc pu être étudiée à partir de la base de données des interventions quotidiennes de l'EID, sur la période 2004-2009. A cette échelle locale (3 105 ha) et tenant compte de la variabilité météorologique inter- et intra-annuelle sur la période, un modèle logistique binaire d'occurrences d'éclosion a été développé. / This thesis studies the evolution of hatching of Aedes (Ochlerotatus) caspius (Pallas, 1771) (Culicidae) on the French Mediterranean coast in the context of climate change. Aedes caspius is a nuisance mosquito in natural salt to temporary submersion wetlands whose life cycle is regulated by a number of environmental parameters relatively limited. We tried to understand the determinants of temporal dynamics of current and future hatching of Aedes caspius. The study of the distribution area of Aedes caspius across the Mediterranean basin has led to the definition of present and future bioclimatic envelopes. The set of climatic anomalies such as envisaged by the scenarios A2 and B2 of the Intergovernmental Panel on Climate Change (IPCC) (period 2020, 2050 and 2080) leads to an enlargement of the bioclimatic envelope to the north and west of France, and the potential extension of the present day intervention area of the Entente Interdépartementale pour la Démoustication Méditerranée (Interdepartmental Agreement for Mosquito Control Mediterranean (EID)). The temporal dynamics has been studied from the database of daily interventions of EID, over the period 2004-2009. At this local scale (3105 ha) and taking into account inter-and intra-annual meteorological variability, a binary logistic model of occurrences of daily outbreaks has been developed. The resulting model reports that the type of land use, minimum temperature, photoperiod, temperature amplitude and to a lesser extent precipitation and their variability are the main factors explaining the presence of Aedes caspius outbreaks.
48

Profilométrie optique par méthodes inverses de diffraction électromagnétique

Arhab, Slimane 02 October 2012 (has links)
La profilométrie optique est une technique de métrologie de surface rapide et non destructive. Dans ce mémoire, nous avons abordé cette problématique par des méthodes inverses de diffraction électromagnétique et dans une configuration de type Microscopie Tomographique Optique par Diffraction (ODTM). La surface est sondée par un éclairement sous plusieurs angles d'incidences ; la mesure en amplitude et en phase du champ lointain diffracté constitue les données du problème. Des profils de surfaces ont été reconstruits en considérant différents modèles de diffraction, parmi lesquelles une méthode approchée fondée sur les approximations de diffusion simple et de paraxialité. La résolution latérale de cette méthode et des techniques classiques de profilométrie est limitée par le critère d'Abbe-Rayleigh, défini sur la base de l'ouverture numérique pour l'éclairement et la détection du champ. Afin de dépasser cette limite de résolution, nous avons développé une méthode itérative de Newton-Kantorovitch régularisée. L'opérateur de diffraction y est rigoureusement modélisé par une méthode des moments, résolution numérique des équations du formalisme intégral de frontière, et l'expression de la dérivée de Fréchet de cet opérateur est obtenue par la méthode des états adjoints, à partir du théorème de réciprocité. Pour les surfaces unidimensionnelles métalliques, notre technique permet d'inverser à partir de données synthétiques des surfaces très rugueuses avec une résolution au delà du critère d'Abbe-Rayleigh. / Optical profilometry is a nondestructive and fast noncontact surface metrology technique. In this thesis, we have tackled this issue with inverse scattering electromagnetic methods and in an Optical Digital Tomographic Microscopy (ODTM) configuration. The surface is probed with illuminations under several incidence angles; the measure of far scattered field amplitude and phase constitutes the problem data. Surface profiles have been reconstructed using different scattering models among which an approximate theory based on single scattering and paraxiality. The lateral resolution of this technique and classical profilometric approaches is limited by the so-called Abbe-Rayleigh's criterion defined out of the numerical aperture for illumination and field detection. In order to overpass this resolution limit, we have developed a regularized iterative Newton-Kantorovitch's method. The scattering operator is rigorously modelized with the method of moments, that is a numerical solution of boundary integral equations, and its Fréchet derivative adjoint states expression is deduced from the reciprocity theorem. For one-dimensional metallic surfaces, our method succeeds in inverting from synthetic data very rough surfaces with the resolutions beyond the Abbe-Rayleigh's criterion. The performance of this technique and inversion conditions clearly differ from one polarization to the other : in the TM case, interactions at longer distance than in the TE case improve yet the resolution. This work includes also an experimental validation of our inverse model on grooves in indium phosphure substrate at 633 nm.
49

Contribution à l'étude de micro-réseaux autonomes alimentés par des sources photovoltaïques / Contribution to the study of autonomous micro-grid systems supplied by photovoltaic sources

Houari, Azeddine 07 December 2012 (has links)
L'orientation énergétique actuelle vers le développement de systèmes électriques isolés, s'est traduit par l'établissement de nouvelles directives sur les performances et la fiabilité des structures de puissance mises en oeuvre, en particulier ceux à base d'énergies renouvelables. C'est dans ce contexte que s'inscrivent ces travaux de thèse, qui aboutissent à l'élaboration de nouveaux outils destinés à l'amélioration de la qualité d'énergie et de la stabilité d'un micro-réseau autonome. Concernant l'optimisation énergétique des interfaces de conversion pour un réseau autonome, nous avons développé de nouveaux algorithmes de commande basés sur le concept de platitude des systèmes différentiels. L'avantage de cette technique réside dans la possibilité d'implémentation de régulateurs à une boucle. Cela garantit des propriétés dynamiques élevées en asservissement et en régulation. De plus, une prédiction exacte de l'évolution des variables d'états du système est possible. Concernant la stabilité des micro-réseaux autonomes, nous avons proposé des outils pour traiter les phénomènes d'instabilités, causés notamment par la perte d'informations de charges et par le phénomène de résonance des filtres d'interconnexion / The actual electrical energy demand focuses on the development of stand-alone electrical systems which leads to the definition of new directives on performances and reliability of the electrical structures, especially those based on renewable energy. The main objective of this work concerns the development of new tools to improve the power quality and the stability of autonomous micro-grid systems. In this aim, new control algorithms based on the concept of differential flatness have been developed. The main advantage of the proposed technique is the possibility of implementing one loop controllers ensuring high dynamic properties. In the same time, it allows accurate prediction of the evolution of all state variables of the system. Concerning the stability of the autonomous micro-grid systems, we proposed tools to deal with instability phenomena either caused by the loss of load information and the resonance phenomenon of the passive filters
50

Étude expérimentale et modélisation micromécanique du comportement de composites hybrides : optimisation de la conductivité thermique / Experimental characterization and micromechanical modelling of the behavior of hybrid composite : optimization of the thermal conductivity

Jeancolas, Antoine 20 November 2018 (has links)
L’augmentation de la puissance électrique des composants électroniques pose le problème de la dissipation de la chaleur générée. Les boîtiers électriques doivent permettre la dissipation de cette chaleur en conservant une isolation électrique. La solution retenue pour évacuer la chaleur par transfert thermique consiste en matériaux composites dont les renforts par leur structuration vont améliorer la conductivité thermique. Des composites à matrice polymère ont été choisis pour leur aptitude de mise en forme. La conductivité thermique et l’isolation électrique sont assurées par des charges céramiques. Les méthodes d’homogénéisation donnent des pistes d’amélioration du comportement de composites en fonction des propriétés de leurs constituants, de leur géométrie et de leur distribution. Elles fournissent ainsi une formulation optimisée de matériaux répondant à certaines caractéristiques issues de cahiers des charges émanant du partenaire industriel (Institut de Soudure). La conductivité thermique attendue des composites impose une forte fraction volumique de charges pour compenser le caractère isolant de la matrice polymère. Des méthodes d’homogénéisation ont été développées pour prédire la conductivité thermique effective pour de forts taux de charges (supérieur à 20%) et des contrastes élevés de conductivité thermique. La présence d’une interphase provenant d’incompatibilités fortes entre les composants doit également être modélisée / The increase of electronic components in the integrated circuits and the required electrical power set the question of the dissipation of the heat generated. The electrical box must favor the heat dissipation while maintaining electrical insulation. The solution chosen to transfer the heat is to develop composite materials whose reinforcements by their structure will improve the thermal conductivity. Polymer-based composite materials were chosen for their building ability. Thermal conductivity and electrical insulation are insured by ceramic reinforcements. The homogenization methods allow to improve the composites’ design according to the properties of their constituents, their geometry and their distribution. They thus provide an optimized formulation of materials satisfying the characteristics emanating from the industrial partner (‘Institut de Soudure’). The expected thermal conductivity of the composites imposes a high volume fraction of reinforcements to counterbalance the insulating polymer matrix. Homogenization methods have been developed to provide predictions of effective thermal conductivity for high (greater than 20%) reinforcement rates and high thermal conductivity contrasts. The presence of an interphase resulting from strong physico-chemical incompatibilities between the components must also be modeled

Page generated in 0.0678 seconds