• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Sur la propriété classement et dynamique sous-jacente des systèmes complexes

Deng, Weibing 21 June 2013 (has links) (PDF)
Des procédures de classement sont largement utilisées pour décrire les phénomènes observés dans de nombreux domaines des sciences sociales et naturelles, par exemple la sociologie, l'économie, la linguistique, la démographie, la physique, la biologie, etc.Dans cette thèse, nous nous sommes attachés à l'étude des propriétés de classement et des dynamiques sous-jacentes intégrées dans les systèmes complexes. En particulier,nous nous sommes concentrés sur les classements par score ou par prix dans les systèmes sportifs et les classements d'utilisation des mots ou caractères dans les langues humaines. Le but est de comprendre les mécanismes sous-jacents à ces questions en utilisant les méthodes de la physique statistique, de la statistique bayésienne et de la modélisation multi-agents. Les résultats concrets concernent les aspects suivants.Nous avons tout d'abord traité une étude sur les classements par score/prix dans les systèmes sportifs et analysé 40 échantillons de données dans 12 disciplines sportives différentes. Nous avons trouvé des similitudes frappantes dans différents sports, à savoir le fait que la répartition des résultats/prix suit les lois puissance universelles.Nous avons également montré que le principe de Pareto est largement respecté dans de nombreux systèmes sociaux: ainsi 20% des joueurs accumulent 80% des scores et de l'argent. Les données concernant les matchs de tennis en individuels nous ont révélé que lorsque deux joueurs s'affrontent, la probabilité que le joueur de rang supérieur gagne est liée à la différence de rang des deux adversaires. Afin de comprendre les origines de la mise à l'échelle universelle, nous avons proposé un modèle multi-agents,qui peut simuler les matchs de joueurs à travers différentes compétitions. Les résultats de nos simulations sont cohérents avec les résultats empiriques. L'extension du domaine d'étude de la simulation indique que le modèle est assez robuste par rapport aux modifications de certains paramètres. La loi de Zipf est le comportement le plus régulièrement observé dans la linguistique statistique. Elle a dès lors servi de prototype pour les relations entre rang d'apparitions et fréquence d'apparitions (relations rang-fréquence dans la suite du texte) et les lois d'échelle dans les sciences naturelles. Nous avons étudié plusieurs textes, précisé le domaine de validité de la loi de Zipf, et trouvé que la plage de validité augmente lors du mélange de différents textes. Basé sur l'analyse sémantique latente, nous avons proposé un modèle probabiliste, dans lequel nous avons supposé que les mots sont ajoutés au texte avec des probabilités aléatoires, tandis que leur densité a priori est liée, via la statistique bayésienne, aux caractéristiques générales du lexique mental de l'auteur de ce même texte. Notre modèle explique la loi de Zipf ainsi que ses limites de validité, et la généralise aux hautes et basses fréquences et au hapax legomena.Dans une autre étude, nous avons précisé les relations rang-fréquence pour les caractères chinois. Nous avons choisi d'étudier des textes courts en premier, car pour le bien de l'analyse rang fréquence, les longs textes ne sont que des mélanges de textes plus courts, thématiquement homogènes. Nos résultats ont montré que la loi de Zipf appliqués aux caractères chinois tient parfaitement pour des textes assez courts (quelques milliers de caractères différents). Le même domaine de validité est observé pour les textes courts anglais. Nous avons soutenu que les longs textes chinois montrent une structure hiérarchique à deux couches: des caractères dont la fréquence d'apparition suit une loi puissance (première couche) et des caractères dont l'apparition suit une loi exponentielle (deuxième couche)...
92

Evaluation probabiliste du risque lié à l'exposition à des aflatoxines et des fumonisines dû à la consommation de tortillas de maïs à la ville de Veracruz / Evaluación probabilistica de riesgo por exposición a aflatoxinas y fumonisinas por consumo de tortillas en la ciudad de Veracruz / Probabilistic risk assessment for aflatoxins and fumonisins exposition through the consumption of maize tortillas in Veracruz City, Mexico

Wall Martinez, Hiram Alejandro 20 October 2016 (has links)
Un des dangers chimiques les plus importants relevés par l'OMS concerne la contamination des céréales par les mycotoxines et notamment les aflatoxines et les fumonisines. La réglementation recommande des contaminations maximales d'aflatoxines dans les céréales inférieures à 20 mg/kg ; cependant on relève couramment des taux supérieurs à 200 mg/kg dans le maïs au Mexique. Bien qu'il ait été évalué que le processus de nixtamalisation détruit plus de 90 % des fumonisines et de 80 à 95 % des aflatoxines, le taux résiduel peut encore être élevé : certaines publications rapportent des concentrations jusqu'à 100 mg/kg dans les tortillas, ce qui représente un risque avéré vue la grande consommation de tortillas au Mexique (325g/j). Le JECFA (2001) a établi une dose maximale acceptable de 2μg/kg pc/j pour la fumonisine et recommande de réduire l'exposition aux aflatoxines au plus faible niveau possible en considérant que le seuil de 1 ng/kg pc/j ne devrait pas être atteint. Au cours de cette thèse 3 enquêtes aléatoires et représentatives ont été menées dans 40 tortillerias de la ville de Veracruz. La consommation de maïs de la population a été évaluée à partir d'un questionnaire de consommation. L'analyse des mycotoxines a été réalisée par HPLC-FD par utilisation de colonnes à immunoaffinité selon la réglementation européenne (CIRAD-Montpellier). L'analyse des données obtenues a été effectuée selon une méthode probabiliste permettant de construire une fonction de distribution de probabilités à partir de la méthode de Monte Carlo (UBO). La représentativité de la population a été validée à partir d'évaluation de quotas de population après échantillonnage aléatoire initial. La contamination des tortillas a été mesurée à 0.54-1.96 mg/kg pour les aflatoxines et à 65-136 mg/kg pour les fumonisines. La consommation moyenne de tortillas a été mesurée à 148 g de maïs par jour. L'exposition de la population aux aflatoxines apparaît alors comprise entre 0,94 et 3,14 ng/kg pc/j et celle aux fumonisines entre 146 et 315 ng/kg pc/j. Les échantillons les plus contaminés proviennent des tortillerias réalisant elles-mêmes leur procédure de nixtamalisation. L'analyse des résultats montre que 60 % de la population de Veracruz serait à risque selon les préconisations du JECFA. L'exposition aux fumonisines atteint 5 % de la dose maximale acceptable, du fait d'une relativement faible contamination du maïs à cette mycotoxine. Les résultats montrent donc un risque sanitaire pour la population de la ville de Veracruz. Une extension de ce travail à la totalité de l’Etat de Veracruz, incluant la population rurale, devrait être menée du fait du risque probablement accru de cette dernière catégorie de population en lien avec sa plus forte consommation de maïs. / One of the chemical hazards that WHO has reported more frequently is cereals contamination with mycotoxins, mainly aflatoxins and fumonisins. NOM-188-SSA1-2002 establishes that aflatoxin concentration in grain should not exceed 20 mg kg-1 ; however, there are reported concentrations > 200 mg kg-1 in maize. Although it has been documented that nixtamalizacion removes more than 90% of fumonisins and between 80 and 95% of aflatoxins, the residual amount could be important, finding reports concentrations higher than 100 mg kg-1 of aflatoxin in tortilla, representing a risk due to the high consumption of tortillas in Mexico (325 g d-1). The JECFA (2001) establishes a maximum intake of 2 mg kg-1 pc d-1 for fumonisin and aflatoxin recommends reducing “as low as reasonably achievable” levels. 3 random and representative sampling in Veracruz city, each in 40 tortillerias, were made. Corn intake and weight of the population were estimated using a consumption questionnaire. Mycotoxins analysis were performed by HPLC-FD using immunoaffinity columns according to European standard UNE-EN ISO 14123 : 2008 for aflatoxins and UNE-EN 13585 : 2002 for fumonisin in the CIRAD (Montpellier, France). Statistical analysis were performed under a probabilistic approach in collaboration with the University of Bretagne Occidentale (Brest, France), building probability density function (PDF) and using the Monte Carlo method. PDF parameters of the weight of the population was 74.15kg for men (which coincides with reported by CANAIVE) and 65.83kg for women ; the pollution aflatoxin tortilla was 0.54 – 1.96mg kg-1 and fumonisin from 65.46 – 136.00mg kg-1 ; the tortilla consumption was 148.3g of corn per person per day ; the daily intake of aflatoxins was 0.94 – 3.14ng kg-1 bw d-1 and fumonisin of 146.24 – 314.99ng kg-1 bw d-1. Samples with higher aflatoxin contamination came from tortillerias that make the nixtamalization in situ. In assessing exposure it was found that up to 60% of the population could be consuming more than the recommended by JECFA (2001) for aflatoxin dose (1ng kg-1 bw d-1). Exposure to fumonisins intake was < 5% due to low contamination by these mycotoxins. The results suggest that the population of the city of Veracruz could be in food risk by eating contaminated corn tortillas AFT. It is advisable to extend this study in rural communities, where risk factors could increase.
93

Contributions à l'analyse de fiabilité structurale : prise en compte de contraintes de monotonie pour les modèles numériques / Contributions to structural reliability analysis : accounting for monotonicity constraints in numerical models

Moutoussamy, Vincent 13 November 2015 (has links)
Cette thèse se place dans le contexte de la fiabilité structurale associée à des modèles numériques représentant un phénomène physique. On considère que la fiabilité est représentée par des indicateurs qui prennent la forme d'une probabilité et d'un quantile. Les modèles numériques étudiés sont considérés déterministes et de type boîte-noire. La connaissance du phénomène physique modélisé permet néanmoins de faire des hypothèses de forme sur ce modèle. La prise en compte des propriétés de monotonie dans l'établissement des indicateurs de risques constitue l'originalité de ce travail de thèse. Le principal intérêt de cette hypothèse est de pouvoir contrôler de façon certaine ces indicateurs. Ce contrôle prend la forme de bornes obtenues par le choix d'un plan d'expériences approprié. Les travaux de cette thèse se concentrent sur deux thématiques associées à cette hypothèse de monotonie. La première est l'étude de ces bornes pour l'estimation de probabilité. L'influence de la dimension et du plan d'expériences utilisé sur la qualité de l'encadrement pouvant mener à la dégradation d'un composant ou d'une structure industrielle sont étudiées. La seconde est de tirer parti de l'information de ces bornes pour estimer au mieux une probabilité ou un quantile. Pour l'estimation de probabilité, l'objectif est d'améliorer les méthodes existantes spécifiques à l'estimation de probabilité sous des contraintes de monotonie. Les principales étapes d'estimation de probabilité ont ensuite été adaptées à l'encadrement et l'estimation d'un quantile. Ces méthodes ont ensuite été mises en pratique sur un cas industriel. / This thesis takes place in a structural reliability context which involves numerical model implementing a physical phenomenon. The reliability of an industrial component is summarised by two indicators of failure,a probability and a quantile. The studied numerical models are considered deterministic and black-box. Nonetheless, the knowledge of the studied physical phenomenon allows to make some hypothesis on this model. The original work of this thesis comes from considering monotonicity properties of the phenomenon for computing these indicators. The main interest of this hypothesis is to provide a sure control on these indicators. This control takes the form of bounds obtained by an appropriate design of numerical experiments. This thesis focuses on two themes associated to this monotonicity hypothesis. The first one is the study of these bounds for probability estimation. The influence of the dimension and the chosen design of experiments on the bounds are studied. The second one takes into account the information provided by these bounds to estimate as best as possible a probability or a quantile. For probability estimation, the aim is to improve the existing methods devoted to probability estimation under monotonicity constraints. The main steps built for probability estimation are then adapted to bound and estimate a quantile. These methods have then been applied on an industrial case.
94

Modèle probabiliste hérarchique de la locomotion bipède / Probabilistic hierarchical model of biped locomotion

Rose-Andrieux, Raphaël 09 December 2016 (has links)
Les robots humanoïdes ont toujours fasciné car leur potentiel d’application est considérable. En effet, si un robot avait les mêmes caractéristiques sensori-motrices et morphologiques qu’un homme, il pourrait théoriquement réaliser les mêmes tâches. Cependant, un premier obstacle au développement de ces robots est la stabilité d’une posture bipède. Lors d’une marche bipède, la marge d’erreur est très faible et les décisions doivent être prises rapidement avec une information souvent incomplète et incertaine. L’incertitude a de multiples sources comme des capteurs imparfaits, un modèle simplifié du monde ou encore une mécanique imprécise.Dans cette thèse, nous partons d’un contrôle de la marche par gestion des points d’appuis. L’idée est d’affiner le choix des points d’appuis en intégrant dans notre modèle les incertitudes que l’on vient d’évoquer. Pour cela, nous allons utiliser un modèle probabiliste Bayésien. A l’aide d’une distribution de probabilité, on peut exprimer simultanément une estimation, et l’incertitude associée à celle-ci. Le cadre théorique des probabilités Bayésiennes permet de définir les variables, et de les intégrer de manière rigoureuse dans un modèle global.Un autre avantage de ce modèle probabiliste est que notre objectif est aussi décrit sous la forme d’une distribution de probabilité. Il est donc possible de s’en servir pour exprimer à la fois un objectif déterministe, et une tolérance autour de celui-ci. Cela va nous permettre de fusionner facilement plusieurs objectifs et de les adapter automatiquement en fonction des contraintes extérieures. De plus, la sortie du modèle étant elle aussi une distribution de probabilité, ce type de modèle s’intègre parfaitement dans un cadre hiérarchique : l’entrée du modèle vient du niveau au-dessus et sa sortie est donnée en objectif niveau en dessous.Dans ce travail, nous allons d’abord explorer une technique de maintien de l’équilibre et la comparer aux résultats d’une expérience préliminaire sur l’homme. Nous allons ensuite étendre cette technique pour créer une stratégie de marche. Autour de cette stratégie, nous allons construire un modèle probabiliste Bayésien. Ce modèle sera finalement implémenté en simulation pour pouvoir quantifier son intérêt dans les différentes situations évoquées plus haut : intégration des incertitudes, fusion d’objectifs et hiérarchie. / Humanoid robots have always fascinated due to the vast possibilities they encompass.Indeed, a robot with the same sensorimotor features as a human could theoretically carry out the same tasks. However, a first obstacle in the development of these robots is the stability of a bipedal gait. Bipedal walkers are inherently unstable systems experiencing highly dynamic and uncertain situations. Uncertainty arises from many sources, including intrinsic limitations of a particular model of the world, the noise and perceptual limitations in a robot's sensor measurements, and the internal mechanical imperfection of the system.In this thesis, we focus on foot placement to control the position and velocity of the body's center of mass. We start from a deterministic strategy, and develop a probabilistic strategy around it that includes uncertainties. A probability distribution can express simultaneously an estimation of a variable, and the uncertainty associated. We use a Bayesian model to define relevant variables and integrate them in the global frame.Another benefit of this model is that our objective is also represented as a probability distribution. It can be used to express both a deterministic objective and the tolerance around it. Using this representation one can easily combine multiple objectives and adapt them to external constraints. Moreover, the output of the model is also a probabilistic distribution which fits well in a hierarchical context: the input comes from the level above and the output is given as objective to the lower level.In this work, we will review multiple ways to keep balance and compare them to the results of a preliminary experiment done with humans. We will then extend one strategy to walking using foot placement to keep balance. Finally, we will develop a probabilistic model around that strategy and test it in simulation to measure its benefits in different contexts : integrating uncertainties, fusing multiple objectives and hierarchy.
95

Nuevas herramientas para el estudio del enlace quimico en el espacio real : orbitales naturales adaptativos y dominios de probabilidad maxima / Nouveaux outils pour l'étude de la liaison chimique dans l'espace réel : orbitales naturelles adaptatives et domaines de probabilité maximale

Menendez San Francisco, Marcos 12 January 2015 (has links)
L'étude et analyse dans l'espace réel de la densité électronique en mettant l'accent sur la liaison chimique, se déroule grâce à deux nouveaux techniques: les domaines de probabilité maximale (MPDs) et les orbitales naturelles adaptatives (NAdOs). D'un côté, la méthode MPD permet l'optimisation d'une région de l'espace qui maximise la probabilité de trouver un nombre entier et exact d'électrons. Donc, un domaine de probabilité maximale est la région qui maximise cette probabilité. De cette manière on engendre une division de l'espace en régions avec un sens physique claire. Avec la méthode MPD, une connexion entre la mécanique quantique et la structure de Lewis classique est établie. Ainsi, les domaines obtenus peuvent être associés aux liaisons, paires libres et coeurs. De l'autre côté, les NAdOs récupèrent et généralisent le concept des "domain averaged Fermi holes" (DAFHs), introduit par R. Ponec. Le développement de les orbitales naturelles adaptatives est basé sur des objets largement connues comme matrices densité réduites. L'utilisation conjointe de ces matrices, en particulier leurs parties qui ne peuvent pas être exprimées en termes d'ordre inférieur (densités cumulantes) avec les divisions de l'espace réel, permet de définir une hiérarchie d'indices de liaison chimique entre plusieurs fragments de l'espace. En plus, l'étude de la corrélation électronique à travers de les NAdOs est facilement accessible. / The study and analysis of the electronic density in real space, in particular the chemical bond, is carried out through two new techniques: maximum probability domains (MPDs) and natural adaptive orbitals (NAdOs).On one hand, the MPD method allows for an optimization of a spatial region in order to maximize the probability of finding a given and exact number of electrons. Thus, a maximum probability domain is a region of space maximizing such probability. In this way, it is possible to generate a space partitioning in several regions with a clear physical interpretation.With the MPD method, a connection between Quantum Mechanics and the classical Lewis’ picture may be established. MPD regions may be associated to bonds, lone pairs and cores.On the other hand, NAdOs recover and generalize the domain averaged Fermi hole (DAFH) concept,introduced by R. Ponec. The development of natural adaptive orbitals is based on widely known objects, called reduced density matrices. The combination of theses matrices, especially withthose parts that can not be expressed in terms of lower order (cumulant densities) with divisions of the real space, allows to define a hierarchy of chemical bond indices between several fragments of space. In addition, the study of electronic correlation through NAdOs is easily accesible.
96

De l’inséparabilité quantique au holisme sémantique / From quantum inseparability to semantic holism

Osnaghi, Stefano 22 December 2014 (has links)
La thèse vise à montrer que la cohérence de l’interprétation instrumentaliste de la mécaniquequantique (sur laquelle les reconstructions logiques de la théorie, d’inspiration pragmatiste, s’appuient) ne peut pas être défendue sans remettre en cause la sémantique extensionnelle utilisée en logique classique. J’examine en particulier les arguments misen avant par Niels Bohr, en montrant que son analyse physique du processus de mesureest insuffisante pour assurer la cohérence de l’interprétation conditionnelle des probabilités quantiques qu’il adopte. Au lieu d’essayer de ‘compléter’ l’approche de Bohrpar un compte rendu plus exhaustif des processus physiques (telle la décohérence) quijouent un rôle dans l’observation, je suggère que le problème de la mesure découle d’unethéorie de la signification inadéquate. Je discute l’intérêt et les limites de la critiquebohrienne des présupposés représentationalistes inhérents à la description classique desphénomènes, et je conclus en formulant l’hypothèse que l’adoption d’une sémantiqueinférentialiste permettrait d’envisager à la fois la dissolution du problème de la mesureet la justification a priori des traits structuraux des probabilités quantiques (comme étantl’expression des relations conceptuelles présupposées par tout langage qui doit incluredes énoncés objectifs). / The dissertation purports to show that the consistency of the instrumentalist interpretationof quantum mechanics (upon which the logico-operational reconstructions of thetheory rest) cannot be defended without relinquishing the extensional semantic frameworkof classical logic. I examine in particular Niels Bohr’s argument, arguing that hisphysical analysis of measurement is insufficient to establish the coherence of the conditionalconstrual of quantum probabilities that he advocates. Rather than attemptingto ‘complete’ Bohr’s approach by means of a more sophisticated and comprehensiveaccount of the physical processes involved in the act of observation (e.g., decoherence),I suggest that the measurement problem should be viewed as the outgrowth of an inadequatetheory of meaning. I discuss, and point out some limitations of, Bohr’s ownpioneering critique of the representational assumptions inherent to the classical accountof phenomena, and I conclude by suggesting that the endorsement of an inferentialistsemantic approach would not only contribute to defusing the measurement problem, butmight also enable the a priori justification of the structural features of quantum probability(in terms of the conceptual relations presupposed by any language which allowsfor objective assertions).
97

Analyse expérimentale et modélisation du comportement non linéaire thermomécanique de cloison en plaques carton-plâtre-carton, vissées et soumise à des charges thermiques et mécaniques / Experimental analysis and modeling of nonlinear thermomechanical behavior for partition wall with plates cardboard-plasterboard-cardboard, screwed and subjected to thermal and mechanical charge

Do, Thanh Trung 08 December 2011 (has links)
Dans le cadre de ce travail nous étudions le comportement thermomécanique d'une cloison légère faite de plaques carton-plâtre-carton (CPC) vissées sur une ossature métallique. Cette étude consiste d'une part à mener une analyse expérimentale pour identifier les propriétés thermiques, mécaniques et thermomécaniques des différents constituants de la cloison, et d'autre part, à développer un modèle analytique et un modèle numérique robuste du comportement thermomécanique non linéaire de cloisons légères soumises à un incendie naturel. Pour une modélisation robuste, nous avons d'une part développé un modèle du comportement thermomécanique de l'assemblage par vissage, et d'autre part développé un modèle global de la cloison légère en combinant, le modèle thermomécanique non linéaire du vissage, le modèle du comportement thermomécanique d'une plaque CPC et le modèle de l'ossature métallique. Comme il existe une grande variabilité dans les résultats expérimentaux, les incertitudes doivent être prises en compte. Pour ce faire, nous avons proposé d'utiliser un modèle probabiliste du comportement de l'assemblage par vissages / In this research, we study the thermomechanical behavior of a light partition wall made of carton-gypsum-carton (CGC) plates screwed to a metallic frame. This study consist firstly, to conduct an experimental analysis in order to identify the thermal, mechanical and thermomechanical propeties of the differents components of the light partition wall, and secondly, to develop an analytical model and a robust numerical model of nonlinear thermomechanical behavior of the partition walls subjected to natural fire. For a robust model, firstly, we developped a model of the thermomechanical behavior of the assembly by screws, and then developped a global model of the light partition wall by combining the nonlinear thermomechanical model of the assembly by screws, the model of the thermomechanical behavior of a CGC plate and model of the metal frame. As there is important variability in experimental results, the uncertainties must be taken into account. To do this, we proposed to use a probabilistic model of the behavior of the assembly by screw
98

Fécondité prénuptiale parmi les femmes au Cameroun : examen des effets du contexte socioculturel et du statut socioéconomique

Foaleng Tela, Babeth 12 1900 (has links)
No description available.
99

Une approche systémique unifiée pour l’optimisation durable des systèmes socio-environnementaux : ingénierie des systèmes de décision en univers incertain / A unified approach for the sustainable optimization of socio-environmental systems

Dantan, Jérôme 01 June 2016 (has links)
De nos jours, la durabilité des activités humaines devient une préoccupation majeure dans le monde entier. Il s’agit d’évaluer ces activités non seulement en matière d’efficacité et de productivité, mais aussi en ce qui concerne leurs durabilités économique, sociale, environnementale, etc. Pour cela, les experts de ces différents domaines doivent travailler en collaboration. Dans ce contexte, les sociétés humaines sont confrontées à plusieurs défis majeurs qui sont les suivants : (1) traiter de grandes quantités d’informations (« big data »), (2) évoluer dans un monde réel dynamique et imparfait, (3) prévoir et évaluer les états futurs de ses activités.Les recherches que nous avons menées dans cette thèse contribuent plus particulièrement au domaine de l’ingénierie des systèmes de décision en univers incertain. Nous prenons comme objet d'étude général le domaine des systèmes socio-environnementaux, et plus particulièrement le domaine pluridisciplinaire de l’agriculture. Nous proposons une approche systémique pour l’optimisation durable des systèmes socio-environnementaux : (1) la méta-modélisation des systèmes socio-environnementaux, (2) la représentation générique de l’imperfection des informations qui circulent dans ces systèmes, associée à un modèle de décision en contexte incertain et enfin (3) la simulation et l’évaluation de ces systèmes en environnement dynamique en vue de prises de décisions par des experts, que nous avons illustrée par un modèle d’architecture orientée services ainsi que des études de cas appliquées au domaine de l’agriculture. / Nowadays, the sustainability of human activities is a major worldwide concern. The challenge is to evaluate such activities not only in terms of efficiency and productivity, but also in terms of their economic, social, environmental, etc. durability. For this, the experts of these areas need to work collaboratively. In this context, human societies are facing several major challenges such as: (1) process a large amount of information whose volume increases exponentially (“big data”), (2) live in a both dynamic and imperfect real world, (3) predict and assess future states of its activities.The researches we have conducted in this thesis contribute in particular to the domain of decision systems engineering under uncertainty. We have chosen the field of general socio-environmental systems as subject of study, particularly the multidisciplinary field of agriculture. We propose a systemic approach for the sustainable optimization of socio-environmental systems: (1) the meta-modeling of socio-environmental systems, (2) the generic representation of data imperfection flowing in such systems, associated to a decision model in uncertain environment and finally (3) the simulation and the assessment of such systems in dynamic environment for the purpose of decision making by experts which we have illustrated by both a service-oriented architecture model and case studies applied to the agriculture domain.
100

Insurability of catastrophic risks / Assurabilité des risques catastrophiques

Louaas, Alexis 03 July 2018 (has links)
Cette thèse étudie l’assurabilité des risques catastrophiques sous différents angles. Le premier chapitre intéresse aux risques de très faibles probabilités. Nous montrons comment des instruments financiers hybrides, tels que les obligations catastrophes, peuvent être utilisés pour étendre le domaine d’assurabilité des risques catastrophiques. Notre application au cas du nucléaire en France révèle que, malgré des prix plus élevés pour la réassurance des événements de faibles probabilités, il est possible, et vraisemblablement souhaitable d’organiser un système d’assurance plus important que ce que prévoit la loi française. Le second chapitre s’attaque à la question du prix de la réassurance des risques de faibles probabilités. Nous montrons que les risques catastrophiques, ayant une composante systémique, donnent lieu à une prime de risque dont le montant décroit avec la probabilité de la catastrophe moins rapidement que la disposition à payer d’un assuré typique. Cela explique pourquoi les risques systémiques de faibles probabilités sont difficiles à assurer. Le troisième chapitre étudie le rôle des contrats mutuels et participatifs pour améliorer l’assurabilité des risques catastrophiques. De tels contrats permettent aux assurés d’ajuster au mieux leur demande d’assurance, en prenant en compte la dimension systémique des risques auxquels ils sont exposés. Enfin, le quatrième chapitre étudie l’utilisation d’obligations catastrophes pour assurer le risque de variations du prix des matières premières agricoles consécutives à des aléas climatiques extrêmes. En émettant une obligation catastrophe, l’entreprise qui s’approvisionne en matières premières emprunte un capital qu’elle peut conserver en cas de catastrophe, lorsque ses coûts d’approvisionnement sont élevés. Cette solution présente deux avantages par rapport à une couverture par achats de contrats à terme. D’une part,elle permet de réduire la facture d’assurance par effet de diversification. D’autre part, elle permet d’ajuster la couverture aux contraintes logistiques et stratégiques particulières de l’entreprise. / This thesis addresses several aspects of the insurability of catastrophic risks. In a first chapter, we focus on very low probability events and we show how hybrid financial instruments can be used to extend the domain of insurablerisks. Our application to the case of nuclear accidents using cat-bonds data in France shows that despite the higherprice of reinsurance for low probability events, it is advisable to insure more than is currently provided for by the Frenchlaw. The second chapter takes on the issue of why reinsurance is more costly for low probability events. We show thatbecause catastrophic risks have a systemic component, they give rise to a risk premium in equilibrium which decreasesat a lower pace than the willingness to pay for insurance. We use this finding to explain why systemic low probability catastrophes are hard to insure. The third chapter investigates the role of mutual and participating contracts to improveinsurability. Such contracts are necessary for people to adjust their demand for insurance when individual losses are correlated. Finally, the fourth chapter investigates the use of cat-bonds to hedge the risk of extreme agricultural suppliesprice variations. By issuing a cat-bond, the firm that purchases supplies borrows a capital that can be retained in caseof catastrophe. Such a solution would combine the advantage of risk-pooling, to lower the price of insurance, with lowerbasis risk compared to more traditional hedging strategies such as future purchases.

Page generated in 0.0995 seconds