• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 11
  • 1
  • Tagged with
  • 39
  • 21
  • 11
  • 10
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation probabiliste de la dépendance spatiale et temporelle appliquée à l’étude du péril sécheresse dans le cadre du régime français d’indemnisation des catastrophes naturelles / Probabilistic modeling of spatial and temporal dependence applied to the study of drought hazard within the French compensation system for natural disasters

Ardon, Jean 27 March 2014 (has links)
Les travaux présentés s’inscrivent dans le cadre des études menées par la Caisse centrale de réassurance (CCR) pour modéliser les événements catastrophes naturelles et en particulier le péril sécheresse. La sécheresse est le nom utilisé couramment pour désigner les dommages aux bâtiments causés par le phénomène de retrait-gonflement des argiles. Les recherches effectuées sont en lien avec un modèle d’estimation du coût annuel d’un événement sécheresse conçu en interne à CCR. Celui-ci croise des données assurantielles et des données d’humidité du sol pour estimer le coût d’un événement survenu. CCR souhaite faire évoluer ce modèle vers une version probabiliste qui consiste à concevoir un générateur d’événements fictifs, non nécessairement survenus mais possibles d’un point de vue physique. Ce générateur doit permettre notamment d’estimer la distribution de probabilité du coût d’une sécheresse potentielle. Afin de concevoir un générateur d’événements fictifs pour le modèle sécheresse de CCR, nous avons étudié puis mis en oeuvre différents outils mathématiques permettant de modéliser la dépendance de variables aléatoires spatio-temporelles. La méthode choisie consiste à étudier et modéliser séparément la dépendance spatiale et la dépendance temporelle. Pour modéliser la dépendance temporelle, les modèles retenus sont des modèles classiques utilisés pour les séries temporelles. Nous décomposons les séries temporelles des observations en identifiant tendance et saisonnalité puis en ajustant un modèle autorégressif aux résidus. Pour modéliser la dépendance spatiale, notre choix s’est porté sur le krigeage et sur la théorie des copules. Les copules permettent de générer du bruit spatial pour ensuite lui appliquer les modèles de séries temporelles univariées. Le krigeage nous sert à interpoler spatialement les données générées dans le cas où une sélection de sites a été effectuée pour diminuer la dimension spatiale du problème. L’exploitation du générateur, pour laquelle nous donnons quelques résultats, va servir à CCR pour ses politiques de provisionnement et de tarification, et s’intègre également dans l’estimation de la charge deux-centennale liée aux catastrophes naturelles dans le cadre de la directive européenne Solvabilité II. / This work was performed at CCR, a French reinsurance company, within the studies that are conducted to model natural disasters, and particularly the drought hazard. Drought is the word used to denote the shrink-swell clay phenomenon that damages individual houses. These researches are related to an internal model that estimates the annual cost of a drought. This model crosses insurance data and soil moisture data to evaluate the cost of a occured event. CCR wants this model to be improved towards a probabilistic version by conceiving a generator of drought events that have to be realistic, although they are fictive. This generator will allow the estimation of the probability distribution of the drought cost. In order to conceive a fictive event generator for CCR’s drought model, mathematical tools have been used to model dependence between spatio-temporal random variables. The chosen method consists of studying and modeling separately spatial dependence and temporal dependence. Temporal dependence is modelized with time series models such as classical decomposition and autoregressive processes. Spatial dependence is modelized with kriging and copula theory. Spatial random noise is generated with a copula and then time series models are applied to rebuild original process. Kriging is used when generated data need to be interpolated, for example when data are generated only on a subset of the main grid. Results of the generator exploitation are given. They will be used by CCR for provisionning and pricing. These results will also be used for the estimation of the two-hundred-year cost of natural disasters within the new European Solvency II Directive.
22

Asymmetric dependence modeling and implications for international diversification and risk management

Tsafack Kemassong, Georges Desire January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
23

Utilisation de la notion de copule en tomographie / Using the notion of copula in tomography

Pougaza, Doriano-Boris 16 December 2011 (has links)
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ``copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques. / This thesis studies the relationship between Computed Tomography (CT) and the notion of copula. In X-ray tomography the objective is to (re)construct an image representing the distribution of a physical quantity (density of matter) inside of an object from the radiographs obtained all around the object called projections. The link between these images and the object is described by the X-ray transform or the Radon transform. In 2D, when only two projections at two angles 0 and pi/2 (horizontal and vertical) are available, the problem can be identified as another problem in mathematics which is the determination of a joint density from its marginals, hence the notion of copula. Both problems are ill-posed in the sense of Hadamard. It requires prior information or additional criteria or constraints. The main contribution of this thesis is the use of entropy as a constraint that provides a regularized solution to this ill-posed inverse problem. Our work covers different areas. The mathematics aspects of X-ray tomography where the fundamental model to obtain projections is based mainly on the Radon transform. In general this transform does not provide all necessary projections which need to be associated with certain regularization techniques. We have two projections, which makes the problem extremely difficult, and ill-posed but noting that if a link can be done, that is, if the two projections can be equated with marginal densities and the image to reconstruct to a probability density, the problem translates into the statistical framework via Sklar's theorem. And the tool of probability theory called "copula" that characterizes all possible reconstructed images is suitable. Hence the choice of the image that will be the best and most reliable arises. Then we must find techniques or a criterion of a priori information, one of the criteria most often used, we have chosen is a criterion of entropy. Entropy is an important scientific quantity because it is used in various areas, originally in thermodynamics, but also in information theory. Different types of entropy exist (Rényi, Tsallis, Burg, Shannon), we have chosen some as criteria. Using the Rényi entropy we have discovered new copulas. This thesis provides new contributions to CT imaging, the interaction between areas that are tomography and probability theory and statistics.
24

Utilisation de la notion de copule en tomographie

Pougaza, Doriano-Boris 16 December 2011 (has links) (PDF)
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ''copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques.
25

Fiabilité d'une représentation " par événements " de la climatologie de vagues et de courants en Afrique de l'Ouest / Assessment in the form of met-ocean events of the wave climate in West Africa

Kpogo-Nuwoklo, Agbéko Komlan 04 November 2015 (has links)
La connaissance de la climatologie des états de mer est primordiale pour le dimensionnement de structures marines, la gestion des zones côtières ou encore la récupération de l’énergie des vagues. L'estimation de la climatologie nécessite de disposer de données d'observation sur une longue durée, ce qui n'est pas le cas de l'Afrique de l'Ouest. Pour dépasser les limites en durée imposées par les observations, nous proposons dans ces travaux une approche stochastique pour estimer une climatologie de vagues en Afrique de l’Ouest, en s’appuyant sur une représentation “par événements” des données d’états de mer. Un “événement” désigne un système de vagues (houle ou mer du vent) en évolution au cours du temps, observable pendant une durée significative et que l’on peut relier à un unique phénomène météorologique source (e.g. dépressions, tempêtes, etc.). La représentation par événements permet de reproduire la cohérence temporelle des systèmes de vagues et de structurer les données d'états de mer avec une base physique. La démarche adoptée peut se décomposer suivant trois étapes. Nous avons d'abord extrait les événements à partir d’une série temporelle de spectres directionnels d’états de mer. Nous avons ensuite développé un modèle pour représenter chacun des événements par un nombre réduit de paramètres. Enfin, nous avons construit un générateur stochastique permettant la simulation d’événements individuels et la reconstitution de climatologies sur des durées de longueurs arbitraires. Les résultats ont montré un bon accord entre la climatologie reconstituée et celle de référence, permettant de conclure que le générateur peut valablement servir à la simulation de données d’états de mer en Afrique de l’Ouest pour les applications en génie océanique. / Accurate estimation of long-term sea conditions is a major issue in design of coastal and offshore structures, coastal zone management or wave energy harvesting. An estimation of long-term sea conditions requires long duration observational data while in West Africa, only a few (3 years) years of observational data are available. To overcome the limits in duration that observations impose, a stochastic approach, event-based representation of sea state data, is proposed to model the wave climate in West Africa. An “event” refers to a wave system (swell or wind sea) evolving over time, that can be observed for a finite, yet significant duration and that can be linked to a single meteorological source phenomenon (e.g. low pressure systems, storms, etc.). Event-based approach provides structures with physical meaning and temporal consistence for the representation of sea states data. The procedure we have used is decomposed into three following steps. First, we have extracted events from a time series of directional spectra. We have then developed a model to represent each event by a reduced number of parameters. In the last step, we have constructed the stochastic events generator which allows for simulation of individual events and for reconstruction of wave climate over durations of arbitrary lengths. Results showed good agreement between reconstructed climate and that of reference and allow to conclude that the stochastic events generator can reliably be used to simulate sea state data in West Africa for a ocean engineering applications.
26

Les modèles vectoriels et multiplicatifs avec erreurs non-négatives de séries chronologiques

Moutran, Emilie 05 1900 (has links)
No description available.
27

Stress testing the banking system : towards a more macroprudential approach / Tester la résistance du secteur bancaire : vers une approche plus macroprudentielle

Arnould, Guillaume 14 December 2017 (has links)
Les tests de résistance, qui évaluent la capacité des banques à soutenir la détérioration de la situation économique et financière, sont devenus un outil qui aide les banques centrales à exercer leur nouveau pouvoir de supervision et à promouvoir un système financier stable. En outre, la récente crise financière mondiale a déplacé le centre d'attention de la supervision financière d'une perspective microprudentielle, basée sur la résilience des institutions individuelles, à une perspective plus macroprudentielle, qui englobe la résilience globale du système financier. Par conséquent, les tests de résistance microprudentiels mettent l'accent sur le rôle traditionnel du capital bancaire en tant que coussin de protection contre les pertes, tandis que les tests de résistance macroprudentiels se concentrent sur le système bancaire dans son ensemble. La crise financière mondiale a également souligné le rôle crucial du risque de liquidité dans la détérioration de la stabilité du système financier international. Le premier article passe en revue le premier test de résistance de la BCE, en le comparant à la littérature et aux autres tests de résistance effectués de par le monde, et contextualise ses résultats. Il donne un aperçu des tests de résistance et une liste d'améliorations potentielles. Le second article cherche à construire une méthodologie qui couvre certaines lacunes (effet de spillovers et interactions entre solvabilité et liquidité) identifiée dans le premier chapitre et l'utilise pour évaluer la fragilité actuelle du système bancaire de la zone euro selon différents scénarios. Enfin, le troisième chapitre analyse le lien entre la solvabilité et les coûts de financement. / Stress tests, which evaluate banks' capacity to withstand deteriorating economic and financial condition, have become a tool that helps central banks to fulfil their new supervisory power and promote a stable financial system. Additionally, the global financial crisis shifted the perspective of financial supervision from a microprudential perspective, based on the resilience of individual institutions, to a more macroprudential perspective, which encompasses the whole financial system resilience. Hence, microprudential stress tests emphasize the traditional role of bank capital as a buffer against loss, shielding the deposit insurance agency, while, macroprudential stress tests focus on whether the banking system as a whole has the balance, sheet capacity to support the economy. The global financial crisis also highlighted the crucial role of liquidity risk in undermining the stability of the international financial system. The first paper reviews the first ECB stress test, comparing it to the literature and other stress tests conducted, and contextualize its results. It provides an overview of stress tests as a tool and give a list of potential improvements. The second paper, seeks to construct methodology that covers some shortcomings (spillovers and interaction between solvency and liquidity) identified in the first chapter and uses it to assess the current fragility of the Eurozone banking system to various scenarios. Finally, the third chapter analyses the link between solvency and funding costs as a potential source of second round losses in the stress testing framework.
28

Cadre méthodologique et applicatif pour le développement de réseaux de capteurs fiables / The design of reliable sensor networks : methods and applications

Lalem, Farid 11 September 2017 (has links)
Les réseaux de capteurs sans fil émergent comme une technologie innovatrice qui peut révolutionner et améliorer notre façon de vivre, de travailler et d'interagir avec l'environnement physique qui nous entoure. Néanmoins, l'utilisation d'une telle technologie soulève de nouveaux défis concernant le développement de systèmes fiables et sécurisés. Ces réseaux de capteurs sans fil sont souvent caractérisés par un déploiement dense et à grande échelle dans des environnements limités en terme de ressources. Les contraintes imposées sont la limitation des capacités de traitement, de stockage et surtout d'énergie car ils sont généralement alimentés par des piles.Nous visons comme objectif principal à travers cette thèse à proposer des solutions permettant de garantir un certain niveau de fiabilité dans un RCSF dédié aux applications sensibles. Nous avons ainsi abordé trois axes, qui sont :- Le développement de méthodes permettant de détecter les noeuds capteurs défaillants dans un RCSF,- Le développement de méthodes permettant de détecter les anomalies dans les mesures collectées par les nœuds capteurs, et par la suite, les capteurs usés (fournissant de fausses mesures).- Le développement de méthodes permettant d'assurer l'intégrité et l'authenticité des données transmise dans un RCSF. / Wireless sensor networks emerge as an innovative technology that can revolutionize and improve our way to live, work and interact with the physical environment around us. Nevertheless, the use of such technology raises new challenges in the development of reliable and secure systems. These wireless sensor networks are often characterized by dense deployment on a large scale in resource-onstrained environments. The constraints imposed are the limitation of the processing, storage and especially energy capacities since they are generally powered by batteries.Our main objective is to propose solutions that guarantee a certain level of reliability in a WSN dedicated to sensitive applications. We have thus proposed three axes, which are:- The development of methods for detecting failed sensor nodes in a WSN.- The development of methods for detecting anomalies in measurements collected by sensor nodes, and subsequently fault sensors (providing false measurements).- The development of methods ensuring the integrity and authenticity of transmitted data over a WSN.
29

Nouvelle loi exponentielle bidimensionnelle basée sur la méthode des chocs comonotones

Bélisle, Jessica January 2020 (has links) (PDF)
No description available.
30

De nouveaux estimateurs semi-paramétriques de l'indice de dépendance extrême de queue

Cissé, Mamadou Lamine January 2020 (has links) (PDF)
No description available.

Page generated in 0.0379 seconds