• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 1
  • Tagged with
  • 21
  • 21
  • 10
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evaluation de la performance des Systèmes Instrumentés de Sécurité à paramètres imprécis

Mechri, Walid 11 April 2011 (has links) (PDF)
Dans ce travail, le problème d'imprécision dans l'évaluation de la performance des systèmes instrumentés de sécurité est traité. Deux méthodes d'évaluation sont appliquées à un SIS. La première méthode d'évaluation utilise les arbres de défaillances, la seconde se base sur les chaînes de Markov. L'imperfection des données concerne les paramètres caractéristiques des SIS, tels que le taux de défaillance et le facteur de défaillance de cause commune. Les probabilités élémentaires sont remplacées par des modèles mathématiques permettant aux experts fiabilistes d'exprimer leur incertitude dans l'énoncé des valeurs de probabilités de défaillances et d'autres paramètres des systèmes. Nous montrons comment l'imprécision sur la valeur de taux de défaillance induit des variations particulièrement significatives sur la qualification du niveau d'intégrité de sécurité du système. Ce travail peut avoir beaucoup d'intérêt pour le décideur de connaître l'imprécision sur les paramètres de performance des systèmes.
12

Modélisation Stochastique des carnets d'ordres

Jedidi, Aymen 09 January 2014 (has links) (PDF)
Cette thèse étudie quelques aspects de la modélisation stochastique des carnets d'ordres. Nous analysons dans la première partie un modèle dans lequel les temps d'arrivées des ordres sont Poissoniens indépendants. Nous démontrons que le carnet d'ordres est stable (au sens des chaines de Markov) et qu'il converge vers sa distribution stationnaire exponentiellement vite. Nous en déduisons que le prix engendré dans ce cadre converge vers un mouvement Brownien aux grandes échelles de temps. Nous illustrons les résultats numériquement et les comparons aux données de marché en soulignant les succès du modèle et ses limites. Dans une deuxième partie, nous généralisons les résultats à un cadre où les temps d'arrivés sont régis par des processus auto et mutuellement existants, moyennant des hypothèses sur la mémoire de ces processus. La dernière partie est plus appliquée et traite de l'identification d'un modèle réaliste multivarié à partir des flux des ordres. Nous détaillons deux approches : la première par maximisation de la vraisemblance et la seconde à partir de la densité de covariance, et réussissons à avoir une concordance remarquable avec les données. Nous appliquons le modèle ainsi estimé à deux problèmes concrets de trading algorithmique, à savoir la mesure de la probabilité d'exécution et le coût d'un ordre limite.
13

Toward more realism and robustness in global illumination / Vers plus de réalisme et de robustesse en simulation de l’éclairage global

Gruson, Adrien 06 July 2015 (has links)
L'un des buts principaux de la synthèse d'image est de générer une image en adéquation avec les attentes de l’utilisateur. Pour ce faire, l'utilisateur doit passer par plusieurs étapes. La première, dite « Moteur de rendu », a pour but de simuler de façon précise les différentes interactions lumineuses avec les objets d'une scène 3D. A l'issue de cette étape, l'utilisateur aura à sa disposition une image décrite par des grandeurs photométriques. Ensuite, l'utilisateur procède à une seconde étape, dite « Post-production », où l'utilisateur effectue différents traitements sur l’image générée. Afin que l’image finale soit en adéquation avec les attentes de l’utilisateur, ce dernier peut modifier la scène 3D ou les différents paramètres utilisés par chaque étape. Les travaux de recherche menés dans le cadre de la thèse se sont focalisés sur deux axes principaux : l’accélération de la génération d'images de synthèse et le développement d'outils, proposés à l'utilisateur, lui permettant de satisfaire ses attentes. Concernant le premier axe, nous avons travaillé sur les techniques de synthèse d'image permettant de générer des images de synthèse de haute qualité. Ces techniques s’appuient, le plus souvent, sur un processus stochastique qui construit de façon aléatoire des chemins de lumière. Cependant, dans certains cas de figure, il est difficile de construire de façon efficace ces chemins. C'est le cas des milieux participants (fumée, feu, etc.) pour lesquels un grand nombre d'interactions lumière/matière doit être pris en compte, ce qui est très coûteux en temps de calcul. Pour réduire ces temps de calcul, nous proposons une adaptation d'une approche de rendu discrète exploitant la puissance de calcul des cartes graphiques. Cependant, comme ce genre de techniques présentent de nombreuses limitations, nous avons développé une seconde technique basée sur le trace de photon. Par ailleurs, dans des scènes complexes, il est difficile de trouver des chemins contributifs. Pour cette raison, nous avons utilisé une approche, basée sur Metropolis-Hasting, qui permet d'explorer localement l'espace des chemins contributifs. En revanche, avec ce type d'approche, il est difficile de contrôler la répartition de l'erreur sur le plan image. C'est pourquoi, nous proposons une nouvelle approche permettant de mieux répartir l'erreur relative sur le plan image. Dans le second axe de travail, nous nous sommes intéressés à l’étape de « Post-production ». En effet, nous avons développé une nouvelle technique d'estimation de l'illuminant de référence. Connaître cet illuminant est important lors d’opérations manipulant l'espace couleur utilisé. Enfin, nous proposons une technique capable de déterminer automatiquement la configuration des sources de lumière dans le but de générer une image répondant aux attentes de l'utilisateur. / One of the main goal in computer graphics is to generate an image that matches the user intent. To do that, the user has to go through several steps. The first step, named « Rendering engine », aims to precisely simulate light interactions with the objects of a 3D scene. At the end of this step, an image is generated. This image is represented by photometric values. Then, the user moves on to the second step, named « Post-production », where she/he applies several transformations to the computer generated images. To make the final image be in line with her/his expectations, the user can modify the 3D scene or change parameter values used throughout the different steps. Two main research avenues are investigated: acceleration of the generation of computer generated images and the development of user assistance tools allowing to satisfy the user's intent. First, we have developed computer graphics algorithms that generate high quality images. These techniques often rely on a stochastic process. They randomly construct light paths. However, in some particular setup, it turns out that these algorithms are inefficient. This is the case when rendering participating media for which a huge amount of light interactions is needed. These interactions entail a costly computing time. In order to reduce the rendering time, we have proposed a new discrete approach that runs on the GPU. However, there exist several limitations with this type of technique. To overcome these limitations, we have developed a second approach based on progressive photon mapping. Furthermore, in complex scenes, it is difficult to find valid light paths. This is why, our algorithm is based on Metropolis-Hasting. This type of technique allows to explore locally the path space but still have several drawbacks. The main drawback is that the algorithm does not distribute evenly the error over the image space. We have proposed a novel approach to address this issue. In the second part of this PhD, we are interested in the "post-production" step. A new technique has been developed to estimate the main illuminant in a scene. Knowing this main illuminant is crucial for color transformations. Moreover, we have developed a technique that optimizes automatically the lighting setup in a 3D scene to meet the user's expectations.
14

Modélisation et optimisation de la qualité d'expérience client des services data sur le réseau mobile. Application au vidéo streaming / Modeling and optimization of the quality of customer experience (QoE) of data services on the mobile network. Application to video streaming

Bouzian, Mohamed 20 July 2017 (has links)
Ces dernières années, les terminaux mobiles sont devenus plus performants en termes de puissance de calcul, de mémoire, de taille et de la qualité de l'écran. Ces améliorations ont fortement stimulé la demande de services multimédias notamment la vidéo streaming. Par ailleurs les clients sont de plus en plus exigeants quant à la qualité rendue sur ce type de service. En plus une mauvaise expérience de la vidéo streaming a un grand impact sur la perception qu’ont les clients de l’opérateur. Optimiser la qualité d’expérience (QdE) des clients sur les services de la vidéo streaming est donc un enjeu concurrentiel majeur. Dans cette thèse, nous nous intéressons à modéliser et optimiser la QdE des services streaming en tenant compte des usages et de la mobilité des clients. En particulier, nous nous intéresserons à deux stratégies de délivrance des contenus sur le réseau mobile : la stratégie ‘’Fast Caching’’ et la stratégie ‘’On-Off’’. Nous développons des modèles analytiques qui nous permettent de calculer des indicateurs majeurs de la QdE pour le service streaming qui sont : i) la famine, qui pousse les opérateurs à envoyer plus de contenu et ii) la perte due à abandonner la lecture d’une vidéo, qui pousse ces derniers à envoyer du contenu vidéo d’une manière strictement raisonnable. Un équilibre optimal est à trouver. Nous proposons aussi des stratégies de gestion de la QdE en maintenant un bon niveau de QdE sur la totalité du réseau et en optimiser les indicateurs de la QdE du service streaming. / In recent years, mobile devices have become more powerful in terms of computing power, memory, size and screen quality. These improvements have greatly stimulated demand for multimedia services including video streaming. Moreover, customers are increasingly demanding in terms of the quality rendered on this type of service. In addition, a bad experience of video streaming has a great impact on the perception that customers have of the operator. Optimizing the quality of experience (QoE) of customers on the services of video streaming is thus a major competitive challenge. In this thesis, we are interested in modeling and optimizing the QoE of the streaming services taking into account the usages and the mobility of the clients. In particular, we are interested in two strategies for delivering content on the mobile network: the Fast Caching strategy and the On-Off strategy. We develop analytical models that allow us to calculate major indicators of the QoE for the streaming service that are: i) starvation, which drives operators to send more video content to customers and ii) the loss due to abandoning the video playback, which pushes them to send video content in a strictly reasonable manner. An optimal balance is to be found. We also propose QoE oriented strategies by maintaining a good level of QoE over the entire network and optimizing the QoE indicators of streaming services.
15

Méthodes innovantes de gestion statique et dynamique de la fiabilité électrique des circuits CMOS M40 et 28FD sous conditions réelles d'utilisation (HTOL) / Innovative approaches to static and dynamic compensation schemes for Process and Aging variations in 40nm and 28nm FDSOI

Mhira, Souhir 13 April 2018 (has links)
Cette thèse porte sur la conception et le test des premiers circuits CMOS auto-adaptatifs nanométriques dédiés aux applications automobiles, avioniques et aérospatiales, dans des environnements à forte contrainte car soumis à des compromis entre vitesse (performance), consommation (Low Power) et vieillissement (Wearout). Des solutions innovantes ont été développées avec des boucles de régulation dynamiques pour optimiser la consommation des différents éléments (niveau de conception) et des blocs (système), tout en assurant leur bon fonctionnement. La validation des solutions a été réalisée étape par étape dans la chaîne de conception, en se concentrant d'abord sur le développement d'un premier démonstrateur en technologie CMOS (M40) 40 nm pour les applications automobiles de STMicroelectronics. Différentes manières d'anticiper les erreurs ont été comparées en conservant la détection de retard IS2M dans les chemins critiques. Une modélisation théorique des boucles de contrôle a abouti à un outil de simulation basé sur des chaînes de Markov discrètes dans le temps (DTMC). Cette modélisation a été confrontée avec succès à des mesures de silicium démontrant que les solutions sélectionnées offraient une réduction de la puissance consommée par 2 avec des performances et une fiabilité égales. Dans la dernière partie, les solutions proposees sont testees sur un demonstrateur CMOS FDSOI 28nm, afin de valider la pertinence de l'adaptation dynamique (D-ABB) dans les tensions d'alimentation et de face. / This thesis deals with the design and testing of the first self-adaptive nanoscale CMOS circuits dedicated to automotive, avionics and aerospace applications, under high stress environment because they are subject to the trade-off between speed (performance), consumption (Low Power) and aging (Wearout). Innovative solutions have been developed with dynamic control loops to optimize the consumption of the various elements (design level) and blocks (system), while ensuring their smooth operation. Validation of solutions has been achieved step by step in the design chain, focusing first on the development of a first demonstrator in 40nm CMOS (M40) technology for automotive applications from STMicroelectronics. Various ways of anticipating errors were compared by retaining the IS2M (adjustable time window) delay detection in critical paths as the most efficient for optimization solutions. A theoretical modeling of the control loops has resulted in a simulation tool based on time discrete Markov chains (DTMC). This modeling was successfully confronted with silicon measurements demonstrating that the solutions selected offered a reduction in the power consumed by 2 with equal performance and reliability. In the last part, the high-level hierarchical modeling was applied on several systems / products of 28nm FDSOI CMOS nodes (28FD), in order to validate the relevance of the dynamic adaptation (D-ABB) in supply and face voltages. (VDD, VB). This allowed to prove the validity of the complete methodology by arriving at the precise statistical prediction of the reliability integrating the whole performance-consumption value chain using the advanced simulations.
16

Modélisation de l'évolution de la taille des génomes et de leur densité en gènes par mutations locales et grands réarrangements chromosomiques / Modelling of the evolution of genome size and gene density by local mutations and large chromosomal rearrangements

Fischer, Stephan 02 December 2013 (has links)
Bien que de nombreuses séquences génomiques soient maintenant connues, les mécanismes évolutifs qui déterminent la taille des génomes, et notamment leur part d’ADN non codant, sont encore débattus. Ainsi, alors que de nombreux mécanismes faisant grandir les génomes (prolifération d’éléments transposables, création de nouveaux gènes par duplication, ...) sont clairement identifiés, les mécanismes limitant la taille des génomes sont moins bien établis. La sélection darwinienne pourrait directement défavoriser les génomes les moins compacts, sous l’hypothèse qu’une grande quantité d’ADN à répliquer limite la vitesse de reproduction de l’organisme. Cette hypothèse étant cependant contredite par plusieurs jeux de données, d’autres mécanismes non sélectifs ont été proposés, comme la dérive génétique et/ou un biais mutationnel rendant les petites délétions d’ADN plus fréquentes que les petites insertions. Dans ce manuscrit, nous montrons à l’aide d’un modèle matriciel de population que la taille du génome peut aussi être limitée par la dynamique spontanée des duplications et des grandes délétions, qui tend à raccourcir les génomes même si les deux types de réarrangements se produisent à la même fréquence. En l’absence de sélection darwinienne, nous prouvons l’existence d’une distribution stationnaire pour la taille du génome même si les duplications sont deux fois plus fréquentes que les délétions. Pour tester si la sélection darwinienne peut contrecarrer cette dynamique spontanée, nous simulons numériquement le modèle en choisissant une fonction de fitness qui favorise directement les génomes contenant le plus de gènes, tout en conservant des duplications deux fois plus fréquentes que les délétions. Dans ce scénario où tout semblait pousser les génomes à grandir infiniment, la taille du génome reste pourtant bornée. Ainsi, notre étude révèle une nouvelle force susceptible de limiter la croissance des génomes. En mettant en évidence des comportements contre-intuitifs dans un modèle pourtant minimaliste, cette étude souligne aussi les limites de la simple « expérience de pensée » pour penser l’évolution. / Even though numerous genome sequences are now available, evolutionary mechanisms that determine genome size, notably their fraction of non-coding DNA, are still debated. In particular, although several mechanisms responsible for genome growth (proliferation of transposable elements, gene duplication and divergence, etc.) were clearly identified, mechanisms limiting the overall genome size remain unclear. Darwinian selection could directly disadvantage less compact genomes, under the hypothesis that a larger quantity of DNA could slow down the speed of reproduction of the organism. Because this hypothesis was proven wrong by several datasets, non selective mechanisms have been proposed, e.g. genetic drift and/or a mutational bias towards small DNA deletions compared to small DNA insertions. In this manuscript, we use a matrix model to show that genome size can also be limited by the spontaneous dynamics of duplications and large deletions, which tends to decrease genome size even if the two types of rearrangements occur at the same rate. In the absence of Darwinian selection, we prove the existence of a stationary distribution of genome size even if duplications are twice as frequent as large deletions. To test whether selection can overcome this spontaneous dynamics, we simulate our model numerically and choose a fitness function that directly favors genomes containing more genes, while keeping duplications twice as frequent as large deletions. In this scenario where, at first sight, everything seems to favor infinite genome growth, genome size remains nonetheless bounded. As a result, our study reveals a new pressure that could be responsible for limiting genome growth. By illustrating counter-intuitive behaviors in a minimal model, this study also underlines the limits of simple "thought experiments" to understand evolution.
17

Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique / The convergence rate of the Gibbs sampler for some statistical mechanics models

Helali, Amine 11 January 2019 (has links)
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre. / Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium.
18

Caractérisation de l'usage des batteries Lithium-ion dans les véhicules électriques et hybrides. Application à l'étude du vieillissement et de la fiabilité

Devie, Arnaud 13 November 2012 (has links) (PDF)
De nouvelles architectures de traction (hybride, électrique) entrent en concurrence avec les motorisations thermiques conventionnelles. Des batteries Lithium-ion équipent ces véhicules innovants. La durabilité de ces batteries constitue un enjeu majeur mais dépend de nombreux paramètres environ-nementaux externes. Les outils de prédiction de durée de vie actuellement utilisés sont souvent trop simplificateurs dans leur approche. L'objet de ces travaux consiste à caractériser les conditions d'usage de ces batteries (température, tension, courant, SOC et DOD) afin d'étudier avec précision la durée de vie que l'on peut en attendre en fonction de l'application visée. Différents types de véhicules électrifiés (vélos à assistance élec-trique, voitures électriques, voitures hybrides, et trolleybus) ont été instrumentés afin de documenter les conditions d'usage réel des batteries. De larges volumes de données ont été recueillis puis ana-lysés au moyen d'une méthode innovante qui s'appuie sur la classification d'impulsions de courant par l'algorithme des K-means et la génération de cycles synthétiques par modélisation par chaine de Markov. Les cycles synthétiques ainsi obtenus présentent des caractéristiques très proches de l'échantillon complet de données récoltées et permettent donc de représenter fidèlement l'usage réel. Utilisés lors de campagnes de vieillissement de batteries, ils sont susceptibles de permettre l'obtention d'une juste prédiction de la durée de vie des batteries pour l'application considérée. Plusieurs résultats expérimentaux sont présentés afin d'étayer la pertinence de cette approche.
19

Caractérisation de l’usage des batteries Lithium-ion dans les véhicules électriques et hybrides : application à l’étude du vieillissement et de la fiabilité / Characterization of Lithium-ion batteries usage in electric and hybrid electric vehicles applications

Devie, Arnaud 13 November 2012 (has links)
De nouvelles architectures de traction (hybride, électrique) entrent en concurrence avec les motorisations thermiques conventionnelles. Des batteries Lithium-ion équipent ces véhicules innovants. La durabilité de ces batteries constitue un enjeu majeur mais dépend de nombreux paramètres environnementaux externes. Les outils de prédiction de durée de vie actuellement utilisés sont souvent trop simplificateurs dans leur approche. L’objet de ces travaux consiste à caractériser les conditions d’usage de ces batteries (température, tension, courant, SOC et DOD) afin d’étudier avec précision la durée de vie que l’on peut en attendre en fonction de l’application visée. Différents types de véhicules électrifiés (vélos à assistance électrique, voitures électriques, voitures hybrides, et trolleybus) ont été instrumentés afin de documenter les conditions d’usage réel des batteries. De larges volumes de données ont été recueillis puis analysés au moyen d’une méthode innovante qui s’appuie sur la classification d’impulsions de courant par l’algorithme des K-means et la génération de cycles synthétiques par modélisation par chaine de Markov. Les cycles synthétiques ainsi obtenus présentent des caractéristiques très proches de l’échantillon complet de données récoltées et permettent donc de représenter fidèlement l’usage réel. Utilisés lors de campagnes de vieillissement de batteries, ils sont susceptibles de permettre l’obtention d’une juste prédiction de la durée de vie des batteries pour l’application considérée. Plusieurs résultats expérimentaux sont présentés afin d’étayer la pertinence de cette approche / Lithium-ion batteries are being used as energy storage systems in recent electric and hybrid electric vehicles coming to market. Current cycle-life estimation techniques show evidence of discrepancy between laboratory results and real-world results. This work is aimed at characterizing actual battery usage in electrified transportation applications. Factors such as temperature, State Of Charge, Depth Of Discharge, current and voltage have to be carefully considered for accurate cycle-life prediction within a given application. Five electrified vehicles have been studied (two electric bicycles, one light EV, one mainstream HEV and one Heavy-Duty trolleybus). These vehicles have been equipped with sensors and data-logger and then test-driven on open roads under real-world conditions. Large amounts of data have been stored and later processed through an innovative method for analysis of actual usage. This method relies on data mining based on K-means clustering and synthetic duty cycle generation based on Markov chain modeling. Resulting synthetic cycles exhibit features similar to those observed on the large original datasets. This enables accurate prediction of cycle-life through realistic ageing trials of Lithium-ion batteries. Several experimental results are presented in order to assess the fitness of this method
20

Analyse des risques sur un portefeuille de dettes / Risk analysis on a debt portfolio

Kheliouen, Mohamed Reda 12 September 2018 (has links)
Cette thèse de doctorat part du constat qu'un portefeuille de crédit est soumis à plusieurs risques qui proviennent principalement de la qualité de crédit de l'emprunteur et de son comportement de tirage et de pré-paiement sur ses lignes de crédit. Il s'avère que les risques observés sont dynamiques et dépendent de facteurs divers, autant micro que macro-économiques.Nous avons eu la volonté de comprendre l'articulation de ces risques pour avoir une gestion efficace de ceux-ci dans le présent, mais aussi une vision prospective si les conditions économiques changent, cela pour une gestion pro-active. Pour traiter cette problématique, nous avons articulé nos recherches autour de trois axes qui ont abouti à trois chapitres sous forme d'articles.(i) Analyse des changements des notations de crédit en fonction des facteurs de risque.L'utilisation des modèles de migration multi-factoriels nous a permis de reproduire des faits stylisés cités dans la littérature et d'en identifier d'autres. Nous reconstituons aussi le cycle économique entre 2006 et 2014 qui réussit à capter les crises de 2008 et 2012.(ii) Conception d'un modèle de cash-flow qui tient compte de l'évolution des comportements des emprunteurs sous l'influence de leurs environnements micro et macro-économiques.Nous prouvons l'influence de la notation de crédit, du cycle économique, du taux de recouvrement estimé et du taux d'intérêt court terme sur les taux d'utilisation. Ce modèle permet aussi d'obtenir des mesures de risque comme le Cash Flow-at-Risk et le Stressed Cash Flow-at-Risk sur des portefeuilles de crédit grâce à des simulations de Monte Carlo.(iii) Réflexion sur la Disposition-à-Payer (DAP) d'un décideur neutre à l'ambiguïté pour réduire le risque en présence d'incertitude sur les probabilités. Nous montrons que la présence de plusieurs sources d'ambiguïté (possiblement corrélées) change le bien-être d'un décideur averse au risque bien que celui-ci soit neutre à l'ambigüité / This thesis starts from the observation that a credit portfolio is subject to several risks, mainly due to the credit quality of the borrower and his behavior toward his credit lines (drawdown or prepayment). It turns out that the observed risks are dynamic and depend on various factors, both micro and macroeconomic. Our goal in one hand is to understand the articulation of these risks in order to efficiently manage them in the current time, in the other hand, we want to have a forward looking vision of these risks with respect to the changes in the economic conditions in order to have a pro-active management. To address our objectives, we have articulated our research on three axes that have resulted in three chapters in the form of articles.(i) Analysis of changes in the credit ratings with respect to risk factors. The use of factor migration models allowed us to reproduce some stylized facts mentioned in academic literature and to identify some others. We have also estimated the business cycle between2006 and 2014, which manages to capture the crises of 2008 and 2012.(ii) Design of a cash-_ow model that considers the changes in borrowers' behavior under the influence of their micro and macroeconomic environments. We prove the influence of the credit ratings, business cycle, estimated recovery rates and short-term interest rates on the utilization rates of a credit line. This model also provides risk measures such as Cash Flow-at-Risk and Stressed Cash Flow-at-Risk on credit portfolio using Monte Carlo simulations.(iii) Discussion on the Willingness-to-Pay (WTP) of an ambiguity neutral decision maker (DM) in order to reduce the risk in presence of ambiguity over probabilities. We show that the introduction of ambiguity through several ambiguity sources modifies the welfare level of all ambiguity-neutral and risk-averse DM when ambiguity and risk interact

Page generated in 0.0932 seconds