• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 15
  • 5
  • Tagged with
  • 76
  • 31
  • 28
  • 17
  • 17
  • 14
  • 13
  • 11
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluation

Telmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
52

From group to patient-specific analysis of brain function in arterial spin labelling and BOLD functional MRI / Des études de groupe aux analyses individuelles dans l'exploration de la fonction cérébrale en imagerie de perfusion par marquage de spins et en IRM fonctionnelle BOLD

Maumet, Camille 29 May 2013 (has links)
Cette thèse aborde l'étude de la fonction cérébrale en Imagerie par Résonance Magnétique (IRM) à l'aide de deux séquences : l'IRM fonctionnelle (IRMf) BOLD et l'imagerie de perfusion par marquage de spins (ASL). Dans ce contexte, les analyses de groupe jouent un rôle important dans l'identification des dysfonctionnements globaux associés à une pathologie. D'autre part, les études individuelles, qui fournissent des conclusions au niveau d'un sujet unique, présentent un intérêt croissant. Dans ce travail, nous abordons à la fois les études de groupe et les analyses individuelles. Dans un premier temps, nous réalisons une analyse de groupe en IRMf BOLD en vue d'étudier la dysphasie chez l'enfant, une pathologie peu explorée en neuroimagerie. Nous mettons ainsi en évidence un fonctionnement et une latéralisation atypiques des aires langagières. Ensuite, nous nous concentrons sur les analyses individuelles. Nous proposons l'utilisation d'estimateurs robustes pour calculer les cartographies de débit sanguin cérébral en ASL. Ensuite, nous étudions la validité des hypothèses qui sous-tendent les analyses statistiques standard dans le contexte de l'ASL. Finalement, nous proposons une nouvelle méthode localement multivariée basée sur une approche a contrario. La validation de cette nouvelle approche est réalisée dans deux contextes applicatifs : la détection d'anomalies de perfusion en ASL et la détection de zones d'activation en IRMf BOLD. / This thesis deals with the analysis of brain function in Magnetic Resonance Imaging (MRI) using two sequences: BOLD functional MRI (fMRI) and Arterial Spin Labelling (ASL). In this context, group statistical analyses are of great importance in order to understand the general mechanisms underlying a pathology, but there is also an increasing interest towards patient-specific analyses that draw conclusions at the patient level. Both group and patient-specific analyses are studied in this thesis. We first introduce a group analysis in BOLD fMRI for the study of specific language impairment, a pathology that was very little investigated in neuroimaging. We outline atypical patterns of functional activity and lateralisation in language regions. Then, we move forward to patient-specific analysis. We propose the use of robust estimators to compute cerebral blood flow maps in ASL. Then, we analyse the validity of the assumptions underlying standard statistical analyses in the context of ASL. Finally, we propose a new locally multivariate statistical method based on an a contrario approach and apply it to the detection of atypical patterns of perfusion in ASL and to activation detection in BOLD functional MRI.
53

Généralisation des méthodes de scan pour le test des circuits intégrés complexes et application à des circuits critiques en vitesse

Bulone, Joseph 02 December 1994 (has links) (PDF)
Cette thèse propose une extension des méthodes classiques de chemins de «scan». On utilise des opérateurs combinatoires plus généraux à la place des multiplexeurs à une seule sortie. Ils peuvent comporter des entrées et des sorties multiples. Ils peuvent boucler sur eux-mêmes par l'intermédiaire d'une ou plusieurs bascules. Lorsqu'ils vérifient certaines propriétés de bijectivité et qu'ils forment une structure propageant de l'information, alors cette structure est aussi utile que les chaînes du «scan» complet et s'utilise de manière semblable. Elle permet aussi une approche hiérarchique du test des circuits. On montre comment tirer profit de cette méthode plus générale pour réduire l'impact de la méthode de «scan» complet sur les performances de circuits complexes implantant des fonctions mathématiques courantes ou des séquenceurs. Des résultats sont donnés pour le cas réel d'un circuit CMOS, très rapide, spécifique pour le réseau numérique large bande et pour lequel les contraintes en vitesse étaient primordiales
54

Vers une modélisation mathématique de la filtration des globules blancs du sang

Belhadj, Mohamed 11 March 2005 (has links) (PDF)
Cette thèse concerne l'étude de modèles mathématiques et méthodes numériques motivés par la filtration des globules blancs du sang. <br /><br />Dans la première partie, nous définissons des modèles mathématiques qui réprésentent les principaux phénomènes physiques qui entrent en jeu dans le procédé de la filtration.<br /><br />La deuxième partie est dédiée à l'analyse mathématique de systèmes d'équations aux dérivées partielles modélisant le procédé de la filtration. Tout d'abord, nous considérons un système d'équations semi-linéaires de type hyperbolique-parabolique avec une diffusion anisotrope dégénérée. Nous étudions ce problème avec une théorie $L^{1}$; nous considérons en particulier l'existence et l'unicité de solutions faibles ainsi que d'autres propriétés comme le principe du maximum; puis nous établissons la limite quand la constante de réaction devient grande. Nous montrons que le système converge vers une équation non linéaire parabolique-hyperbolique qui généralise le problème de Stefan. Nous étudions également, par des techniques de l'homogénéisation, la filtration au travers de milieux poreux fibrés. Le réseau des fibres étudié est celui utilisé par M. Briane dans le cadre d'une étude sur la conduction thermique des tissus biologiques. Nous dérivons et justifions l'équation de Darcy ainsi que la forme du tenseur de perméabilité pour un tel milieu fibreux. Les résultats théoriques concernant la perméabilité sont illustrés par quelques simulations numériques. Finalement, nous considérons le cas où le diamètre des fibres tend vers zéro. En appliquant des résultats de G. Allaire à notre cas, nous justifions rigoureusement la forme du terme dominant dans les formules de perméabilité efficace utilisées en ingénierie. Ces résultats sont également confirmés par un calcul numérique direct de la perméabilité, dans lequel la petitesse du diamètre des fibres rend nécessaire le recours à des approximations de précision élevée.<br /><br />La définition des méthodes numériques efficaces pour approximer la solution des modèles mathématiques est envisagée dans la troisième partie. Précisément, concernant les équations de Darcy, nous avons utilisé la méthode des éléments finis mixtes hybrides. Pour la résolution de l'équation du transport, nous avons implémenté une méthode numérique utilisant des volumes finis pour la discrétisation du terme convection/réaction associé à une approximation mixte hybride pour la discrétisation du terme dispersif.
55

Voronoi diagrams of semi-algebraic sets

Anton, François 11 December 2003 (has links) (PDF)
La majorité des courbes et surfaces rencontrées dans la modélisation géométrique sont définies comme l'ensemble des solutions d'un système d'équations et d'inéquations algébriques (ensemble semi-algébrique). De nombreux problèmes dans différentes disciplines scientifiques font appel à des requètes de proximité telles que la recherche du ou des voisins les plus proches ou la quantification du voisinage de deux objets.<br /><br />Le diagramme de Voronoï d'un ensemble d'objets est une décomposition de l'espace en zones de proximité. La zone de proximité d'un objet est l'ensemble des points plus proches de cet objet que de tout autre objet. Les diagrammes de Voronoï permettent de répondre aux requètes de proximité après avoir identifié la zone de proximité à laquelle le point objet de la requète appartient. Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay. Seules les approximations par des coniques peuvent garantir un ordre de continuité approprié au niveau des points de contact, ce qui est nécessaire pour garantir l'exactitude du graphe de Delaunay.<br /><br />L'objectif théorique de cette thèse est la mise en évidence des propriétés algébriques et géométriques élémentaires de la courbe déplacée d'une courbe algébrique et de réduire le calcul semi-algébrique du graphe de Delaunay à des calculs de valeurs propres. L'objectif pratique de cette thèse est le calcul certifié du graphe de Delaunay pour des ensembles semi-algébriques de faible degré dans le plan euclidien.<br /><br />La méthodologie associe l'analyse par intervalles et la géométrie algébrique algorithmique. L'idée centrale de cette thèse est qu'un pré-traitement symbolique unique peut accélérer l'évaluation numérique certifiée du détecteur de conflits dans le graphe de Delaunay. Le pré-traitement symbolique est le calcul de l'équation implicite de la courbe déplacée généralisée d'une conique. La réduction du problème semi-algébrique de la détection de conflits dans le graphe de Delaunay à un problème d'algèbre linéaire a été possible grâce à la considération du sommet de Voronoï généralisé (un concept introduit dans cette thèse).<br /><br />Le calcul numérique certifié du graphe de Delaunay a été éffectué avec une librairie de résolution de systèmes zéro-dimensionnels d'équations et d'inéquations algébriques basée sur l'analyse d'intervalles (ALIAS). Le calcul certifié du graphe de Delaunay repose sur des théorèmes sur l'unicité de racines dans des intervalles donnés (Kantorovitch et Moore-Krawczyk). Pour les coniques, les calculs sont accélérés lorsque l'on ne considère que les équations implicites des courbes déplacées.
56

Contribution à la parallélisation de méthodes numériques à matrices creuses skyline. Application à un module de calcul de modes et fréquences propres de Systus

Bassomo, Pierre 12 July 1999 (has links) (PDF)
L'augmentation continue de la puissance des ordinateurs personnels (stations de travail ou PCs) et l'émergence de réseaux à haut débits fournissent de nouvelle opportunités de réalisation de machines parallèle à faible coût, en comparaison des machines parallèles traditionnelles. On peut aujourd 'hui construire de véritables machines parallèles en interconnectant des processeurs standards. Le fonctionnement de cet ensemble de processeurs en tant que machines parallèle est alors assuré par des logiciels tels que PVM et MPI. Quelle que soit la machine parallèle considérée, concevoir des applications parallèles impose, soit des outils de parallélisation automatique, soit un effort du programmeur suivant des méthodologies de programmation. Dans cette thèse, nous proposons une méthodologie de parallélisation des méthodes numériques. En général les méthodes numériques sont une chaîne d'algorithmes s'appelant les uns après les autres tout au long de leur exécution. A moins d'aborder leur parallélisation à partir du problème physique qu'elles traitent, par exemple par des techniques de décomposition de domaines, l'approche de parallélisation la plus réaliste est celle de type client/serveur.
57

Stabilisation et approximation de certains systèmes distribués par amortissement dissipatif et de signe indéfini

Abdallah, Farah 27 May 2013 (has links) (PDF)
Dans cette thèse, nous étudions l'approximation et la stabilisation de certaines équations d'évolution, en utilisant la théorie des semi-groups et l'analyse spectrale. Cette thèse est divisée en deux parties principales. Dans la première partie, comme dans [3, 4], nous considérons l'approximation des équations d'évolution du deuxième ordre modélisant les vibrations de structures élastiques. Il est bien connu que le système approché par éléments finis ou différences finies n'est pas uniformément exponentiellement ou polynomialement stable par rapport au paramètre de discrétisation, même si le système continu a cette propriété. Dans la première partie, notre objectif est d'amortir les modes parasites à haute fréquence en introduisant des termes de viscosité numérique dans le schéma d'approximation. Avec ces termes de viscosité, nous montrons la décroissance exponentielle ou polynomiale du schéma discret lorsque le problème continu a une telle décroissance et quand le spectre de l'opérateur spatial associé au problème conservatif satisfait la condition du gap généralisée. En utilisant le Théorème de Trotter-Kato, nous montrons la convergence de la solution discrète vers la solution continue. Quelques exemples sont également présentés.
58

L’arbre de régression multivariable et les modèles linéaires généralisés revisités : applications à l’étude de la diversité bêta et à l’estimation de la biomasse d’arbres tropicaux

Ouellette, Marie-Hélène 04 1900 (has links)
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres. / In ecology, in ecosystem services studies for example, descriptive, explanatory and predictive modelling all have relevance in different situations. Precise circumstances may require one or the other type of modelling; it is important to choose the method properly to insure that the final model fits the study’s goal. In this thesis, we first explore the explanatory power of the multivariate regression tree (MRT). This modelling technique is based on a recursive bipartitionning algorithm. The tree is fully grown by successive bipartitions and then it is pruned by resampling in order to reveal the tree providing the best predictions. This asymmetric analysis of two tables produces homogeneous groups in terms of the response that are constrained by splitting levels in the values of some of the most important explanatory variables. We show that to calculate the explanatory power of an MRT, an appropriate adjusted coefficient of determination must include an estimation of the degrees of freedom of the MRT model through an algorithm. This estimation of the population coefficient of determination is practically unbiased. Since MRT is based upon discontinuity premises whereas canonical redundancy analysis (RDA) models continuous linear gradients, the comparison of their explanatory powers enables one to distinguish between those two patterns of species distributions along the explanatory variables. The extensive use of RDA for the study of beta diversity motivated the comparison between its explanatory power and that of MRT. In an explanatory perspective again, we define a new procedure called a cascade of multivariate regression trees (CMRT). This procedure provides the possibility of computing an MRT model where an order is imposed to nested explanatory hypotheses. CMRT provides a framework to study the exclusive effect of a main and a subordinate set of explanatory variables by calculating their explanatory powers. The interpretation of the final model is done as in nested MANOVA. New information may arise from this analysis about the relationship between the response and the explanatory variables, for example interaction effects between the two explanatory data sets that were not evidenced by the usual MRT model. On the other hand, we study the predictive power of generalized linear models (GLM) to predict individual tropical tree biomass as a function of allometric shape variables. Particularly, we examine the capacity of gaussian and gamma error structures to provide the most precise predictions. We show that for a particular species, gamma error structure is superior in terms of predictive power. This study is part of a practical framework; it is meant to be used as a tool for managers who need to precisely estimate the amount of carbon recaptured by tropical tree plantations. Our conclusions could be integrated within a program of carbon emission reduction by land use changes.
59

Modélisation et Commande de structures FACTS : (Flexible Alternative CUITent Transmission System) Application au STATCOM (STATic COMpensator)

Petitclair, Patrice 16 July 1997 (has links) (PDF)
Le problème de la maîtrise du transport de l'énergie électrique a donné naissance au projet FACTS (Flexible Alternative Current Transmission System ! Pour améliorer la flexibilité des réseaux de transport existants. Le ST A TCOM (ST ATic COMD*~ n s ator) est un dispositif FACTS dédié à la compensation d'énergie réactive transitant sur le réseau . L'évolution des composants d'électronique de puissance a apporté des solutions technologiques pour la réalisation des structures onduleurs du STATCOM. En tenant compte des diverses structures présentées, un modèle dynnamique est construit en utilisant la théorie du modèle moyen généralisé. Il est ensuite validé avec le modèle topologique, lequel décrit le comportement fin de l'onduleur. Afin d' avoir un contrôle robuste du courant réactif du dispositif, une loi de commande non linéaire est élaborée à partir de la théorie de la linéarisation par bouclage. La linéarisation est obtenue au détriment des comportements dynamiques du courant actif et de la tension continue de l' onduleur. Une optimisation de la loi de conunande est proposée afin de maîtriser le comportement dynamique de toutes les variables du dispositif. Cette loi de commal1de est validée sur le modèle topologique après avoir abordé le problème des filtres de mesure. La mise en place de la linéarisation par bouclage nécessite une connaissance des valeurs des composants de la structure. Une estimation ainsi qu'une correction de l'erreur commise sur ces grandeurs sont alors proposées. Le modèle du ST A TCOM avec ses lois de commande est ensuite inséré dans un logiciel destiné à l' étude du comportement dynamique de réseaux (EUROSTAG). A cet effet, le modèle mis au point prend en compte le comportement dynamique de la structure du ST A TCOM, et apporte une richesse supplémentaire pour l 'étude dynamique des réseaux. L'intérêt de la loi de commande optimisée est nus en évidence comparativement aux solutions classiques.
60

Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance

Dutang, Christophe 31 May 2012 (has links) (PDF)
L'actuariat non-vie étudie les différents aspects quantitatifs de l'activité d'assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l'assuré, l'assureur et le marché, sur un marché d'assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l'assuré de renouveler ou non son contrat d'assurance avec son assureur actuel. La nécessitéd'un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d'un assureur contre le marché. Partant d'un modèle de marché à une période, un jeu d'assureurs est formulé, où l'existence et l'unicité de l'équilibre de Nash sont vérifiées. Les propriétés des primes d'équilibre sont étudiées pour mieux comprendre les facteurs clés d'une position dominante d'un assureur par rapport aux autres. Ensuite, l'intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d'être ruiné, de rester leader, de disparaître du jeu par manque d'assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d'équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d'optimisation pour la résolution des n sous-problèmes d'optimisation. Cette résolution sefait à l'aide d'une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d'équilibre de Nash généralisé. Ces équations nécessitent l'utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d'optimisation.Une étude de convergence et une comparaison des méthodes d'optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l'assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d'attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l'analyse structure de dépendance permet dequantifier l'écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète.

Page generated in 0.038 seconds