1 |
Composition automatique de musique à l'aide de réseaux de neurones récurrents et de la structure métriqueLapalme, Jasmin January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Utilisation de modèles à direction révélatrice unique pour les modèles de duréeBouaziz, Olivier 24 December 2010 (has links) (PDF)
Dans cette thèse, nous introduisons des méthodes de réduction de la dimension en présence de censures. Plus précisément, nous utilisons des modèles à direction révélatrice unique nous permettant de palier au fléau de la dimension. En particulier, ces modèles ont l'avantage de généraliser les modèles classiques qui reposent sur des hypothèses parfois difficiles à vérifier en pratique. C'est pourquoi dans une première partie, nous présentons un modèle à direction révélatrice unique portant sur la densité conditionnelle, tandis que dans une deuxième partie nous étudions un modèle de régression portant sur le processus de comptage des évènements récurrents. Nous utilisons alors à chaque fois un modèle à direction révélatrice unique, plus général que le modèle de Cox. Par ailleurs, dans ces deux contextes, nos procédures d'estimation prennent en compte les problèmes d'estimation dans les queues de distribution dûs à l'estimateur de Kaplan-Meier. Nos méthodes d'estimation nous permettent également de choisir les paramètres introduits dans notre modèle à partir des données.
|
3 |
Modèles multiplicatifs du risque pour des événements successifs en présence d’hétérogénéité / Multiplicative intensity models for successive events in the presence of heterogeneityPénichoux, Juliette 17 September 2012 (has links)
L'analyse du risque de survenue d'événements récurrents est une motivation majeure dans de nombreuses études de recherche clinique ou épidémiologique. En cancérologie, certaines stratégies thérapeutiques doivent être évaluées au cours d'essais randomisés où l'efficacité est mesurée à partir de la survenue d'événements successifs marquant la progression de la maladie. L'état de santé de patients infectés par le VIH évolue en plusieurs étapes qui ont pu être définies par la survenue d'événements cliniques successifs.Ce travail de thèse porte sur les modèles de régression du risque pour l'analyse de la survenue d'événements successifs. En pratique, la présence de corrélations entre les temps d'attente séparant les événements successifs est une hypothèse qui peut rarement être écartée d'emblée. L'objectif de la thèse porte sur le développement de modèles de régression permettant d'évaluer une telle corrélation. Dans ce cadre, la méthode le plus souvent utilisée suppose que la corrélation entre les délais successifs a pour origine une hétérogénéité aléatoire, non observée, entre sujets. Le modèle correspondant définit le risque instantané individuel en fonction d'un terme aléatoire, ou « fragilité », de distribution gamma et dont la variance quantifie l'hétérogénéité entre sujets et donc la corrélation entre délais d'un même sujet. Cependant, l'utilisation de ce modèle pour évaluer l'ampleur des corrélations présente l'inconvénient de conduire à une estimation biaisée de la variance de la fragilité.Une première approche a été définie pour deux événements successifs dans une échelle de temps « par intervalles », c'est-à-dire où le risque est exprimé en fonction du temps écoulé depuis l'événement précédent. L'approche mise au point a été obtenue à partir d'une approximation du risque de second événement conditionnellement au premier délai dans un modèle à fragilité pour plusieurs distributions de fragilité. Une seconde approche a été définie en échelle de temps « calendaire », où le risque est exprimé en fonction du temps écoulé depuis le début du suivi du sujet. L'approche retenue a été obtenue à partir d'une approximation de l'intensité conditionnelle au passé dans un modèle à fragilité. Dans les deux échelles de temps, l'approche mise au point consiste à introduire une covariable interne, calculée sur le passé du processus, qui correspond à la différence entre le nombre d'événements observés pour le sujet sur la période passée, et le nombre attendu d'événements pour ce sujet sur la même période compte tenu de ses covariables externes. Une revue de la littérature des études de simulations a montré que le cas d'une hétérogénéité dans la population face au risque d'événement était souvent envisagé par les auteurs. En revanche, dans beaucoup d'études de simulations, le cas d'un risque dépendant du temps, ou d'une dépendance entre événements, n'étaient pas considérés. Des études de simulations ont permis de montrer dans les deux échelles de temps considérées un gain de puissance du test mis au point par rapport au test d'homogénéité correspondant au modèle à fragilité gamma. Ce gain est plus marqué en échelle de temps par intervalles. Par ailleurs, dans cette échelle de temps, le modèle proposé permet une amélioration de l'estimation de la variance de la fragilité dans le cas d'une hétérogénéité faible ou modérée, plus particulièrement pour de petits échantillons.L'approche développée en échelle de temps par intervalles a été utilisée pour analyser les données d'une cohorte de patients infectés par le VIH, montrant une corrélation négative entre le délai entre infection et première manifestation mineure d'immunodéficience et le délai entre première manifestation mineure d'immunodéficience et stade SIDA déclaré. / The risk analysis for the occurrence of recurrent events is a major concern in many clinical research studies or epidemiological studies. In the field of oncology, therapeutic strategies are evaluated in randomised clinical trials in which efficacy is assessed through the occurrence of sequential events that define the progression of the disease. In HIV-infected patients, the infection evolves in several stages that have been defined by the occurrence of successive clinical events. The frame of this work is the regression models for the risk of multiple successive events. In practice, the hypothesis of existing correlations between the inter-event times cannot be a priori discarded. The aim of this work is to develop a regression model that would assess such correlations. In this setting, the most common method is to assume that correlations between inter-event times are induced by a random, unobserved heterogeneity across individuals. The corresponding model defines the individual hazard as a function of a random variable, or " frailty ", assumed to be gamma-distributed with a variance that quantifies the heterogeneity across individuals and incidentally the correlations between inter-event times. However, the use of this model when evaluating the correlations has the drawback that it tends to underestimate the variance of the frailty.A first approach was proposed for two sequential events in a "gap-timescale", in which the risk is defined as a function of the time elapsed since the previous event. The proposed method was derived from an approximation of the risk of second event given the first time-to-event in a frailty model for various frailty distributions. Another approach was defined in "calendar-time", in which the risk is expressed as a function of the time elapsed since the beginning of the subject's follow-up. The proposed method was derived from an approximation of the intensity conditional on the past in a frailty model. In both timescales, the method that was developed consists in including in the model an internal covariate, that is calculated on the history of the process, and that corresponds to the difference between the observed number of events and the expected number of events in the past period given the individual's other covariates.A review of the literature involving simulation studies showed that when defining the generation processes, most authors considered the case of heterogeneity in the population. However, in many simulation studies, only constant hazards are considered, and no event-dependence is introduced. Simulations studies showed that in both timescales, the test of the effect of the internal covariate in the proposed model proved more powerful that the usual test of homogeneity in the gamma frailty model. This gain of power is more noticeable in gap-time. Additionally, in this timescale, the proposed model provides a better estimation of the variance of the frailty when heterogeneity is low or moderate, more particularly in small samples.The method developed in gap-time was used to analyse data from a cohort of HIV-infected patients. It showed a negative correlation between the time from infection to first minor manifestation of immunodeficiency and the time from first minor manifestation of immunodeficiency to AIDS. The method developed in calendar-time was used to study the occurrence of repeated progressions and severe toxicities in a clinical trial for patients with advanced colorectal cancer. In this example, the method corroborated the results obtained with a gamma frailty model which showed a significant heterogeneity.
|
4 |
Une extension du processus de Yule pour la modélisation stochastique des événements récurrents. Application aux défaillances de canalisations d'eau sous pression.Le Gat, Yves 11 December 2009 (has links) (PDF)
Une extension du processus de Yule est proposée à but de modélisation stochastique des événements récurrents. Une formule analytique est démontrée pour la distribution du nombre d'événements conditionnelle au nombre d'événements passés ; cette distribution est importante pour modéliser un processus réel observé sur un intervalle de temps borné quelconque. La dépendance linéaire entre intensité du processus et rang de l'événement conduit à la distribution binomiale négative du processus de comptage. La fonction de vraisemblance du modèle LEYP (Linear Extended Yule Process) connaissant une séquence d'événements est construite afin d'estimer les paramètres. Est ensuite établie la forme particulière (binomiale négative) que prend la probabilité du nombre d'événements dans un intervalle donné, conditionnelle au nombre d'événements dans un intervalle antérieur ; ce résultat est indispensable pour valider le modèle, et effectuer des prévisions. Si la durée de vie du système est limitée par le nombre d'événements subis, les données d'observation peuvent être biaisées par un phénomène de survie sélective, et la survie du système doit être prise en compte pour construire la fonction de vraisemblance. L'estimation des paramètres est étudiée par simulations sur ordinateur. Il est montré comment simuler une séquence d'événements distribués selon un LEYP, estimer les paramètres en maximisant leur fonction de vraisemblance, prédire le nombres d'événements, et valider ces prévisions en établissant une courbe de performance prédictive. Le modèle LEYP est enfin mis en oeuvre sur des exemples réels de données de défaillance, et son efficacité pratique est mise en évidence.
|
5 |
Identification de systèmes dynamiques non linéaires par réseaux de neurones et multimodèlesThiaw, Lamine 28 January 2008 (has links) (PDF)
Cette étude traite de l'identification de système dynamique non-linéaire. Une architecture multimodèle capable de surmonter certaines difficultés de l'architecture neuronale de type MLP a été étudiée. L'approche multimodèle consiste à représenter un système complexe par un ensemble de modèles de structures simples à validité limitée dans des zones bien définies. A la place de la structure affine des modèles locaux généralement utilisée, cette étude propose une structure polynômiale plus générale, capable de mieux appréhender les non-linéarités locales, réduisant ainsi le nombre de modèles locaux. L'estimation paramétrique d'une telle architecture multimodèle peut se faire suivant une optimisation linéaire, moins coûteuse en temps de calcul que l'estimation paramétrique utilisée dans une architecture neuronale. L'implantation des multimodèles récurrents, avec un algorithme d'estimation paramétrique plus souple que l'algorithme de rétro-propagation du gradient à travers à travers le temps utilisé pour le MLP récurrent a également été effectuée. Cette architecture multimodèle permet de représenter plus facilement des modèles non-linéaires bouclés tels que les modèles NARMAX et NOE. La détermination du nombre de modèles locaux dans une architecture multimodèle nécessite la décomposition (le partitionnement) de l'espace de fonctionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement du système en plusieurs sous-espaces où sont définies les modèles locaux. Des modes de partitionnement flou (basé sur les algorithmes de "fuzzy-c-means", de "Gustafson et Kessel" et du "substractive clustering") ont été présentés. L'utilisation de telles méthodes nécessite l'implantation d'une architecture multimodèle où les modèles locaux peuvent être de structures différentes : polynômiales de degrés différents, neuronale ou polynômiale et neuronale. Une architecture multimodèle hétérogène répondant à ses exigences a été proposée, des algorithmes d'identification structurelles et paramétriques ont été présentés. Une étude comparative entre les architectures MLP et multimodèle a été menée. Le principal atout de l'architecture mudltimodèle par rapport à l'architecture neuronale de type MLP est la simplicité de l'estimation paramétrique. Par ailleurs, l'utilisation dans une architecture multimodèle d'un mode de partitionnement basé sur la classification floue permet de déterminer facilement le nombre de modèles locaux, alors que la détermination du nombre de neurones cachés pour une architecture MLP reste une tâche difficile.
|
6 |
Modélisation conjointe d'événements récurrents et d'un événement terminal : applications aux données de cancer / Joint modelling for recurrent events and a dependent terminal event : application to cancer dataMazroui, Yassin 27 November 2012 (has links)
Ce travail a eu pour objectif de proposer des modèles conjoints d'intensités de processus d'événements récurrents et d'un événement terminal dépendant. Nous montrons que l'analyse séparée de ces événements conduit à des biais d'estimation importants. C'est pourquoi il est nécessaire de prendre en compte les dépendances entre les différents événements d'intérêt. Nous avons choisi de modéliser ces dépendances en introduisant des effets aléatoires (ou fragilités) et de travailler sur la structure de dépendance. Ces effets aléatoires prennent en compte les dépendances entre événements, les dépendances inter-récurrences et l'hétérogénéité non-observée. Nous avons, en premier lieu, développé un modèle conjoint à fragilités pour un type d'événement récurrent et un événement terminal dépendant en introduisant deux effets aléatoires indépendants pour prendre en compte et distinguer la dépendance inter-récurrences et celle entre les risques d'événements récurrents et terminal. Ce modèle a été ajusté pour des données de patients atteints de lymphome folliculaire où les événements d'intérêt sont les rechutes et le décès. Le second modèle développé permet de modéliser conjointement deux types d'événements récurrents et un événement terminal dépendant en introduisant deux effets aléatoires corrélés et deux paramètres de flexibilités. Ce modèle s'avère adapté pour l'analyse des risques de récidives locorégionales, de récidives métastatiques et de décès chez des patientes atteintes de cancer du sein. Nous confirmons ainsi que le décès est lié aux récidives métastatiques mais pas aux récidives locorégionales tandis que les deux types de récidives sont liés. Cependant ces approches font l'hypothèse de proportionnalité des intensités conditionnellement aux fragilités, que nous allons tenter d'assouplir. Dans un troisième travail, nous proposons de modéliser un effet potentiellement dépendant du temps des covariables en utilisant des fonctions B-Splines. / This work aimed to propose joint models for recurrent events and a dependent terminal event. We show how separate analyses of these events could lead to important biases. That is why it seems necessary to take into account the dependencies between events of interest. We choose to model these dependencies through random effects (or frailties) and work on the dependence structure. These random effects account for dependencies between events, inter-dependence recurrences and unobserved heterogeneity. We first have developed a joint frailty model for one type of recurrent events and a dependent terminal event with two independent random effects to take into account and distinguish the inter-recurrence dependence and between recurrent events and terminal event. This model was applied to follicular lymphoma patient’s data where events of interest are relapses and death. The second proposed model is used to model jointly two types of recurrent events and a dependent terminal event by introducing two correlated random effects and two flexible parameters. This model is suitable for analysis of locoregional recurrences, metastatic recurrences and death for breast cancer patients. It confirms that the death is related to metastatic recurrence but not locoregional recurrence while both types of recurrences are related. However, these approaches do the assumption of proportional intensities conditionally on frailties, which we want to relax. In a third study, we propose to model potentially time-dependent regression coefficient using B-splines functions.
|
7 |
Architectures matérielles numériques intégrées et réseaux de neurones à codage parcimonieux / Integrated digital hardware architectures and networks of neurons coding parsimoniousNono Wouafo, Hugues Gérald 15 January 2016 (has links)
De nos jours, les réseaux de neurones artificiels sont largement utilisés dans de nombreusesapplications telles que le traitement d’image ou du signal. Récemment, un nouveau modèlede réseau de neurones a été proposé pour concevoir des mémoires associatives, le GBNN(Gripon-Berrou Neural Network). Ce modèle offre une capacité de stockage supérieure àcelle des réseaux de Hopfield lorsque les informations à mémoriser ont une distributionuniforme. Des méthodes améliorant leur performance pour des distributions non-uniformesainsi que des architectures matérielles mettant en œuvre les réseaux GBNN ont étéproposés. Cependant, ces solutions restent très coûteuses en ressources matérielles, et lesarchitectures proposées sont restreintes à des réseaux de tailles fixes et sont incapables depasser à l’échelle.Les objectifs de cette thèse sont les suivants : (1) concevoir des modèles inspirés du modèle GBNN et plus performants que l’état de l’art, (2) proposer des architectures moins coûteusesque les solutions existantes et (3) concevoir une architecture générique configurable mettanten œuvre les modèles proposés et capable de manipuler des réseaux de tailles variables.Les résultats des travaux de thèse sont exposés en plusieurs parties. Le concept de réseaux àclones de neurone et ses différentes instanciations sont présentés dans un premier temps. Cesréseaux offrent de meilleures performances que l’état de l’art pour un coût mémoireidentique lorsqu’une distribution non-uniforme des informations à mémoriser estconsidérée. Des optimisations de l’architecture matérielle sont ensuite introduites afin defortement réduire le coût en termes de ressources. Enfin, une architecture générique capablede passer à l’échelle et capable de manipuler des réseaux de tailles variables est proposée. / Nowadays, artificial neural networks are widely used in many applications such as image and signal processing. Recently, a new model of neural network was proposed to design associative memories, the GBNN (Gripon-Berrou Neural Network). This model offers a storage capacity exceeding those of Hopfield networks when the information to be stored has a uniform distribution. Methods improving performance for non-uniform distributions and hardware architectures implementing the GBNN networks were proposed. However, on one hand, these solutions are very expensive in terms of hardware resources and on the other hand, the proposed architectures can only implement fixed size networks and are not scalable. The objectives of this thesis are: (1) to design GBNN inspired models outperforming the state of the art, (2) to propose architectures cheaper than existing solutions and (3) to design a generic architecture implementing the proposed models and able to handle various sizes of networks. The results of these works are exposed in several parts. Initially, the concept of clone based neural networks and its variants are presented. These networks offer better performance than the state of the art for the same memory cost when a non-uniform distribution of the information to be stored is considered. The hardware architecture optimizations are then introduced to significantly reduce the cost in terms of resources. Finally, a generic scalable architecture able to handle various sizes of networks is proposed.
|
8 |
Réseaux de neurones récurrents pour le traitement automatique de la parole / Speech processing using recurrent neural networksGelly, Grégory 22 September 2017 (has links)
Le domaine du traitement automatique de la parole regroupe un très grand nombre de tâches parmi lesquelles on trouve la reconnaissance de la parole, l'identification de la langue ou l'identification du locuteur. Ce domaine de recherche fait l'objet d'études depuis le milieu du vingtième siècle mais la dernière rupture technologique marquante est relativement récente et date du début des années 2010. C'est en effet à ce moment qu'apparaissent des systèmes hybrides utilisant des réseaux de neurones profonds (DNN) qui améliorent très notablement l'état de l'art. Inspirés par le gain de performance apporté par les DNN et par les travaux d'Alex Graves sur les réseaux de neurones récurrents (RNN), nous souhaitions explorer les capacités de ces derniers. En effet, les RNN nous semblaient plus adaptés que les DNN pour traiter au mieux les séquences temporelles du signal de parole. Dans cette thèse, nous nous intéressons tout particulièrement aux RNN à mémoire court-terme persistante (Long Short Term Memory (LSTM) qui permettent de s'affranchir d'un certain nombre de difficultés rencontrées avec des RNN standards. Nous augmentons ce modèle et nous proposons des processus d'optimisation permettant d'améliorer les performances obtenues en segmentation parole/non-parole et en identification de la langue. En particulier, nous introduisons des fonctions de coût dédiées à chacune des deux tâches: un simili-WER pour la segmentation parole/non-parole dans le but de diminuer le taux d'erreur d'un système de reconnaissance de la parole et une fonction de coût dite de proximité angulaire pour les problèmes de classification multi-classes tels que l'identification de la langue parlée. / Automatic speech processing is an active field of research since the 1950s. Within this field the main area of research is automatic speech recognition but simpler tasks such as speech activity detection, language identification or speaker identification are also of great interest to the community. The most recent breakthrough in speech processing appeared around 2010 when speech recognition systems using deep neural networks drastically improved the state-of-the-art. Inspired by this gains and the work of Alex Graves on recurrent neural networks (RNN), we decided to explore the possibilities brought by these models on realistic data for two different tasks: speech activity detection and spoken language identification. In this work, we closely look at a specific model for the RNNs: the Long Short Term Memory (LSTM) which mitigates a lot of the difficulties that can arise when training an RNN. We augment this model and introduce optimization methods that lead to significant performance gains for speech activity detection and language identification. More specifically, we introduce a WER-like loss function to train a speech activity detection system so as to minimize the word error rate of a downstream speech recognition system. We also introduce two different methods to successfully train a multiclass classifier based on neural networks for tasks such as LID. The first one is based on a divide-and-conquer approach and the second one is based on an angular proximity loss function. Both yield performance gains but also speed up the training process.
|
9 |
Modélisation de la dépendance et apprentissage automatique dans le contexte du provisionnement individuel et de la solvabilité en actuariat IARDChaoubi, Ihsan 13 December 2023 (has links)
Les compagnies d'assurance jouent un rôle important dans l'économie des pays en s'impliquant de façon notable dans les marchés boursiers, obligataires et immobiliers, d'où la nécessité de préserver leur solvabilité. Le cycle spécifique de production en assurance amène des défis particuliers aux actuaires et aux gestionnaires de risque dans l'accomplissement de leurs tâches. Dans cette thèse, on a pour but de développer des approches et des algorithmes susceptibles d'aider à résoudre certaines problématiques liées aux opérations de provisionnement et de solvabilité d'une compagnie d'assurance. Les notions préliminaires pour ces contributions sont présentées dans l'introduction de cette thèse. Les modèles de provisionnement traditionnels sont fondés sur des informations agrégées. Ils ont connu un grand succès, comme en témoigne le nombre important d'articles et documents actuariels connexes. Cependant, en raison de la perte d'informations individuelles des sinistres, ces modèles représentent certaines limites pour fournir des estimations robustes et réalistes dans des contextes susceptibles d'évoluer. Dans ce sens, les modèles de réserve individuels représentent une alternative prometteuse. En s'inspirant des récentes recherches, on propose dans le Chapitre 1 un modèle de réserve individuel basé sur un réseau de neurones récurrent. Notre réseau a l'avantage d'être flexible pour plusieurs structures de base de données détaillés des sinistres et capable d'incorporer plusieurs informations statiques et dynamiques. À travers plusieurs études de cas avec des jeux de données simulés et réels, le réseau proposé est plus performant que le modèle agrégé chain-ladder. La détermination des exigences de capital pour un portefeuille repose sur une bonne connaissance des distributions marginales ainsi que les structures de dépendance liants les risques individuels. Dans les Chapitres 2 et 3 on s'intéresse à la modélisation de la dépendance et à l'estimation des mesures de risque. Le Chapitre 2 présente une analyse tenant compte des structures de dépendance extrême. Pour un portefeuille à deux risques, on considère en particulier à la dépendance négative extrême (antimonotonocité) qui a été moins étudiée dans la littérature contrairement à la dépendance positive extrême (comonotonocité). On développe des expressions explicites pour des mesures de risque de la somme d'une paire de variables antimontones pour trois familles de distributions. Les expressions explicites obtenues sont très utiles notamment pour quantifier le bénéfice de diversification pour des risques antimonotones. Face à une problématique avec plusieurs lignes d'affaires, plusieurs chercheurs et praticiens se sont intéressés à la modélisation en ayant recours à la théorie des copules au cours de la dernière décennie. Cette dernière fournit un outil flexible pour modéliser la structure de dépendance entre les variables aléatoires qui peuvent représenter, par exemple, des coûts de sinistres pour des contrats d'assurance. En s'inspirant des récentes recherches, dans le Chapitre 3, on définit une nouvelle famille de copules hiérarchiques. L'approche de construction proposée est basée sur une loi mélange exponentielle multivariée dont le vecteur commun est obtenu par une convolution descendante de variables aléatoires indépendantes. En se basant sur les mesures de corrélation des rangs, on propose un algorithme de détermination de la structure, tandis que l'estimation des paramètres est basée sur une vraisemblance composite. La flexibilité et l'utilité de cette famille de copules est démontrée à travers deux études de cas réelles. / Insurance companies play an essential role in the countries economy by monopolizing a large part of the stock, bond, and estate markets, which implies the necessity to preserve their solvency and sustainability. However, the particular production cycle of the insurance industry may involve typical problems for actuaries and risk managers. This thesis project aims to develop approaches and algorithms that can help solve some of the reserving and solvency operations problems. The preliminary concepts for these contributions are presented in the introduction of this thesis. In current reserving practice, we use deterministic and stochastic aggregate methods. These traditional models based on aggregate information have been very successful, as evidenced by many related actuarial articles. However, due to the loss of individual claims information, these models represent some limitations in providing robust and realistic estimates, especially in variable settings. In this context, individual reserve models represent a promising alternative. Based on the recent researches, in Chapter 1, we propose an individual reserve model based on a recurrent neural network. Our network has the advantage of being flexible for several detailed claims datasets structures and incorporating several static and dynamic information. Furthermore, the proposed network outperforms the chain-ladder aggregate model through several case studies with simulated and real datasets. Determining the capital requirements for a portfolio relies on a good knowledge of the marginal distributions and the dependency structures linking the individual risks. In Chapters 2 and 3, we focus on the dependence modeling component as well as on risk measures. Chapter 2 presents an analysis taking into account extreme dependence structures. For a two-risk portfolio, we are particularly interested in extreme negative dependence (antimonotonicity), which has been less studied in the literature than extreme positive dependence (comonotonicity). We develop explicit expressions for risk measures of the sum of a pair of antimonotonic variables for three families of distributions. The explicit expressions obtained are very useful, e.g., to quantify the diversification benefit for antimonotonic risks. For a problem with several lines of business, over the last decade, several researchers and practitioners have been interested in modeling using copula theory. The latter provides a flexible tool for modeling the dependence structure between random variables that may represent, for example, claims costs for insurance contracts. Inspired by some recent researches, in Chapter 3, we define a new family of hierarchical copulas. The proposed construction approach is based on a multivariate exponential mixture distribution whose common vector is obtained by a top-down convolution of independent random variables. A structure determination algorithm is proposed based on rank correlation measures, while the parameter estimation is based on a composite likelihood. The flexibility and usefulness of this family of copulas are demonstrated through two real case studies.
|
10 |
Modèles multiplicatifs du risque pour des événements successifs en présence d'hétérogénéitéPénichoux, Juliette 17 September 2012 (has links) (PDF)
L'analyse du risque de survenue d'événements récurrents est une motivation majeure dans de nombreuses études de recherche clinique ou épidémiologique. En cancérologie, certaines stratégies thérapeutiques doivent être évaluées au cours d'essais randomisés où l'efficacité est mesurée à partir de la survenue d'événements successifs marquant la progression de la maladie. L'état de santé de patients infectés par le VIH évolue en plusieurs étapes qui ont pu être définies par la survenue d'événements cliniques successifs.Ce travail de thèse porte sur les modèles de régression du risque pour l'analyse de la survenue d'événements successifs. En pratique, la présence de corrélations entre les temps d'attente séparant les événements successifs est une hypothèse qui peut rarement être écartée d'emblée. L'objectif de la thèse porte sur le développement de modèles de régression permettant d'évaluer une telle corrélation. Dans ce cadre, la méthode le plus souvent utilisée suppose que la corrélation entre les délais successifs a pour origine une hétérogénéité aléatoire, non observée, entre sujets. Le modèle correspondant définit le risque instantané individuel en fonction d'un terme aléatoire, ou " fragilité ", de distribution gamma et dont la variance quantifie l'hétérogénéité entre sujets et donc la corrélation entre délais d'un même sujet. Cependant, l'utilisation de ce modèle pour évaluer l'ampleur des corrélations présente l'inconvénient de conduire à une estimation biaisée de la variance de la fragilité.Une première approche a été définie pour deux événements successifs dans une échelle de temps " par intervalles ", c'est-à-dire où le risque est exprimé en fonction du temps écoulé depuis l'événement précédent. L'approche mise au point a été obtenue à partir d'une approximation du risque de second événement conditionnellement au premier délai dans un modèle à fragilité pour plusieurs distributions de fragilité. Une seconde approche a été définie en échelle de temps " calendaire ", où le risque est exprimé en fonction du temps écoulé depuis le début du suivi du sujet. L'approche retenue a été obtenue à partir d'une approximation de l'intensité conditionnelle au passé dans un modèle à fragilité. Dans les deux échelles de temps, l'approche mise au point consiste à introduire une covariable interne, calculée sur le passé du processus, qui correspond à la différence entre le nombre d'événements observés pour le sujet sur la période passée, et le nombre attendu d'événements pour ce sujet sur la même période compte tenu de ses covariables externes. Une revue de la littérature des études de simulations a montré que le cas d'une hétérogénéité dans la population face au risque d'événement était souvent envisagé par les auteurs. En revanche, dans beaucoup d'études de simulations, le cas d'un risque dépendant du temps, ou d'une dépendance entre événements, n'étaient pas considérés. Des études de simulations ont permis de montrer dans les deux échelles de temps considérées un gain de puissance du test mis au point par rapport au test d'homogénéité correspondant au modèle à fragilité gamma. Ce gain est plus marqué en échelle de temps par intervalles. Par ailleurs, dans cette échelle de temps, le modèle proposé permet une amélioration de l'estimation de la variance de la fragilité dans le cas d'une hétérogénéité faible ou modérée, plus particulièrement pour de petits échantillons.L'approche développée en échelle de temps par intervalles a été utilisée pour analyser les données d'une cohorte de patients infectés par le VIH, montrant une corrélation négative entre le délai entre infection et première manifestation mineure d'immunodéficience et le délai entre première manifestation mineure d'immunodéficience et stade SIDA déclaré.
|
Page generated in 0.0184 seconds