• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 1
  • Tagged with
  • 15
  • 15
  • 15
  • 15
  • 6
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation de la taille de la population dans les expériences de capture-recapture

Yauck, Mamadou January 2019 (has links)
La thèse présentée ici traite du problème de l'estimation de la taille de la population dans les modèles de capture-recapture. Elle s'intéresse, en particulier, à la question de l'estimation de la taille de la population dans le cadre d'une expérience de capture-recapture à structure d'échantillonnage imbriquée, qui combine les méthodes de population fermée à l'intérieur des périodes primaires (PP) et de population ouverte d'une PP à une autre : le design robuste. Cette thèse propose une méthodologie d'estimation de la taille de la population et de l'incertitude associée aux estimateurs obtenus dans le contexte du design robuste. Dans un premier temps, on aborde le problème de l'estimation des paramètres du design robuste dans le cas d'un nombre suffisamment élevé d'occasions de capture. On généralise le papier fondamental de Jolly (1965) au design robuste en proposant une procédure séquentielle d'estimation des paramètres pour la classe des modèles de design robuste présentés dans Rivest and Daigle (2004) et un estimateur de la variance des paramètres par bootstrap paramétrique. Ces résultats théoriques ont été appliqués à des données d'activation d'applications sur les téléphones intelligents. Les données sont recueillies sur une période d'un an et demi et concernent des utilisateurs de téléphones intelligents qui ont visité un grand concessionnaire automobile basé aux États-Unis. Dans un deuxième temps, on s'intéresse à l'estimation de la taille de la population à partir de deux sources d'information du design robuste: les données à l'intérieur d'une PP (ou intra-période) et les données d'une PP à une autre (ou inter-période). On démontre que les estimateurs de la taille de la population obtenus avec les informations intra-période et inter-période sont asymptotiquement indépendants pour une large classe de modèles de population fermée à l'intérieur des PP. Ainsi, l'estimateur du maximum de vraisemblance pour la taille de la population dans le cas du design robuste est asymptotiquement équivalent à un estimateur pondéré pour le modèle de population ouverte et le modèle de population fermée. On montre que l'estimateur pondéré diffère de celui donné dans Kendall et al. (1995); on démontre que leur estimateur n'est pas efficace, puis on donne une formule explicite pour son efficacité comparativement à l'estimateur pondéré. La perte d'efficacité est ensuite évaluée dans une étude de simulation, puis à travers un exemple tiré de Santostasi et al. (2016) et qui traite de l'estimation de la taille de la population d'une espèce de dauphins vivant dans le Golfe de Corinthe (Grèce). Enfin, on se propose d'étendre les résultats du problème précédent aux modèles de design robuste présentés dans Kendall et al. (1995) et implémentés dans MARK (White and Burnham, 1999). Dans le contexte du design robuste, on dérive l'estimateur du maximum de vraisemblance pour la taille de la population; on propose également trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur. On démontre ensuite que l'estimateur du maximum de vraisemblance pour la taille de la population est plus efficace que l'estimateur des moments proposé par Kendall et al. (1995); la perte d'efficacité de l'estimateur de Kendall ainsi que la performance des trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur du maximum de vraisemblance sont évaluées via une étude de simulation. / This thesis deals with the capture-recapture estimation of population sizes under a hierarchical study design where a capture-recapture experiment, involving secondary capture occasions, is carried out within each sampling period (SP) of an open population model: the robust design. This thesis proposes a methodology for the estimation of population sizes under the robust design and the uncertainty associated with the estimators. The first problem deals with the estimation of the parameters of a robust design with an arbitrary large number of capture occasions. To do so, we generalize the seminal paper of Jolly (1965) to the robust design and propose a sequential estimation procedure for the class of robust design models presented in Rivest and Daigle (2004). A simple parametric bootstrap variance estimator for the model parameters is also proposed. These results are used to analyze a data set about the mobile devices that visited the auto-dealerships of a major auto brand in a US metropolitan area over a period of one year and a half. The second problem deals with the estimation of population sizes using two sources of information for the robust design: the within and the between primary period data. We prove that the population size estimators derived from the two sources are asymptotically independent for a large class of closed population models. In this context, the robust design maximum likelihood estimator of population size is shown to be asymptotically equivalent to a weighted sum of the estimators for the open population Jolly-Seber model (Jolly 1965; Seber 1965) and for the closed population model. This article shows that the weighted estimator is more efficient than the moment estimator of Kendall et al.(1995). A closed form expression for the efficiency associated with this estimator is given and the loss of precision is evaluated in a MonteCarlo study and in a numerical example about the estimation of the size of dolphin populations living in the Gulf of Corinth (Greece) and discussed by Santostasi et al. (2016). The third problem deals with the estimation of population sizes under the robust design models presented in Kendall et al. (1995) and implemented in MARK (White and Burnham, 1999). We derive the maximum likelihood estimator for the population size and propose three methods of estimation for its uncertainty. We prove that the derived maximum likelihood estimator is more efficient than the moment estimator provided in Kendall et al. (1995). The loss of precision associated with the Kendall estimator and the performance of the three methods of estimation for the variance of the maximum likelihood estimator are evaluated in a MonteCarlo study.
2

Résolution itérative de problèmes de contact frottant de grande taille

Diop, Thierno 24 May 2019 (has links)
La résolution des problèmes de contact avec frottement est d’une grande importance dans beaucoup d’applications en ingénierie. Pour ces applications, la précision et l’optimisation du temps de calcul sont des contraintes impératives mais souvent contradictoires. Les problèmes industriels portent généralement sur des géométries complexes et tridimensionnelles composées de matériaux au comportement non linéaire. De ce fait, si on utilise la méthode des éléments finis, ils mènent à des problèmes discrets non linéaires et de grande taille. Ces derniers, après linéarisation, entraînent des systèmes algébriques de plusieurs milliers voire de millions d’inconnues ne pouvant être résolus que par des méthodes itératives. Ceci implique que les méthodes fréquemment utilisées, la pénalisation et le lagrangien augmenté, ne peuvent être considérées en raison du mauvais conditionnement de la matrice sous-jacente donc de leur effet négatif sur la convergence des méthodes itératives. Nous proposerons une approche itérative efficace pour résoudre les problèmes de contact associés à des applications industrielles : une résolution permettant d’avoir des résultats numériques précis en un temps de calcul acceptable. Cette approche sera basée sur la méthode des multiplicateurs de Lagrange et une méthode de résolution du système linéaire associé qui n’est pas tout à fait standard. Cette dernière s’insère dans un processus itératif à plusieurs niveaux qui représente la principale contribution de la thèse. Nous présenterons la stratégie adoptée qui est différente de celles de la littératurepour la résolution des problèmes de types point de selle et en ferons une étude complète. Pour valider notre approche, nous étudierons des exemples numériques académiques de problèmes de contact classiques. Nous présenterons aussi des problèmes industriels de très grande taille afin d’illustrer l’efficacité, la précision et la performance en temps de calcul de la méthode développée dans cette thèse. / Solving friction contact problems is of great importance in many engineering applications. For these applications, the accuracy and the optimization of the calculation cost are imperative but often contradictory. Industrial problems generally involve complex and three-dimensional geometries composed of materials that exhibit non-linear behavior. Consequently, using the finite element method, they lead to large-scale non linear discrete problems and, after linearization, to algebraic systems of several thousand or even millions of unknowns and ultimately tocalculations needing iterative methods. This implies that the frequently used methods, the penalization and the augmented Lagrangian, are to be banned because of their negative effect on the condition number of the underlying discrete systems and thus on the convergence of theiterative methods. We will propose an efficient iterative approach to solve the contact problems associated with industrial applications: a resolution allowing to have accurate numerical results in an acceptable computation time.This approach will be based on the method of Lagrange multiplier and a method for solving the associated linear system that is not quite standard. The latter is part of an iterative, multi-level process that represents the main contribution of the thesis. We will present the adopted strategy, which is different from what is found in the literature, for the resolution of saddle-type problems and will make a complete study of it. To validate our approach, we will study academic numerical examples of classical contact problems. We will also present some large-scale industrial problems in order to illustrate the efficiency, accuracy and computation performance of the method developed in this thesis.
3

Problèmes isopérimétriques et isospectralité pour le problème de Steklov

Brisson, Jade 20 December 2019 (has links)
En géométrie spectrale, on s’intéresse aux liens entre le spectre d’une variété riemannienne et sa géométrie. On recherche notamment des bornes supérieures et inférieures pour les va-leurs propres qui font intervenir des quantités géométriques, comme l’aire et le périmètre. On se questionne aussi sur l’isospectralité : Quelles sont les variétés riemanniennes non iso-métriques qui possèdent le même spectre ? Au cours des dernières années, le problème de Steklov, problème introduit au tout début du 20e siècle en mécanique des fluides, a suscité l’intérêt de plusieurs mathématiciens. Le but de ce mémoire est de donner une banque de variétés riemanniennes Steklov-isospectrales. On y présente aussi une preuve d’une borne supérieure pour la première valeur propre de Steklov pour un domaine borné du plan, sans hypothèse sur sa connexité. / In spectral geometry, we are interested in the links between the spectrum of a Riemannian manifold and its geometry. We are looking for geometric upper and lower bounds for the eigenvalues. These bounds are geometric, for they involve geometric quantities such as area and perimeter. Isospectrality is also a subject of interest in spectral geometry: What are thenon isometric Riemannian manifolds that share the same spectrum? In the last few years, the Steklov problem, introduced in the beginning of the 20th century in fluid mechanics, raised the interest of many mathematicians. In this memoir, we present a bank of Steklov-isospectral Riemannian manifolds. We also give a proof of an upper bound for the first Steklov eigenvalue for a bounded domain of the plane without any connectedness assumption.
4

Lower bounds for the Steklov eigenvalue problem

Davoudi, Salman 17 April 2019 (has links)
Le problème de Steklov est un problème spectral qui provient de la mécanique des fluides. C’est un problème de valeur propre dont les paramètres spectraux sont dans la condition au bord. Son spectre coïncide avec celui de l’opérateur de Dirichlet-Neumann. Le spectre du problème de Steklov est discret lorsque l’opérateur de trace est compact, ce qui est le cas lorsque la frontière du domaine est lipschitzienne. Dans ce mémoire, nous prouvons de deux manières différentes l’effondrement vers 0 du spectre de Steklov pour un domaine en forme d’haltère dégénérant vers deux disques. On se concentre par la suite sur les domaines dont la frontière n’est pas uniformément lipschitzienne. Nous donnons deux exemples pour montrer que l’opérateur de trace n’est pas compact pour ces domaines. De plus, nous présentons une borne inférieure pour la première valeur propre σ₁ non nulle du problème de Steklov pour les domaines ayant deux axes de symétrie. Enfin, nous présentons des bornes inférieures pour le problème des valeurs propres Steklov pour les domaines étoilés. Ces résultats sont dus à J. R. Kuttler et V. G. Sigillito. [7, 8]. / The Steklov problem is a spectral problem whose origin lies in the mechanics of fluids. It is an eigenvalue problem with spectral parameters in the boundary conditions, which has various applications. Its spectrum coincides with that of the Dirichlet-to-Neumann operator. The spectrum of the Steklov’s problem is discrete when the trace operator is compact. In this master’s thesis, we prove the collapse of the Steklov spectrum for a dumbbell domain in two manners. We will focus on non-Lipschitz domains. We give two examples to show that the trace operator is not compact for non-Lipschitz domains. Furthermore, we present a lower bound to the first non-zero eigenvalue σ₁ of the Steklov problem for domains having two axes of symmetry. Finally, we present lower bounds for the Steklov eigenvalue problem for starshaped domains. These results were due to J. R. Kuttler and V. G. Sigillito restrict domains to domains with two axes of symmetry or star-shaped domains [7, 8].
5

Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes

Sid-Ali, Ahmed 22 February 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles. / This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
6

Relations entre le nombre de classes et les formes modulaires

Ayotte, David 29 November 2019 (has links)
En 2010, Dummigan et Heim ont démontré deux résultats en lien avec le nombre de classes du corps quadratique Q(√-p), dénoté h(-p), et l'espace des formes cuspidales de poids k pour SL2(ℤ), dénoté Sk(SL2(ℤ)), où p ≡ 3 (mod 4) est un premier et k = (p + 1)/2. Ainsi, dans ce mémoire, on s'intéresse à présenter les démonstrations de Dummigan et Heim avec davantage de détails et de généraliser leurs résultats. Tout d'abord, le premier résultat a_rme que la trace de la fonction L carrée symétrique, un nombre rationnel qui dépend uniquement du poids de l'espace Sk(SL2(ℤ)), possède un unique facteur de p au dénominateur si et seulement si h(-p) > 1. De plus, si h(-p) =1, alors la trace ne contient aucun facteur de p. Ainsi, en utilisant les congruences de Kummer pour les nombres de Bernoulli, on démontre qu'il est possible de généraliser ce résultat pour l'espace Sk'(SL2(ℤ) ou k' ≡ k (mod p - 1). En rapport avec ce résultat, une conjecture est énoncée et des évidences numériques avec PARI/GP sont données. Ensuite, Dummigan et Heim ont démontré, en utilisant la théorie des représentations galoisiennes, qu'il existe une forme cuspidale f = Σn≥1 anqn de poids k pour SL2 (ℤ) qui satisfait une congruence diédrale en p, c'est-à-dire p
7

Méthode d'inférence utilisant la vraisemblance empirique basée sur l'entropie pour les modèles de diffusion avec sauts

Laporte, Francis 05 March 2019 (has links)
Avec la venue de modèles de plus en plus élaborés pour modéliser les rendements boursiers, la méthode classique du maximum de vraisemblance pour inférer les paramètres n’est généralement plus applicable puisque, par exemple, la fonction de densité n’est pas disponible ou très difficile à calculer numériquement. Dans la littérature, l’inférence par la méthode des moments (MM) est donc généralement suggérée. Dans ce mémoire, une méthode d’inférence plus efficace, soit celle du maximum de vraisemblance empirique basé sur l’entropie (MEEL), est proposée pour deux cas particuliers du processus de Lévy, soit les modèles de Merton et de Tsay. Premièrement, un retour sur certains modèles développés par le passé est fait. Les lacunes du mouvement brownien géométrique sont présentées afin de justifier l’utilisation de modèles plus élaborés. Ensuite, les deux modèles, Merton et Tsay, et leurs propriétés sont présentés plus en détail. Par la suite, il y a une analyse comparative entre l’efficacité du MEEL et celle du MM ; un exemple sur des données réelles est aussi présenté. Pour terminer, deux approches de tarification de produits dérivés sont présentées. / With the advent of increasingly sophisticated models for modeling stock market returns, the classical maximum likelihood method for inferring parameters is generally no longer applicable since, for example, the density function has no closed form or very difficult to calculate numerically. In the literature, inference by the method of moments (MM) is therefore generally suggested. In this master’s thesis, a more efficient inference method, the maximum empirical entropy likelihood (MEEL), is proposed for two particular cases of the Lévy process, namely the Merton and Tsay models. First, a review of some models developed in the past is done. The flaws of the geometric Brownian motion are presented to justify the use of more sophisticated models. Then, the two models, Merton and Tsay, and their properties are presented in more detail. Subsequently, there is a comparative analysis between the effectiveness of the MEEL and the MM; an example with real data is also presented. Finally, two approaches to pricing derivatives are presented.
8

Les modèles VAR(p)

Chukunyere, Amenan Christiane 31 July 2019 (has links)
Ce mémoire a pour objectif d’étudier une famille de méthodes pour modéliser de façon conjointe plusieurs séries temporelles. Nous nous servons de ces méthodes pour prédire le comportement de cinq séries temporelles américaines et de ressortir les liens dynamiques qui pourraient exister entre elles. Pour ce faire, nous utilisons les modèles de vecteurs autorégressifs d’ordre p proposés par Sims (1980) qui sont une généralisation multivariée des modèles de Box et Jenkins. Tout d’abord, nous définissons un ensemble de concepts et outils statistiques qui seront utiles à la compréhension de notions utilisées par la suite dans ce mémoire. S’ensuit la présentation des modèles et de la méthode de Box et Jenkins. Cette méthode est appliquée à chacune des cinq séries en vue d’avoir des modèles univariés. Puis, nous présentons les modèles VAR(p) et nous faisons un essai d’ajustement de ces modèles à un vecteur dont les composantes sont les cinq séries. Nous discutons de la valeur ajoutée de l’analyse multivariée par rapport à l’ensemble des analyses univariées / This thesis aims to study a family of methods to jointly model several time series. We use these methods to predict the behavior of five US time series and to highlight the dynamic links that might exist between them. To do this, we use the p-order autoregressive vector models proposed by Sims (1980), which are a multivariate generalization of the Box and Jenkins models. First, we define a set of concepts and statistical tools that will be useful for the understanding of notions used later in this thesis. Follows the presentation of the models and the method of Box and Jenkins. This method is applied to each of the five series in order to have univariate models. Then, we present the VAR(p) models and we test the fit of these models to a vector series whose components are the five aforementioned series. We discuss the added value of multivariate analysis compared to the five univariate analyzes.
9

Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte / Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacte

Ly, Boucar, Ly, Boucar January 2019 (has links)
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
10

Analyse de l'impact de la dépendance sur l'évaluation individuelle des réserves en assurances IARD

Turcotte, Roxane January 2019 (has links)
Dans ce mémoire, il sera question de la modélisation de réserve en assurances générales. Puisqu’une base de données provenant de l’industrie a été utilisée dans le cadre de ce projet, une attention particulière a été portée à des considérations pratiques. Encore aujourd’hui, les modèles appliqués en pratique sont souvent des modèles simples qui sont utilisés à cause de leur commodité. Par contre, de plus en plus de données sont disponibles et la possibilité d’en tirer profit est de plus en plus grande grâce à l’augmentation de la capacité computationnelle. Les méthodes classiques de provisionnement délaissent donc le potentiel de perfectionnement que permet le détail des données. Les modèles dits « individuels », dont il sera question dans ce projet, cherchent à expliquer la dynamique de l’évolution des sommes payées par réclamation. Ces modèles tirent parti des informations détaillées de chaque paiement pour modéliser la réserve du portefeuille. Il a été décidé de reprendre l’idée des facteurs de développement utilisés par Pigeon et al. (2013) qui sont inspirés de ceux de la méthode de Chain-Ladder. On considérera toutefois une loi multivariée construite par copule pour modéliser conjointement les variables de ce vecteur de développement plutôt qu’une loi normale multivariée asymétrique telle qu’utilisée dans l’article précédemment mentionné. On s’est également intéressé à la dépendance présente entre certaines composantes caractérisant la réclamation, comme le délai de déclaration (en années), le délai de premier paiement (en années) et le nombre de paiements.

Page generated in 0.0396 seconds