• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 16
  • 15
  • Tagged with
  • 50
  • 50
  • 50
  • 28
  • 25
  • 18
  • 17
  • 15
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Mesure et gestion des risques d'assurance : analyse critique des futurs référentiels prudentiel et d'information financière

Thérond, Pierre-Emmanuel 25 June 2007 (has links) (PDF)
Contexte, objectifs et organisation de la thèse Aujourd'hui, le secteur de l'assurance est confronté à une triple mutation : − prudentielle avec l'avènement du futur cadre prudentiel européen qui résultera du projet Solvabilité 2 ; − du reporting financier avec le recours de plus en plus massif aux méthodes d'European Embedded Value de valorisation de compagnie d'assurance ; − comptable avec la préparation de la phase II de la norme internationale IFRS consacrée aux contrats d'assurance. Dans ce contexte, les assureurs sont invités, pour chacun de ces trois aspects, à mieux identifier, mesurer et gérer les risques auxquels ils sont soumis. Ces trois référentiels s'inscrivent dans une même logique d'uniformisation internationale (à tout le moins communautaire) et de transparence. Pour cela, la référence " au marché " est omniprésente : dès que c'est possible, c'est en référence au marché que les engagements d'assurance doivent être valorisés. En particulier, les risques financiers doivent être traités de la même manière que des instruments financiers qui seraient cotés sur un marché financier liquide. Ce principe n'est pas sans poser des problèmes conceptuels et opérationnels. L'objectif de cette thèse est de présenter les principes communs sur lesquels reposent les trois nouveaux référentiels, d'illustrer la limite de leur application en assurance et de proposer des modèles pour leur mise en oeuvre effective. Une attention particulière est portée aux risques opérationnels qu'engendrent des exigences de valorisation de plus en plus complexes. Elle s'articule en deux parties qui se décomposent chacune en trois chapitres. La première partie est consacrée à la présentation des nouveaux référentiels prudentiel, comptable et de communication financière et insiste plus particulièrement sur la manière dont les risques sont valorisés et l'incidence de ces principes d'évaluation en termes de gestion d'une compagnie d'assurance. La seconde partie aborde ces nouvelles normes sous un angle plus opérationnel en identifiant un certain nombre de problèmes pratiques auxquels leur mise en oeuvre confronte l'actuaire et en proposant des modèles permettant de surmonter ces difficultés. ---- Résumé La première partie de la thèse s'intéresse aux risques portés par les sociétés d'assurance, leurs caractéristiques et leur traitement. En effet, l'activité d'assurance est née du besoin de se prémunir contre le risque (les agents économiques sont généralement averses aux risques qui peuvent réduire leur patrimoine), ce que permet l'opération d'assurance en transférant les risques de l'assuré vers l'assureur qui, en vertu de la loi des grands nombres, bénéficie de les effets de la mutualisation et est donc relativement moins exposé au risque que l'assuré. Les évolutions récentes ou à venir amènent les assureurs à reconsidérer, au moins pour partie, leur vision des risques qu'ils assurent. Ainsi, qu'il s'agisse des nouvelles dispositions réglementaires (Solvabilité 2), de communication financière (EEV/MCEV) ou comptables (IFRS), l'objectif est similaire : identifier les risques et les analyser le plus finement possible. Le passage d'un système où les hypothèses sont exogènes et prudentes, car contraintes par la réglementation, à un système où les hypothèses les plus réalistes doivent être privilégiées conduit à prendre en considération de " nouveaux risques ". Ces risques ne sont généralement pas à proprement parler " nouveaux " : la plupart du temps, ils existaient déjà mais n'avaient pas été soit étudiés plus avant du fait de leur caractère secondaire par rapport aux risques principaux, soit identifiés. Par exemple, dans le cas du risque de mortalité, un assureur qui veut étudier ce risque va, dans un premier temps, considérer son portefeuille et l'historique des données correspondant de manière à établir des statistiques descriptives de suivi du risque. Sur des portefeuilles d'assureurs, compte-tenu de la taille des échantillons, de telles études mettront en évidence le phénomène de fluctuation d'échantillonnage autour de la tendance centrale qui est le risque principal, mais certainement pas les risques systématiques de mortalité (mortalité stochastique et risque de longévité) qui s'avèrent relativement plus petits. Ces deux risques ne pourront être identifiés que par des études plus poussées, en étudiant par exemple, en parallèle les statistiques nationales de l'évolution au cours du temps de la mortalité. Le premier chapitre s'intéresse aux aspects théoriques du traitement du risque. La première partie est consacrée à l'analyse mathématique des risques avec la présentation des concepts de mesures et de comparaisons de risques et les principaux outils qui permettent d'y parvenir. La deuxième partie s'intéressent aux différents modèles de valorisation qui co-existent en assurance et en particulier aux modèles économiques issus de la théorie financière dont l'usage est de plus en plus fréquent. Il convient néanmoins de remarquer qu'associer une valeur à un risque et le gérer de manière effective relèvent de deux démarches distinctes. Ce point est illustré dans le cas d'une garantie plancher en cas de décès de l'assuré sur un contrat d'épargne en unités de compte. Le deuxième chapitre s'attache à identifier les divergences entre les différentiels précédemment évoqués de manière à en tirer les conclusions adéquates en termes opérationnels. En effet, même s'ils reposent sur un socle de principes communs, la diversité des finalités des référentiels conduit à des options différentes dans la modélisation des produits d'assurance. En particulier, un des principes fondamentaux commun aux trois approches est l'utilisation d'hypothèses best estimate, i.e. le recours aux hypothèses les plus réalistes compte-tenu de l'information dont dispose l'assureur. Ce point est fondamental car il diffère du contexte traditionnel de l'assurance qui repose sur des hypothèses prudentes. Par exemple, le taux d'actualisation d'un régime de rentiers ne doit pas, selon la réglementation française, être supérieur à 60 % du taux moyen des emprunts de l'État français (TME) quand bien même une société d'assurance investirait intégralement en OAT disposerait d'un rendement (certain) supérieur à ce taux d'actualisation. Á titre illustratif, une attention particulière est portée sur l'évolution récente des tables de mortalité pour les risques viagers. Cet exemple montre que sur une période de temps relativement réduite, l'estimation de l'évolution de tel ou tel phénomène (l'espérance résiduelle de vie à 60 ans pour un assuré né en 1950 par exemple) peut être révisée en profondeur et avoir un impact important sur les niveaux de provisions techniques. De plus dans certains cas, un même phénomène sera modélisé sur des bases différentes selon que l'on cherche à valoriser un portefeuille de contrats ou à assurer sa solvabilité. Par ailleurs, la valorisation des portefeuilles d'assurance nécessite fréquemment la modélisation du comportement de l'assureur et des assurés, particulièrement en assurance vie. Aussi les modèles implémentés ont de réels impacts sur les valorisations obtenues. Un exemple dans le cas de la gestion d'un portefeuille financier vient illustrer cela. Enfin ce chapitre se conclut sur la modélisation et la valorisation d'un portefeuille d'assurance vie. Les exigences quantitatives prévues dans le Pilier I de Solvabilité 2 prévoient notamment des exigences de fonds propres en référence au risque global supporté par l'assureur. Cette démarche impose des contraintes fortes en termes de gestion technique. Le troisième chapitre met ainsi en évidence les conséquences du changement de référentiel prudentiel sur la gestion des actifs de la société. Le projet Solvabilité 2 fixant les exigences quantitatives de fonds propres en fonction du risque global supporté par la compagnie, n'importe quel acte de gestion modifiant la structure ou la forme de ce risque a pour conséquence automatique et immédiate de modifier l'exigence minimale de capitaux propres. Ceci est illustré dans le cas du choix d'une allocation stratégique d'actifs et observons notamment la manière dont le processus de fixation de l'allocation évolue entre la réglementation prudentielle actuelle et Solvabilité 2. La deuxième partie de la thèse est consacrée aux techniques avancées de gestion du risque d'une compagnie d'assurance. L'avènement du référentiel prudentiel Solvabilité 2 et, dans une moindre mesure, du nouveau cadre comptable induit par la phase II de la norme IFRS dédiée aux contrats d'assurance, va systématiser l'emploi de la Value-at-Risk (VaR) en assurance. Particulièrement utilisées en finance de marché, les techniques de calcul de VaR exigent une adaptation spécifique dans un contexte assurantiel de par la nature des risques qui sont ainsi mesurés. Schématiquement on distingue deux contextes, qui imposent des approches différentes : − La mesure du risque lié à la sinistralité au moyen d'une VaR dans le corps de la distribution : la provision1 devra suffire à payer les sinistres dans 75 % des cas ; − la mesure de risque liée à la ruine de la compagnie par le biais d'une VaR d'ordre très élevé : le capital de solvabilité devra permettre à la compagnie de ne pas être en ruine, à la fin de l'exercice, avec une probabilité supérieure à 99,5 %. Dans la première situation, que l'on adopte une approche VaR historique ou que l'on cherche à modéliser la sinistralité, on reste dans un cadre dans lequel on dispose d'un matériel statistique de taille généralement suffisante pour estimer une VaR dans le corps de la distribution. Dans le second cas, on est en revanche confronté à l'absence d'observations et il convient alors, dans un premier temps, de modéliser les variables de base qui influent sur la solvabilité de la compagnie, dans un deuxième temps, de simuler la ruine de la compagnie et enfin d'estimer une VaR d'ordre élevé. Cette dernière étape nécessite le recours à la théorie 1. Les travaux les plus récents du CEIOPS sur Solvabilité 2 donnent la préférence à une approche coût du capital plutôt qu'à la VaR à 75 % pour le calibrage de la marge pour risque. des valeurs extrêmes. Le cinquième chapitre s'attache à présenter les contextes de calcul de VaR en assurance, les résultats probabilistes sous-jacents et les limites de ces critères. Une attention toute particulière est portée aux différents risques opérationnels auxquels est confronté l'actuaire dans un contexte de modèle interne de type Solvabilité 2. Par ailleurs un autre phénomène à intégrer est celui de la dépendance entre les risques. L'activité d'assurance, qui repose sur la mutualisation et la convergence en probabilité énoncée dans la loi des grands nombres, s'est développée sur une des hypothèses principales de cette loi : l'indépendance entre les risques. Les exigences de solvabilité comme les référentiels économiques de valorisation ne font aujourd'hui plus l'économie de la non prise en compte des risques inhérents à la dépendance. Ainsi le capital de solvabilité fixé en référence au risque global supporté par la société ne saurait s'analyser comme la somme des capitaux qui permettraient de couvrir chaque risque individuellement. Par ailleurs, dans une approche de valorisation, si les marchés financiers n'accordent pas de prime à un risque mutualisable, il n'en est pas de même pour les risques non-mutualisables (ou systématiques) dont les sociétés d'assurance cherchent à se défaire au maximum que ce soit au travers de traités de réassurance ou, de plus en plus, grâce aux opérations de titrisation. Le cinquième chapitre aborde cette problématique en présentant, dans un premier temps, les aspects mathématiques de la mesure et de la modélisation de la dépendance ; puis en analysant l'impact de la prise en compte de celle-ci dans les contextes assurantiels de détermination d'un capital de solvabilité et de valorisation du contrat d'épargne présenté dans le deuxième chapitre. Cet exemple n'a pu être mis en oeuvre que grâce à l'utilisation de méthodes de Monte Carlo. En effet, la complexité des contrats d'assurance et l'interdépendance intrinsèque et temporelle des phénomènes qui concourent à leur dénouement obligent les assureurs à avoir un recours de plus en plus systématique aux techniques de simulation. Par exemple dans Solvabilité 2, l'alternative à l'utilisation de la formule standard pour déterminer le capital de solvabilité passera par la mise en place d'un modèle interne. Un tel modèle revient à modéliser l'ensemble des variables qui influent sur le risque global supporté par la compagnie. La mise en oeuvre effective d'un tel modèle ne pourra faire l'économie du recours aux techniques de simulation. C'est justement l'objet du sixième chapitre qui revient notamment sur les techniques de discrétisation temporelle des processus stochastiques continus, l'estimation des paramètres et la génération de nombres aléatoires. Les illustrations
22

Contribution à l'étude des estimations historiques des éclats des étoiles brillantes par des analyses multidimensionnelles

Las Vergnas, Olivier 25 June 1990 (has links) (PDF)
Les étoiles brillantes ont-elles des variations séculaires d'éclat ? Bien que plusieurs astronomes aient étudié ce sujet au cours des siècles écoulés, aucune réponse satisfaisante n'y a été donnée. Il y a un siècle, C. Flammarion rassembla les anciennes estimations et les publia dans son ouvrage Les étoiles et les curiosités du ciel. Il était évident de son point de vue qu'un grand nombre d'étoiles avaient eu des variations séculaires. Pickering (1895) et Zinner (1926) publièrent deux autres compilations de catalogues. Ils ne partageaient pas le point de vue de Flammarion, mais ne purent interpréter l'information contenue dans les données. Il n'y a pas eu d'étude plus récente sur ce sujet. De nouvelles méthodes d'analyse -comme l'analyse factorielle des correspondances- ont été créées ces dernières années, qui permettent d'étudier de manière approfondie de grands tableaux de données. La finalité du travail présenté ici est de voir si ces méthodes peuvent nous aider à résoudre ce problème des variations séculaires. La compilation des catalogues originaux permet de constituer un tableau de données intégrant des éléments "signatures" des diverses causes susceptibles d'expliquer les écarts d'éclats (des causes astrophysiques à la non-fiabilité des données). Plusieurs analyses factorielles, utilisant des codages spécifiques des données, comme "l'écart aux valeurs attendues" ou le "codage flou en magnitude entière", créés pour limiter les différences de notations entre les observateurs sont effectuées. Il n'en ressort pas de "signatures" significativement corrélées avec les écarts d'éclats ; en particulier, il n'y a pas d'effet de couleur constaté. Il semble y avoir globalement "mémoire" des éclats d'un catalogue sur l'autre. Seul échape à cette règle, le catalogue de Sir William Herschel, qui est également le seul à contenir des comparaisons d'éclat et non pas des valeurs de magnitude. Cela amène à se demander si il n'aurait pas été protégé de cet effet de "mémoire" à cause de sa différence de notation. Ce travail ne clôt pas la question. Il se termine par la définition de nouvelles analyses à mettre en place : pour tirer des conclusions astrophysiques, il peut être utile de tester des traitements combinant l'analyse factorielle et l'analyse de Fourier. De tels traitements permettront de se débarasser de l'information de phase et d'effectuer des études de corrélation de périodes.
23

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone - Analyse et mesure des risques liés à la mortalité

Kamega, Aymric 14 December 2011 (has links) (PDF)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
24

Caractérisation de l'usage des batteries Lithium-ion dans les véhicules électriques et hybrides. Application à l'étude du vieillissement et de la fiabilité

Devie, Arnaud 13 November 2012 (has links) (PDF)
De nouvelles architectures de traction (hybride, électrique) entrent en concurrence avec les motorisations thermiques conventionnelles. Des batteries Lithium-ion équipent ces véhicules innovants. La durabilité de ces batteries constitue un enjeu majeur mais dépend de nombreux paramètres environ-nementaux externes. Les outils de prédiction de durée de vie actuellement utilisés sont souvent trop simplificateurs dans leur approche. L'objet de ces travaux consiste à caractériser les conditions d'usage de ces batteries (température, tension, courant, SOC et DOD) afin d'étudier avec précision la durée de vie que l'on peut en attendre en fonction de l'application visée. Différents types de véhicules électrifiés (vélos à assistance élec-trique, voitures électriques, voitures hybrides, et trolleybus) ont été instrumentés afin de documenter les conditions d'usage réel des batteries. De larges volumes de données ont été recueillis puis ana-lysés au moyen d'une méthode innovante qui s'appuie sur la classification d'impulsions de courant par l'algorithme des K-means et la génération de cycles synthétiques par modélisation par chaine de Markov. Les cycles synthétiques ainsi obtenus présentent des caractéristiques très proches de l'échantillon complet de données récoltées et permettent donc de représenter fidèlement l'usage réel. Utilisés lors de campagnes de vieillissement de batteries, ils sont susceptibles de permettre l'obtention d'une juste prédiction de la durée de vie des batteries pour l'application considérée. Plusieurs résultats expérimentaux sont présentés afin d'étayer la pertinence de cette approche.
25

Développement de méthodes statistiques nécessaires à l'analyse de données génomiques : application à l'influence du polymorphisme génétique sur les caractéristiques cutanées individuelles et l'expression du vieillissement cutané.

Bernard, Anne 20 December 2013 (has links) (PDF)
Les nouvelles technologies développées ces dernières années dans le domaine de la génétique ont permis de générer des bases de données de très grande dimension, en particulier de Single Nucleotide Polymorphisms (SNPs), ces bases étant souvent caractérisées par un nombre de variables largement supérieur au nombre d'individus. L'objectif de ce travail a été de développer des méthodes statistiques adaptées à ces jeux de données de grande dimension et permettant de sélectionner les variables les plus pertinentes au regard du problème biologique considéré. Dans la première partie de ce travail, un état de l'art présente différentes méthodes de sélection de variables non supervisées et supervisées pour 2 blocs de variables et plus. Dans la deuxième partie, deux nouvelles méthodes de sélection de variables non supervisées de type "sparse" sont proposées : la Group Sparse Principal Component Analysis (GSPCA) et l'Analyse des Correspondances Multiples sparse (ACM sparse). Vues comme des problèmes de régression avec une pénalisation group LASSO elles conduisent à la sélection de blocs de variables quantitatives et qualitatives, respectivement. La troisième partie est consacrée aux interactions entre SNPs et dans ce cadre, une méthode spécifique de détection d'interactions, la régression logique, est présentée. Enfin, la quatrième partie présente une application de ces méthodes sur un jeu de données réelles de SNPs afin d'étudier l'influence possible du polymorphisme génétique sur l'expression du vieillissement cutané au niveau du visage chez des femmes adultes. Les méthodes développées ont donné des résultats prometteurs répondant aux attentes des biologistes, et qui offrent de nouvelles perspectives de recherches intéressantes
26

Fast uncertainty reduction strategies relying on Gaussian process models

Chevalier, Clément 18 September 2013 (has links) (PDF)
Cette thèse traite de stratégies d'évaluation séquentielle et batch-séquentielle de fonctions à valeurs réelles sous un budget d'évaluation limité, à l'aide de modèles à processus Gaussiens. Des stratégies optimales de réduction séquentielle d'incertitude (SUR) sont étudiées pour deux problèmes différents, motivés par des cas d'application en sûreté nucléaire. Tout d'abord, nous traitons le problème d'identification d'un ensemble d'excursion au dessus d'un seuil T d'une fonction f à valeurs réelles. Ensuite, nous étudions le problème d'identification de l'ensemble des configurations "robustes, contrôlées", c'est à dire l'ensemble des inputs contrôlés où la fonction demeure sous T quelle que soit la valeur des différents inputs non-contrôlés. De nouvelles stratégies SUR sont présentés. Nous donnons aussi des procédures efficientes et des formules permettant d'utiliser ces stratégies sur des applications concrètes. L'utilisation de formules rapides pour recalculer rapidement le posterior de la moyenne ou de la fonction de covariance d'un processus Gaussien (les "formules d'update de krigeage") ne fournit pas uniquement une économie computationnelle importante. Elles sont aussi l'un des ingrédient clé pour obtenir des formules fermées permettant l'utilisation en pratique de stratégies d'évaluation coûteuses en temps de calcul. Une contribution en optimisation batch-séquentielle utilisant le Multi-points Expected Improvement est également présentée.
27

Mélanges bayésiens de modèles d'extrêmes multivariés, Application à la prédétermination régionale des crues avec données incomplètes.

Anne, Sabourin 24 September 2013 (has links) (PDF)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associées aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Après une introduction à la théorie des valeurs extrêmes et à l'inférence bayésienne (chapitre 1), le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi a posteriori. Le chapitre~\ref{censorDiri} est motivé par une application hydrologique: il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les perspectives sont discutées au chapitre 5.
28

Optimisation combinatoire pour la sélection de variables en régression en grande dimension : Application en génétique animale

Hamon, Julie 26 November 2013 (has links) (PDF)
Le développement des technologies de séquençage et de génotypage haut-débit permet de mesurer, pour un individu, une grande quantité d'information génomique. L'objectif de ce travail est, dans le cadre de la sélection génomique animale, de sélectionner un sous-ensemble de marqueurs génétiques pertinents permettant de prédire un caractère quantitatif, dans un contexte où le nombre d'animaux génotypés est largement inférieur au nombre de marqueurs étudiées. Ce manuscrit présente un état de l'art des méthodes actuelles permettant de répondre à la problématique. Nous proposons ensuite de répondre à notre problématique de sélection de variables en régression en grande dimension en combinant approches d'optimisation combinatoire et modèles statistiques. Nous commençons par paramétrer expérimentalement deux méthodes d'optimisation combinatoire, la recherche locale itérée et l'algorithme génétique, combinées avec une régression li- néaire multiple et nous évaluons leur pertinence. Dans le contexte de la génomique animale les relations familiales entre animaux sont connues et peuvent constituer une information importante. Notre approche étant flexible, nous proposons une adapta- tion permettant de prendre en considération ces relations familiales via l'utilisation d'un modèle mixte. Le problème du sur-apprentissage étant particulièrement présent sur nos données dû au déséquilibre important entre le nombre de variables étudiées et le nombre d'animaux disponibles, nous proposons également une amélioration de notre approche permettant de diminuer ce sur-apprentissage. Les différentes approches proposées sont validées sur des données de la littérature ainsi que sur des données réelles de Gènes Diffusion.
29

Prévisions hydrologiques d'ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilité

Zalachori, Ioanna 19 April 2013 (has links) (PDF)
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie.
30

Modélisation de la contamination par Listeria monocytogenes pour l'amélioration de la surveillance dans les industries agro-alimentaires

Commeau, Natalie 04 June 2012 (has links) (PDF)
Les industriels du secteur agro-alimentaire sont responsables de la qualité des produits mis sur le marché. Un moyen de vérifier cette qualité consiste à déterminer la distribution de la contamination. Dans cette thèse, nous avons utilisé des données portant sur L. monocytogenes durant le procédé de fabrication de lardons et du saumon fumé. Nous avons ensuite élaboré des modèles hiérarchiques pour décrire la concentration en prenant ou non en compte diverses variabilités, nous avons estimé les paramètres par inférence bayésienne, puis comparé leur capacité à simuler des données proches des observations. Nous avons également comparé l'estimation de paramètres par inférence fréquentiste sur deux modèles en utilisant les données brutes issues des analyses microbiologiques et ces mêmes données converties en concentration. Par ailleurs, nous avons amélioré un modèle décrivant le devenir de L. monocytogenes au cours de la fabrication des lardons. Le plan d'échantillonnage permettant d'estimer la qualité des produits, nous avons appliqué la théorie de la décision aux couples L. monocytogenes/lardons et L. monocytogenes/saumon fumé en sortie usine pour déterminer la taille optimale de l'échantillon à prélever par lot de manière à minimiser les coûts moyens supportés par le fabricant. Enfin, nous avons comparé plusieurs plans d'échantillonnage de mesure de la température d'un plat en sauce fabriqué dans une cuisine centrale et placé dans une cellule de refroidissement rapide. L'objectif était de sélectionner le meilleur plan d'échantillonnage en fonction du risque admissible pour le gestionnaire quant à la croissance de C. perfringens.

Page generated in 0.5675 seconds