• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 17
  • 7
  • Tagged with
  • 55
  • 55
  • 28
  • 18
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Statistique Bayésienne et Monte-Carlo de Second Ordre pour l'évaluation des risques microbiologiques. Le cas de Listeria monocytogenes dans les produits de IVème gamme

Crépet, Amélie 12 December 2007 (has links) (PDF)
Listeria monocytogenes par sa présence dans les végétaux et sa capacité à se développer à de faibles températures représente un danger pour les consommateurs de salades de IVème gamme. L'objectif de ces travaux est de construire un modèle d'évaluation des risques de listériose par consommation de ce produit. Nous opérons en deux temps : estimation des paramètres d'entrée du modèle par inférence bayésienne puis, à partir des distributions obtenues, simulation de l'exposition et du risque par méthodes de Monte-Carlo de second ordre. Ces techniques permettent de propager séparément la variabilité et l'incertitude le long de la chaîne alimentaire. En particulier, un modèle d'estimation de la distribution de la contamination microbiologique d'un aliment, tenant compte des faibles concentrations est développé. L'effet sur le risque de différents scénarios comme le plafonnement de la croissance de L. monocytogenes ou l'élimination du chlore du procédé industriel est évalué.
22

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
23

Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergie

Hannachi-Belkadi, Nazila Kahina 08 July 2008 (has links) (PDF)
Les bâtiments à faible consommation d'énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu'ils jouent dans la diminution des émissions de gaz à effet de serre d'une part, et la flambée des prix des combustibles, d'autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n'atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d'informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d'énergie. Cette recherche vise à développer une méthodologie dont l'objectif est d'assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l'art de la réalisation des bâtiments à faible consommation d'énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d'étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d'un commissionnement "évolutif" -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d'assistance à la conception des bâtiments à faible consommation d'énergie, qui intègre une aide à la décision, une gestion de l'information et un commissionnement "évolutif" qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit "statique" qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d'un projet, à partir d'une base de données exhaustives de tâches de commissionnement, 2) un outil dit "dynamique" basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l'adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d'un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l'intérêt d'avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d'énergie et assurer ainsi l'atteinte des performances souhaitées, 2) l'intérêt d'utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d'outils d'assistance à la définition de plans de commissionnement "évolutifs" pour le neuf et l'existant, et tous les secteurs du bâtiment
24

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
25

Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnel

Roodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
26

Paramétrisation des modèles physiologiques toxico/pharmacocinétiques

Brochot, Céline 19 October 2004 (has links) (PDF)
Les modèles physiologiques toxicocinétiques (PBPK pour Physiologically-Based PharmacoKinetic) permettent de décrire la biodistribution d'une substance (c'est-à-dire, son administration, distribution, métabolisme, et excrétion) au sein d'un organisme. Cependant, l'ajustement d'un modèle PBPK à des données expérimentales peut se révéler difficile en raison de la complexité du modèle, du nombre important de paramètres à estimer, et de la nature des données toxicocinétiques (généralement peu nombreuses, éparses et entachées d'erreur de mesure). Pour pallier à ces difficultés, nous proposons de développer deux protocoles expérimentaux facilitant la paramétrisation des modèles PBPK, par l'apport d'informations complémentaires sur les paramètres des modèles : la collecte de données sur la distribution spatio-temporelle d'une substance dans l'organisme par des techniques d'imagerie, et l'utilisation de traceurs non-toxiques lors d'études toxicocinétiques. <br />Pour notre premier protocole, nous avons appliqué l'analyse d'image au développement d'un modèle PBPK décrivant la biodistribution d'un agent de contraste, Vistarem®. Grâce à la modélisation des données recueillies par imagerie par résonance magnétique, nous avons pu caractériser la vascularisation du corps entier et celle d'une tumeur greffée, ainsi qu'évaluer statistiquement les effets d'un traitement antiangiogénique. <br />Ensuite, nous avons introduit l'utilisation de traceurs explorateurs lors d'études toxicocinétiques. Nous avons développé des protocoles d'exposition à une substance toxique et à un traceur non-toxique pour les humains. Sur la base d'expositions simulées, nous avons montré qu'en administrant aux sujets deux substances, il est possible de réduire la dose d'exposition du toxique (par 4 dans notre exemple d'application) tout en maintenant la précision sur l'estimation des paramètres d'intérêt. L'inconvénient majeur de ce protocole d'exposition est la lourdeur des calculs induits (la calibration de deux modèles PBPK est nécessaire). Afin de réduire la complexité des calculs engendrés, nous avons proposé d'appliquer des techniques d'agrégation de systèmes d'équations différentielles. L'essentiel de ces techniques est de réduire un système tout en conservant sa dynamique. Sur des exemples simples, nous avons montré leur potentiel en toxico/pharmacocinétique. <br />Chacun des deux protocoles développés dans ce travail inclut, en plus de la substance d'intérêt, l'utilisation d'une substance "annexe". Notre travail montre que l'utilisation de cette substance annexe permet de renforcer la connaissance sur l'anatomie et la physiologie du sujet considéré. Ceci conduit donc à une meilleure détermination de l'action de la substance d'intérêt. Une suite logique de notre travail serait de coupler ces deux protocoles, c'est-à-dire de développer des protocoles d'exposition à une substance toxique et à une substance visualisable par une technique d'imagerie quantitative.
27

Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance

Medina-Oliva, Gabriela 12 December 2011 (has links) (PDF)
Par rapport aux exigences de plus en plus importantes relatives au Maintien en Condition Opérationnelle d'un système industriel, le processus de maintenance joue un rôle fondamental pour l'amélioration de la disponibilité, de la productivité, etc. Pour essayer de contrôler au mieux ces performances, les responsables de maintenance doivent donc être capables de choisir les stratégies de maintenance et les ressources à mettre en œuvre les plus adaptées aux besoins. Dans un objectif d'aide à la prise de décisions en maintenance, les travaux présentés dans ce mémoire ont pour objet de proposer une méthodologie pour l'élaboration d'un modèle support permettant par simulation d'évaluer les différentes stratégies. La valeur ajoutée de la méthodologie réside dans l'unification, à base de modèles relationnels probabilistes (PRM), des différents types de connaissance nécessaires à la construction de ce modèle d'évaluation. Ce dernier est ainsi construit à partir de motifs génériques et modulables représentatifs des variables décisionnels du système industriel (système principal) et de son système de maintenance. Ces motifs, par instanciation, facilitent la construction des modèles d'applications spécifiques. Cette méthodologie, issue du projet ANR SKOOB, est testée sur le cas applicatif de la maintenance d'un système de production de ferment.
28

Modélisation des évènements rares et estimation des quantiles extrêmes, méthodes de sélection de modèles pour les queues de distribution

Garrido, Myriam 12 June 2002 (has links) (PDF)
Cette thèse étudie la modélisation d'événements rares et l'estimation de quantiles extrêmes, à travers différents types de modèles et le choix de ces modèles. La théorie des valeurs extrêmes, et en particulier la méthode des excès (POT, Peaks Over Threshold), permettent une estimation non paramétrique, mais biaisée, des queues de distribution. Nous souhaitons donc utiliser des modèles paramétriques classiques. Cependant, ces modèles étant estimés et sélectionnés par des tests usuels à partir de l'échantillon complet, les résultats sont surtout influencés par les valeurs les plus probables de la variable. Nous proposons deux tests d'adéquation pour la queue de distribution, le test ET (Exponential Tail) et le test GPD (Generalised Pareto Distribution), pour sélectionner, par comparaison avec la méthode POT, les modèles produisant de bonnes estimations de la queue de distribution. Lorsqu'on souhaite reconstituer la loi dont sont issues les observations aussi bien dans la région centrale que dans la région extrême, on applique d'abord à un ensemble de modèles un test usuel (d'adéquation aux valeurs les plus probables), puis un test d'adéquation de la queue de distribution. Si aucune loi n'est acceptée par les deux types de tests, nous proposons une procédure de régularisation bayésienne qui, à partir d'un modèle adapté aux valeurs les plus probables, permet d'améliorer l'adéquation extrême grâce à un avis d'expert sur la queue de distribution. Enfin, si on revient à la méthode POT, il faut en réduire le biais d'estimation, notamment pour l'estimation des quantiles extrêmes. Cette méthode étant fondée sur l'approximation de la loi des excès au-delà d'un seuil par une loi GPD, nous cherchons à mieux en estimer les paramètres. L'inférence bayésienne sur les paramètres de la loi GPD permet de réduire le biais d'estimation des quantiles extrêmes par la méthode POT, en particulier quand on introduit un avis d'expert sur la queue de distribution.
29

Méthodes de Monte Carlo du second ordre et d'inférence bayésienne pour l'évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes

Rigaux, Clémence, Rigaux, Clémence 14 February 2013 (has links) (PDF)
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne.
30

Modélisation markovienne des dynamiques d'usage des sols. Cas des parcelles situées sur le bord du corridor forestier Ranomafana-Andringitra

Raherinirina, Angelo 02 August 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modélisation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'Andringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de données de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'approximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus nécessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.

Page generated in 0.4826 seconds