• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Conduite d'expériences par apprentissage actif pour l'identification de systèmes dynamiques biologiques : application à l'estimation de paramètres d'équations différentielles ordinaires / Design of experiments by active learning for the identification of dynamical biological systems

Mezine, Adel 11 October 2016 (has links)
Ces dernières années, les progrès continuels des techniques de criblage et de séquençage à haut débit ont nourri la biologie des systèmes, ouvrant la voie à l’identification de systèmes dynamiques biologiques tels que des réseaux de régulation génique. Cependant, l’insuffisance et la mauvaise qualité des données expérimentales se traduisent trop souvent par des estimations incertaines des paramètres d’intérêt des systèmes étudiés : ces incertitudes peuvent être levées en produisant de nouvelles données dans des conditions expérimentales variées, ce qui implique un coût potentiellement élevé. Dans cette thèse, nous proposons un nouvel algorithme d’apprentissage actif, destiné à recommander de manière séquentielle les expériences les plus utiles à l’identification de systèmes dynamiques biologiques modélisés par des équations différentielles. Le problème est formulé sous la forme d’un jeu à un joueur : le joueur se voit attribuer un budget dédié aux expérimentations, et un coût spécifique est affecté à chaque expérience ; à chaque tour, il est amené à choisir une, voire plusieurs expériences réalisées sur le système étudié dans le but de maximiser la qualité de l’estimation, une fois le budget épuisé. Notre approche, intitulée « ExperimentalDEsign for Network inference » (EDEN), s’appuie sur la classe d’algorithme UCT (Upper Confidence bounds for Trees search) qui allie la souplesse de la recherche arborescente de Monte-Carlo à l’efficacité des algorithmes de bandits multi-bras pour parcourir l’ensemble des séquences d’expériences possibles en privilégiant surtout celles qui sont les plus prometteuses. EDEN présente le grand avantage d’anticiper les expériences suivantes en sélectionnant à chaque tour des expériences sachant qu’elles seront suivies par un certain nombre d’autres expériences. Illustrée sur deux cas d’étude, le réseau de signalisation JAK/STAT et un des réseaux de régulation génique proposé dans la compétition internationale DREAM7, EDEN, entièrement automatique, obtient de très bonnes performances pour un budget limité et un large choix d’expériences (perturbations, mesures). / Continuous progress in screening and high-throughput sequencing techniques in recent years paves the way for the identification of dynamic biological systems such as gene regulatory networks. However, the scarcity of the experimental data often leads to anuncertain estimation of parameters of interest. These uncertainties can be solved by generating new data in different experimental conditions, which induces additional costs. This thesis proposes a general active learning approach to develop tools of sequential experimental design for the identification of dynamical biological systems. The problem is formulated as a one-player game : the player has a budget dedicated for his experiments, each experiment has a different cost ; at every turn, he chooses one or more experiments to be performed on the system with the ultimate aim of maximizing the quality of the estimate, until the available budget is exhausted. The proposed approach called Experimental DEsign for Network inference (EDEN), is based on UCT (Upper Confident bounds for Trees) algorithm which combines Monte-Carlo tree search algorithms with multi-arm bandits to perform an effective exploration of the possible sequences of experiments. A strong point of the approach is anticipation : an experiment is selected at each round, knowing that this round will be followed by a number of other experiments, according to the available budget. This generic approach is rolled out in parameter estimation in nonlinear ordinary differential equations using partial observations. EDEN is applied on two problems : signaling network and gene regulatory network identification. Compared to the competitors, it exhibits very good results on a DREAM7 challenge where a limited budget and a wide range of experiments (perturbations, measurements) are available.
2

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.
3

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Page generated in 0.1629 seconds