• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimisation de réseaux de capteurs pour la caractérisation de source de rejets atmosphériques / Sensors networks optimization for the characterization of atmospheric releases source

Kouichi, Hamza 18 July 2017 (has links)
L’objectif principal de cette étude est de définir les méthodes nécessaires pour optimiser un réseau de surveillance conçu pour la caractérisation de source de rejets atmosphériques. L’optimisation consiste ici à déterminer le nombre et les positions optimales de capteurs à déployer afin de répondre à ce type de besoin. Dans ce contexte, l’optimisation est réalisée pour la première fois par un couplage entre la technique d’inversion de données dite de « renormalisation » et des algorithmes d’optimisation métaheuristique. La méthode d’inversion a été en premier lieu évaluée pour la caractérisation de source ponctuelle, et a permis ensuite, de définir des critères d’optimalité pour la conception des réseaux. Dans cette étude, le processus d’optimisation a été évalué dans le cadre d’expériences réalisées en terrain plat sans obstacles (DYCE) et en milieu urbain idéalisé (MUST). Trois problématiques ont été définies et testées sur ces expériences. Elles concernent (i) la détermination de la taille optimale d’un réseau permettant de caractériser une source de pollution, où une fonction coût (erreurs normalisées), traduisant l’écart entre les observations et les données modélisées, a été minimisée ; (ii) la conception optimale d’un réseau permettant de caractériser une source ponctuelle inconnue, pour une condition météorologique particulière. Dans ce contexte, une fonction coût entropique a été maximisée afin d’augmenter la quantité d’information fournie par le réseau ; (iii) la détermination d’un réseau optimal permettant de caractériser une source ponctuelle inconnue pour des configurations météorologiques multiples. Pour ce faire, une fonction coût entropique généralisée, que nous avons définie, a été maximisée. Pour ces trois problématiques, l’optimisation est assurée dans le cadre d’une approche d’optimisation combinatoire. La détermination de la taille optimale d’un réseau (problématique 1) s’est révélée particulièrement sensible aux différentes conditions expérimentales (hauteur et débit de la source, conditions de stabilité, vitesse et direction du vent, etc.). Nous avons noté pour ces expériences, que les performances des réseaux sont meilleures dans le cadre d’une dispersion sur terrain plat comparativement aux milieux urbains. Nous avons également montré que différentes architectures de réseaux pouvaient converger vers le même optimum (approché ou global). Pour la caractérisation de sources inconnues (problématiques 2 et 3), les fonctions coûts entropiques se sont avérées robustes et ont permis d’obtenir des réseaux optimaux performants (de tailles raisonnables) capables de caractériser différentes sources pour une ou plusieurs conditions météorologiques. / The main objective of this study is to define the methods required to optimize a monitoring network designed for atmospheric source characterization. The optimization consists in determining the optimal number and locations of sensors to be deployed in order to respond to such needs. In this context, the optimization is performed for the first time by a coupling between the data inversion technique named "renormalization" and the metaheuristic optimization algorithms. At first, the inversion method was evaluated for a point source, and then have allowed to define optimality criteria for networks design. In this study, the optimization process was evaluated in experiments carried out in flat terrain without obstacles (DYCE) and in an idealized urban environment (MUST). Three problems were defined and tested based on these experiments. These problems concern (i) the determination of the optimal network size for source characterization, for which a cost function (standard errors) estimating the gap between observations and modeled data, has been minimized; (ii) the optimal design of a network to retrieve an unknown point source for a particular meteorological condition. In this context, an entropy cost function has been maximized in order to increase the information’s amount provided by the network; (iii) the determination of an optimal network to reconstruct an unknown point source for multiple meteorological configurations. For this purpose, a generalized entropic cost function that we have defined, has been maximized. For these all problems, optimization is ensured within the framework of a combinatorial optimization approach. The determination of the optimal network size (problem 1) was highly sensitive to experimental conditions (source height and intensity, stability conditions, wind speed and direction, etc.). We have noted that the networks performance is better for a dispersion on flat terrain compared to the urban environments. We have also shown that different networks architectures can converge towards the same optimum (approximate or global). For unknown sources reconstruction (problems 2 and 3), the entropic cost functions have proven to be robust and allowed to obtain optimal networks (for reasonable sizes) capable of characterizing different sources for one or multiple meteorological conditions.
2

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.
3

Amélioration d'une modélisation hydrologique régionalisée pour estimer les statistiques d'étiage / Improvement of a regionalized rainfall-runoff model to estimate low-flow indices

Garcia, Florine 15 December 2016 (has links)
L'estimation d'indices d'étiage est d'une grande importance pour une meilleure connaissance de la ressource en eau disponible et en déduire des règles de gestion de cette ressource et des risques associés. Idéalement, ces indices sont calculés en sites jaugés à partir de longues chroniques de débits mesurés. En sites non jaugés, ces indices doivent être estimés. Cette thèse s'inscrit dans le projet d'amélioration de l'outil informatique " LoiEau " utilisé par les DREAL et les Agences de l'eau. Le principal objectif est de développer un modèle hydrologique simple et flexible pour estimer tous les indices d'étiage souhaités à des intervalles de temps journaliers ou supérieurs en sites non jaugés. La simplicité du modèle repose sur l'hypothèse forte que deux paramètres plus facilement régionalisables suffisent à estimer les indices avec une précision voulue. Cette précision dépend de la fonction objectif qu'il a fallu adapter aux faibles débits pour caler convenablement les paramètres du modèle sur des sites jaugés. Le modèle se veut flexible dans le sens où il est applicable à une large variété de bassins versants. Il a été comparé au modèle journalier à quatre paramètres GR4J et au modèle mensuel à deux paramètres LoiEau en s'intéressant aussi à la façon de régionaliser les paramètres. Des comparaisons ont également été réalisées avec une méthode d'estimation dite stochastique d'un indice d'étiage classique. Ces travaux montrent le potentiel du modèle à deux paramètres et l'avantage du pas de temps journalier, la variabilité temporelle des précipitations n'étant pas sans conséquence sur l'estimation de débits moyens en raison de la non-linéarité des modèles pluies-débits. / Estimating low-flow indices is of paramount importance to understand low flows and to manage water resources and risk assessments. These indices are derived from time-series of river discharges that are measured at gauged sites over long periods. At ungauged sites, the indices must be estimated. This research work is part of a project to improve “LoiEau”, a software package that is used by French regional environmental or water agencies. The main objective is to develop a simple and flexible rainfall-runoff model to simulate low-flow indices of ungauged sites at daily or longer time intervals. The model simplicity relies on the strong assumption that two free parameters are sufficient to provide accurate enough estimates of low-flow indices, yet making easier the regionalisation of models. The model accuracy depends on the objective function that is used to calibrate model parameters on gauged sites and had to be adapted to low-flow simulations. The model is flexible in the sense that it is designed to fit to a wide variety of catchments and hydro-meteorological behaviours. This model was compared with GR4J, a daily rainfall-runoff model which involves four parameters, and LoiEau, a monthly model. Comparisons were also carried out with a stochastic estimation method applied to a specific low-flow index. This research work shows the potential of the two-parameter model, but also the advantage of a daily time step to account for the temporal variability of precipitations, which is not without consequence on the assessment of average discharges due to the nonlinearity of rainfall-runoff models.
4

prise en compte du fonctionnement hydrodynamique dans la modélisation pluie débit des systèmes karstiques

Moussu, François 06 July 2011 (has links) (PDF)
Les systèmes karstiques ont longtemps été étudiés par des analyses statistiques issues du traitement du signal. Plus récemment, des tentatives de modélisation hydrologique ont été réalisées sur ces systèmes, avec des succès mitigés. Cette thèse allie deux domaines de recherche, l'hydrologie et l'hydrogéologie karstique. Dans ce mémoire, nous utilisons les analyses du signal dans le but d'améliorer les performances et le réalisme des modèles pluie-débit calés sur ces systèmes karstiques. Pour cela nous nous appuyons sur un échantillon de quatorze systèmes karstiques et un ensemble de quatre modèles hydrologiques à réservoirs. La première étape nous a permis de dresser un bilan de l'état de la modélisation pluie-débit appliquée aux systèmes karstiques dans un contexte d'évaluation des performances classiques s'appuyant sur le schéma standard des moindres carrés des erreurs. Globalement les quatre modèles pluie-débit parviennent à modéliser correctement la majorité des systèmes karstiques étudiés. Dans une deuxième étape, nous avons développé une méthodologie originale prenant en compte les caractéristiques hydrodynamiques de ces systèmes déduites d'analyses statistiques classique en hydrogéologie karstique. En effet, notre objectif n'est pas seulement d'avoir de bonnes performances sur le schéma standard des moindres carrés des erreurs, mais aussi de respecter les caractéristiques hydrodynamiques particulières de ces systèmes. Pour cela, nous avons développé des outils afin de prendre en compte les caractéristiques spécifiques à ces systèmes selon deux axes : * Contraindre la structure des modèles à partir d'informations issues de l'analyse du fonctionnement du système. Pour cela, nous avons utilisé le coefficient de tarissement issu de l'analyse des récessions. Le résultat est un schéma d'optimisation semi automatique des paramètres dans lequel un des paramètres est prescrit par l'analyse préliminaire et les autres sont calés automatiquement. Cette démarche confère au modèle résultant une représentation du fonctionnement hydrodynamique des systèmes karstiques plus en accord avec la connaissance a priori que l'on a de ces systèmes. * Contraindre les paramètres des modèles et leur capacité à représenter le fonctionnement des systèmes karstiques. Pour cela, nous avons développé une méthodologie de calage multi-objectif afin d'évaluer les performances des modèles à reproduire d'une part le débit observé mais aussi les propriétés hydrodynamiques. La démarche de comparaison de différentes stratégies de calage a ainsi permis d'améliorer la qualité de l'ajustement entre les fonctions d'autocorrélation des débits simulés et observés, tout en conservant des valeurs raisonnables selon le schéma standard des moindres carrés des erreurs Cette approche permet en outre de réduire les incertitudes sur les paramètres par rapport aux stratégies de calage mono-objectif. Enfin, nous avons tenté de rendre compte de la diversité de structure et de comportement des systèmes sur la base des paramètres issus du calage des modèles pluie-débit. Ces paramètres ont été comparés d'une part à ceux couramment employés en hydrogéologie karstique (Classification de Mangin) et d'autre part aux paramètres des modèles représentatifs de bassins non karstiques.
5

Optimisation topologique des transferts thermiques et massiques dans un canal asymétriquement chauffé / Topology optimization of heat and mass transfer in an asymmetrically-heated vertical channel

Barbary, Delphine 13 December 2017 (has links)
Les présents travaux de thèse envisagent une nouvelle technique d'optimisation au sens topologique dans des géométries de type canal vertical où se réalisent des transferts de chaleur conducto-convectifs en régime laminaire. Les équations qui décrivent l'écoulement du fluide et le transfert d'énergie sont discrétisées par la méthode des volumes finis. La première partie du mémoire présente une nouvelle technique d'optimisation et sa validation sur des cas d'études de la littérature (single pipe, bend pipe). Cette technique consiste à définir des fonctions d'interpolation de type sigmoïde et permet d'obtenir une amélioration de l'interface fluide-solide au cours du processus d'optimisation. La seconde partie met en évidence les phénomènes physiques dans le canal asymétriquement chauffé, notamment l'influence de la stratification thermique extérieure et du rayonnement de surface sur les quantités aérauliques et thermiques. Enfin, une nouvelle expression de la puissance mécanique pour contrôler les pertes de charge (malgré l'ajout de matière) dans le canal vertical combinée avec une nouvelle expression de la puissance thermique sont étudiées. Le problème ainsi posé est résolu pour un écoulement en convection naturelle. Pour les cas considérés, chacune des fonctions coût est optimisée sans détériorer l'autre. Nous comparons aussi les valeurs des puissances obtenues par notre algorithme avec celles couramment utilisées dans la littérature et montrons que ces nouvelles fonctionnelles sont performantes. / This thesis deals with topology optimization of mass and heat transfer in the framework of the vertical asymetrically-heated channel. The incompressible Navier-Stokes equations coupled to the convection-diffusion equation through the Boussinesq approximation are employed and are solved with the finite volume method. We first propose a new interpolation technique for heat transfer optimization and validate it on referenced cases such as the "single pipe" and the "bend pipe". This new technique consists in the introduction of sigmoid interpolation functions to obain a better definition of the interface between fluid and solid domains, during the optimization process. We study then physical phenomenon in the asymmetrically heated channel , in particular the influence of thermal stratification outside the channel and surface radiation on thermal and dynamic quantities. We thus highlight the size variation of reversed flow at the exit of the channel and the plug-effect linked on external thermal stratification. Finally, we propose a new expression of mechanical power in order to control charges losses (despite addition of material) in the vertical channel combined with the expression of thermal power. In all considered cases, our algorithm succeeds to enhance one of the phenomenon modelled by our new cost functions without deteriorating the other one. We also compare the values of standard cost functions from the litterature over iteration of our optimization algorithm and show that our new cost functions are effective.
6

Représentations analytiques des objets géométriques et contours actifs en imagerie

Dehaes, Mathieu January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Towards Understanding Generalization in Gradient-Based Meta-Learning

Guiroy, Simon 08 1900 (has links)
Dans ce mémoire, nous étudions la généralisation des réseaux de neurones dans le contexte du méta-apprentissage, en analysant divers propriétés des surface leurs fonctions objectifs. La recherche en apprentissage automatique portant sur les surfaces de fonctions objectifs des réseaux de neurones ayant aidé à comprendre leur généralisation en apprentissage supervisé standard, nous proposons l'étude de telles surfaces dans le but d'approfondir nos connaissances sur la généralisation en méta-apprentissage. Nous introduisons d'abord la littérature sur les fonctions objectifs des réseaux de neurones à la Section \ref{sec:intro:objective_landscapes}, puis celle portant sur le méta-apprentissage à la Section \ref{sec:intro:meta-learning}, pour enfin terminer notre introduction avec le méta-apprentissage par descente de gradient, très similaire à l'entraînement des réseaux de neurones par descente de gradient stochastique et pour une tâche unique. Nous présentons par la suite notre travail sur les fonctions objectifs en méta-apprentissage au Chapitre \ref{chap:prof_forcing}, lequel nous avons soumis à la conférence NeurIPS 2019 en tant qu'article scientifique. Au moment d'écrire ce mémoire, et au meilleur de notre connaissance, ce travail est le premier à étudier empiriquement les surfaces des fonctions objectifs en méta-apprentissage, particulièrement dans le contexte de l'apprentissage profond, et nous mettons notamment en lumière certaines propriétés de ces surfaces qui apparaissent liées à la généralisation des réseaux de neurones à de nouvelles tâches. Nous démontrons empiriquement qu'alors que progresse la phase de méta-entraînement, pour les solutions aux nouvelles tâches obtenues via quelques itérations de descente de gradient, la courbure de la fonction objective décroit monotoniquement, la valeur de la fonction objective diminue, tandis que la distance euclidienne avec la solution ``méta-entraînement" augmente. Cependant, nous observons que la courbure des minima continue de décroître même lorsque le sur-apprentissage devient apparent et que la généralisation commence à se dégrader, indiquant que la courbure des minima semble peu corrélée à la généralisation en méta-apprentissage par descente de gradient. De plus, nous montrons empiriquement que la généralisation aux nouvelles tâches semble plutôt liée à la cohérence de leurs trajectoires d'adaptation dans l'espace des paramètres, mesurée par la similarité cosinus moyenne entre les trajectoires. Nous montrons également que la cohérence des gradients ''meta-test", mesurée par le produit scalaire moyen entre les vecteurs de gradients spécifiques aux nouvelles tâches, évalué à solution meta-entraînement, est également corrélée à la généralisation. Nous basant sur ces observations, nous proposons un nouveau terme de régularisation pour l'algorithme de méta-apprentissage Model Agnostic Meta-Learning (MAML). / In this master's thesis, we study the generalization of neural networks in gradient-based meta-learning by analyzing various properties of the objective landscapes. Meta-learning, a challenging paradigm where models not only have to learn a task but beyond that, are trained for ``learning to learn" as they must adapt to new tasks and environments with very limited data about them. With research on the objective landscapes of neural networks in classical supervised having provided some answers regarding their ability to generalize for new data points, we propose similar analyses aimed at understanding generalization in meta-learning. We first introduce the literature on objective landscapes of neural networks in Section \ref{sec:intro:objective_landscapes}. We then introduce the literature of meta-learning in Section \ref{chap:prof_forcing}, concluding our introduction with the approach of gradient-based meta-learning, a meta-learning setup that bears strong similarities to the traditional supervised learning setup through stochastic gradient-based optimization. At the time of writing of this thesis, and to the best of our knowledge, this is the first work to empirically study the objective landscapes in gradient-based meta-learning, especially in the context of deep learning. We notably provide some insights on some properties of those landscapes that appear correlated to the generalization to new tasks. We experimentally demonstrate that as meta-training progresses, the meta-test solutions, obtained after adapting the meta-train solution of the model, to new tasks via few steps of gradient-based fine-tuning, become flatter, lower in loss, and further away from the meta-train solution. We also show that those meta-test solutions become flatter even as generalization starts to degrade, thus providing experimental evidence against the correlation between generalization and flat minima in the paradigm of gradient-based meta-leaning. Furthermore, we provide empirical evidence that generalization to new tasks is correlated with the coherence between their adaptation trajectories in parameter space, measured by the average cosine similarity between task-specific trajectory directions, starting from a same meta-train solution. We also show that coherence of meta-test gradients, measured by the average inner product between the task-specific gradient vectors evaluated at meta-train solution, is also correlated with generalization. Based on these observations, we propose a novel regularizer for the Model Agnostic Meta-Learning (MAML) algorithm and provide experimental evidence for its effectiveness.

Page generated in 0.0783 seconds