• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 1
  • Tagged with
  • 39
  • 15
  • 14
  • 13
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Uncertainty quantification and calibration of a photovoltaic plant model : warranty of performance and robust estimation of the long-term production. / Quantification des incertitudes et calage d'un modèle de centrale photovoltaïque : garantie de performance et estimation robuste de la production long-terme

Carmassi, Mathieu 21 December 2018 (has links)
Les difficultés de mise en œuvre d'expériences de terrain ou de laboratoire, ainsi que les coûts associés, conduisent les sociétés industrielles à se tourner vers des codes numériques de calcul. Ces codes, censés être représentatifs des phénomènes physiques en jeu, entraînent néanmoins tout un cortège de problèmes. Le premier de ces problèmes provient de la volonté de prédire la réalité à partir d'un modèle informatique. En effet, le code doit être représentatif du phénomène et, par conséquent, être capable de simuler des données proches de la réalité. Or, malgré le constant développement du réalisme de ces codes, des erreurs de prédiction subsistent. Elles sont de deux natures différentes. La première provient de la différence entre le phénomène physique et les valeurs relevées expérimentalement. La deuxième concerne l'écart entre le code développé et le phénomène physique. Pour diminuer cet écart, souvent qualifié de biais ou d'erreur de modèle, les développeurs complexifient en général les codes, les rendant très chronophages dans certains cas. De plus, le code dépend de paramètres à fixer par l'utilisateur qui doivent être choisis pour correspondre au mieux aux données de terrain. L'estimation de ces paramètres propres au code s'appelle le calage. Cette thèse propose dans un premier temps une revue des méthodes statistiques nécessaires à la compréhension du calage Bayésien. Ensuite, une revue des principales méthodes de calage est présentée accompagnée d'un exemple comparatif basé sur un code de calcul servant à prédire la puissance d'une centrale photovoltaïque. Le package appelé CaliCo qui permet de réaliser un calage rapide de beaucoup de codes numériques est alors présenté. Enfin, un cas d'étude réel d'une grande centrale photovoltaïque sera introduit et le calage réalisé pour effectuer un suivi de performance de la centrale. Ce cas de code industriel particulier introduit des spécificités de calage numériques qui seront abordées et deux modèles statistiques y seront exposés. / Field experiments are often difficult and expensive to make. To bypass these issues, industrial companies have developed computational codes. These codes intend to be representative of the physical system, but come with a certain amount of problems. The code intends to be as close as possible to the physical system. It turns out that, despite continuous code development, the difference between the code outputs and experiments can remain significant. Two kinds of uncertainties are observed. The first one comes from the difference between the physical phenomenon and the values recorded experimentally. The second concerns the gap between the code and the physical system. To reduce this difference, often named model bias, discrepancy, or model error, computer codes are generally complexified in order to make them more realistic. These improvements lead to time consuming codes. Moreover, a code often depends on parameters to be set by the user to make the code as close as possible to field data. This estimation task is called calibration. This thesis first proposes a review of the statistical methods necessary to understand Bayesian calibration. Then, a review of the main calibration methods is presented with a comparative example based on a numerical code used to predict the power of a photovoltaic plant. The package called CaliCo which allows to quickly perform a Bayesian calibration on a lot of numerical codes is then presented. Finally, a real case study of a large photovoltaic power plant will be introduced and the calibration carried out as part of a performance monitoring framework. This particular case of industrial code introduces numerical calibration specificities that will be discussed with two statistical models.
22

prise en compte du fonctionnement hydrodynamique dans la modélisation pluie débit des systèmes karstiques

Moussu, François 06 July 2011 (has links) (PDF)
Les systèmes karstiques ont longtemps été étudiés par des analyses statistiques issues du traitement du signal. Plus récemment, des tentatives de modélisation hydrologique ont été réalisées sur ces systèmes, avec des succès mitigés. Cette thèse allie deux domaines de recherche, l'hydrologie et l'hydrogéologie karstique. Dans ce mémoire, nous utilisons les analyses du signal dans le but d'améliorer les performances et le réalisme des modèles pluie-débit calés sur ces systèmes karstiques. Pour cela nous nous appuyons sur un échantillon de quatorze systèmes karstiques et un ensemble de quatre modèles hydrologiques à réservoirs. La première étape nous a permis de dresser un bilan de l'état de la modélisation pluie-débit appliquée aux systèmes karstiques dans un contexte d'évaluation des performances classiques s'appuyant sur le schéma standard des moindres carrés des erreurs. Globalement les quatre modèles pluie-débit parviennent à modéliser correctement la majorité des systèmes karstiques étudiés. Dans une deuxième étape, nous avons développé une méthodologie originale prenant en compte les caractéristiques hydrodynamiques de ces systèmes déduites d'analyses statistiques classique en hydrogéologie karstique. En effet, notre objectif n'est pas seulement d'avoir de bonnes performances sur le schéma standard des moindres carrés des erreurs, mais aussi de respecter les caractéristiques hydrodynamiques particulières de ces systèmes. Pour cela, nous avons développé des outils afin de prendre en compte les caractéristiques spécifiques à ces systèmes selon deux axes : * Contraindre la structure des modèles à partir d'informations issues de l'analyse du fonctionnement du système. Pour cela, nous avons utilisé le coefficient de tarissement issu de l'analyse des récessions. Le résultat est un schéma d'optimisation semi automatique des paramètres dans lequel un des paramètres est prescrit par l'analyse préliminaire et les autres sont calés automatiquement. Cette démarche confère au modèle résultant une représentation du fonctionnement hydrodynamique des systèmes karstiques plus en accord avec la connaissance a priori que l'on a de ces systèmes. * Contraindre les paramètres des modèles et leur capacité à représenter le fonctionnement des systèmes karstiques. Pour cela, nous avons développé une méthodologie de calage multi-objectif afin d'évaluer les performances des modèles à reproduire d'une part le débit observé mais aussi les propriétés hydrodynamiques. La démarche de comparaison de différentes stratégies de calage a ainsi permis d'améliorer la qualité de l'ajustement entre les fonctions d'autocorrélation des débits simulés et observés, tout en conservant des valeurs raisonnables selon le schéma standard des moindres carrés des erreurs Cette approche permet en outre de réduire les incertitudes sur les paramètres par rapport aux stratégies de calage mono-objectif. Enfin, nous avons tenté de rendre compte de la diversité de structure et de comportement des systèmes sur la base des paramètres issus du calage des modèles pluie-débit. Ces paramètres ont été comparés d'une part à ceux couramment employés en hydrogéologie karstique (Classification de Mangin) et d'autre part aux paramètres des modèles représentatifs de bassins non karstiques.
23

Modélisation du procédé bioréacteur à membranes immergées : calage et validation du modèle ASM1 sur un site réel : étude des interactions boues activées, conditions opératoires et membrane

Delrue, Florian 22 December 2008 (has links)
Les bioréacteurs à membranes (BAM) sont de plus en plus utilisés dans le domaine du traitement des eaux résiduaires urbaines notamment lorsque le terrain est limité ou qu’un traitement épuratoire poussé est requis. Néanmoins, la gestion de ces installations et plus particulièrement du colmatage des membranes reste difficile et constitue toujours une source de problèmes pour les exploitants. La modélisation est un outil efficace et déjà éprouvé sur les procédés conventionnels à boues activées pour l’aide à la conduite et à la compréhension de procédé avec les modèles de boues activées de type ASM. Le traitement biologique donc, et aussi les capacités de filtration des membranes (colmatage) sont deux aspects qui peuvent être modélisés sur les BAM. Au cours de ce travail, trois installations réelles ont été étudiées et l’une d’entre elles a été choisie pour le calage du modèle ASM1. La méthodologie a été adaptée aux spécificités des bioréacteurs à membranes et de l’installation modélisée en particulier (fractionnement des eaux usées, calage de l’aération) et un nouveau jeu de paramètres de l’ASM1 a pu être constitué. L’influence des propriétés des boues activées et des conditions d’opération sur les capacités de filtration des membranes reste encore l’objet de nombreuses recherches, généralement sur installations pilotes, et la modélisation dans ce domaine n’en est qu’à ses débuts. L’objectif de ce travail concernant la filtration membranaire a été de caractériser le système « membrane/boues » à travers l’étude des interactions entre les propriétés des boues, les conditions d’opération et les paramètres de la filtration (perméabilité membranaire et vitesse de colmatage) à comparer avec les résultats de la littérature scientifique. Les deux BAM étudiés ont montré des comportements et relations entre paramètres assez différents confirmant la complexité des interactions entre membrane, boues et conditions opératoires. / Membrane bioreactors (MBRs) are becoming increasingly popular for the treatment of municipal wastewater especially when land is limited or when the treatment requirements are high. Nevertheless, the operation of these plants and in particular the fouling of the membrane are still difficult to manage for the operators. Modelling is an efficient tool, which has already been successfully used on conventional activated sludge processes, for the operation and the understanding of the process using Activated Sludge Models (ASM). Biological treatment and membranes filtration capacity (fouling) are two aspects that can be modeled on MBRs. In this work, three full-scale plants were investigated and one of them was chosen for the ASM1 calibration. The usual methodology was adapted to the MBR specificities and to the modeled wastewater treatment plant in particular (wastewater fractionation, oxygen calibration) and a new set of ASM1 parameters was estimated. The influence of the sludge properties and the operating conditions on the membrane filtration capacity is still the subject of numerous studies, generally on pilot-scale MBRs, and modelling is in its early stages. The objective of this work regarding membrane filtration was to characterize the “membrane/sludge” system by studying the interactions between the sludge properties, the operating conditions and the filtration parameters (membrane permeability and fouling rate) and to compare them with the results from the literature. The two studied MBRs showed quite different behaviors and correlations between parameters, validating the statement that the interactions between membranes, sludge and operating conditions are very complex.
24

Commandes non linéaires robustes de systèmes éoliens / Nonlinear robust control of wind turbines systems

Guenoune, Ibrahim 08 February 2018 (has links)
Le travail de cette thèse s’inscrit dans la commande non linéaire des structures éoliennes. Le premier objectif de cette thèse est la commande d’une éolienne standard fonctionnant à vitesse et angle de calage variables. Les stratégies de commande proposées permettant de commander l’éolienne dans des zones de fonctionnement différentes (optimisation et limitation de la puissance produite). Le deuxième objectif consiste en la conception de commande d’une nouvelle structure d’éolienne à double rotor. L’originalité de cette structure réside dans le fait qu’elle peut pivoter face au vent sans actionneur dédié, et ce grâce à la rotation libre du bras portant les deux éoliennes. Deux architectures de commande sont proposées afin d’orienter la structure face au vent : l’une crée un différentiel des angles de calage des pales des deux éoliennes, l’autre agissant via la différence de puissance produite par les deux génératrices. Étant donné que l’environnement est incertain et fortement perturbé (variations du vent, erreurs de modélisation, bruits de mesure), des lois de commande non linéaires robustes sont proposées. L’efficacité des stratégies de commande a été vérifiée selon différents scénarios. / This work deals the nonlinear control of wind turbine structures. The first objective is the design of control laws of a standard wind turbine with variable speed-variable pitch angle. The proposed control strategies allow controlling the wind turbine indifferent operating areas (optimization and powerlimitation).The second objective consists in controlling a new structure of twin wind turbines. The originality of this structure lies in the fact that it can rotate face the wind without using a dedicated actuator, thanks to the free rotation of the arm carrying the wind turbines. Two control architectures are proposed in order to ensure the structure face the wind : pitch angles differential and the produced power difference. Given that the environment is uncertain (windvariations, modeling errors, noise), robust nonlinear control laws are proposed for a multiple objectives. The efficiency of the control strategies have been carried out according to several scenarios.
25

INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES

Romary, Thomas 19 December 2008 (has links) (PDF)
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.
26

Assistance au calage de modèles numériques en hydraulique fluviale -- Apports de l'intelligence artificielle

Vidal, Jean-Philippe 18 March 2005 (has links) (PDF)
Le calage d'un modèle numérique vise à reproduire des événements de référence par l'ajustement de paramètres à base physique. Cette thèse propose une approche à l'aide de Systèmes à Base de Connaissances. Après une définition des concepts clés, sont présentés un état de l'art et une analyse des différents objets, procédures et raisonnements mis en oeuvre pour mener à bien cette tâche. Ces éléments sont formalisés puis intégrés au sein d'un système d'assistance au calage, selon trois niveaux de connaissances : génériques, propres à l'hydraulique fluviale 1-D, et spécifiques au code de calcul utilisé. Deux cas réels d'application sont traités, en fonction des données disponibles et de l'objectif projeté du modèle. La thèse a permis la capitalisation d'un savoir-faire qui a conduit à un prototype opérationnel d'assistance au calage de modèles hydrauliques et au développement d'outils d'intelligence artificielle dédiés au calage et indépendants de la discipline considérée.
27

Evaluation des modèles de calcul des flux polluants des rejets urbains par temps de pluie: Apport de l'approche bayésienne

Kanso, Assem 09 1900 (has links) (PDF)
Ce travail de thèse se propose d'analyser et d'évaluer les modèles de calcul des flux polluants (MCFP) des rejets urbains par temps de pluie. Pour cela, un banc d'essai a été établi qui repose sur l'utilisation d'une méthodologie basée sur la théorie bayésienne. Ce banc d'essai a été utilisé à des différentes échelles d'espace tout au long du cheminement de l'eau de ruissellement depuis les chaussées jusqu'à l'exutoire du réseau d'assainissement sur le site du bassin versant expérimental du Marais à Paris. Cette méthodologie du banc d'essai utilise une technique de simulation par chaîne de Markov (algorithme Metropolis) pour estimer la distribution de probabilité a posteriori des paramètres du modèle, ce qui permet : - Une évaluation quantitative des incertitudes liées à l'estimation des paramètres ainsi que leurs interactions ; - Une estimation quantitative du niveau d'incertitude dans les résultats d'application de ces modèles ; - Une estimation du pouvoir prédictif du modèle. A l'échelle locale, des modèles d'accumulation, d'entraînement des solides sur les surfaces urbaines, et des modèles d'érosion des solides dans les réseaux d'assainissement ont été testés et analysés. A l'échelle du bassin versant le couplage des modèles élémentaires tel qu'ils sont utilisés dans les logiciels actuels, a pu être évalué. La méthodologie de mise en œuvre a produit des résultats fiables en particulier des distributions de paramètres des modèles qui aident à l'analyse mathématique et à l'interprétation des modèles couramment utilisés. Elle a démontré l'existence de larges incertitudes liées à l'utilisation des MCFP à l'échelle de bassin versant. Ces modèles n'expliquent qu'une faible partie de la variation de la concentration des MES entre 2 événements pluvieux ou à l'intérieur d'un même événement sur le site étudié.
28

Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs

Langouët, Hoël 28 June 2011 (has links) (PDF)
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
29

Analyse d'images satellitaires d'inondations pour la caractérisation tridimensionnelle de l'aléa et l'aide à la modélisation hydraulique

Hostache, Renaud 12 1900 (has links) (PDF)
Ce travail vise à étendre les méthodes d'analyse d'images satellitaires de crues au-delà de la détection des limites d'inondation afin d'estimer des niveaux d'eau distribués dans l'espace et d'aider la modélisation hydraulique.Inspirée des travaux de Raclot (2003) sur photographies aériennes qui fournissent des incertitudes moyennes de ±20cm, la méthode d'estimation des niveaux d'eau utilise des images satellitaires RADAR de crue et un MNT fin. Elle repose sur 1) une phase de télédétection pour cartographier l'inondation et analyser la pertinence de ses limites pour l'estimation des niveaux d'eau, 2) une phase d'analyse spatiale dans laquelle les niveaux d'eau sont estimés par croisement entre les limites pertinentes et un MNT fin, puis contraints par le schéma de circulation des eaux. Les estimations de niveaux d'eau obtenues ont une incertitude moyenne de ±38cm pour une image RADARSAT-1 d'une crue de la Moselle (France, 1997). Des travaux de validation ont permis de calculer une RMSE de l'ordre de 13cm pour une image ENVISAT de l'Alzette (Luxembourg, 2003).Pour aider la modélisation hydraulique, la démarche proposée vise à réduire le phénomène d'équifinalité grâce aux images satellitaires. Pour cela, un calage "traditionnel" à partir d'hydrogrammes observés est complété par la comparaison entre résultats du modèle et surfaces inondées ou niveaux d'eau extraits des images. Pour cerner les incertitudes du calage, des simulations Monte-Carlo ont été mises en place. En perspective, la prévision de l'évolution d'une crue après acquisition d'une image devrait bénéficier de modèles mieux contraints grâce à l'utilisation des images comme condition initiale ou donnée de calage.
30

Comportement du procédé R3F en nitrification : suivi, modélisation dynamique et limites du procédé

Barry, Ugo 12 March 2013 (has links) (PDF)
Le procédé à biofilm R3F / MBBR est une technologie récente en France qui vient s'ajouter à la gamme des procédés biologiques de traitement de la matière organique et azotée des eaux usées. Sa valeur ajoutée repose sur sa compacité grâce au développement d'une quantité importante de biomasse bactérienne dans un ouvrage à emprise au sol faible. Ainsi, le procédé R3F / MBBR s'avère être une solution intéressante pour le traitement de l'azote dans un contexte de contrainte foncière importante. Le principe de la technologie est l'emploi de biomédias, supports plastiques de quelques centimètres, sur lesquels un biofilm bactérien se développe. Ces biomédias sont mis en suspension dans le réacteur par insufflation d'air ou par brassage mécanique. Aujourd'hui, la modélisation est devenue un outil précieux d'aide au dimensionnement. S'il existe beaucoup de modèles de biofilm aujourd'hui, peu de travaux de recherche ont abouti à l'élaboration d'un modèle dynamique R3F / MBBR à destination de l'ingénierie et capable de simuler le procédé en conditions réelles. Ainsi, l'objectif principal de cette thèse est la construction d'un modèle dynamique utilisable en ingénierie. La validation d'un tel modèle avec des données de terrain n'ayant pas encore été faite, ce point constituera une originalité. Pour ce faire, le fonctionnement d'une unité pilote R3F alimentée par des eaux résiduaires urbaines a été étudié. Le suivi du pilote pendant près de 2 ans en régime pseudo-permanent a d'abord permis d'évaluer les performances de 3 biomédias, travail là encore jamais réalisé. Ensuite, le régime dynamique, par l'application d'à-coups de charge hydraulique à une charge surfacique appliquée donnée, a été étudié. Une campagne de mesure intensive pendant une période de 4 jours en régime dynamique a servi de base pour le calage du modèle. Une période de 30 jours en régime pseudo-permanent a servi de base pour la validation du modèle.Ce travail de modélisation a abouti à l'élaboration d'un protocole de calage qui informe des paramètres à mesurer, et à modifier pour obtenir un modèle dynamique du procédé R3F / MBBR capable de simuler son fonctionnement en conditions réelles. Des protocoles de mesure ont également été élaborés pour estimer la valeur des paramètres à mesurer. Des simulations prédictives réalisées avec le modèle nouvellement calé ont ensuite permis d'évaluer le procédé dans de nouvelles conditions de fonctionnement. Une étude critique du modèle a abouti à la détermination de faiblesses qui limitent la qualité des simulations. Pour ces faiblesses, des propositions d'amélioration ont été apportées.

Page generated in 0.0361 seconds