• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 23
  • 9
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 169
  • 169
  • 35
  • 27
  • 27
  • 25
  • 24
  • 23
  • 23
  • 22
  • 20
  • 19
  • 17
  • 16
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Conception Optimale Intégrée d'une chaîne éolienne "passive" : analyse de robustesse, validation expérimentale / Integrated Optimal Design of a passive wind turbine system : robust analysis, experimental validation

Tran, Duc-Hoan 27 September 2010 (has links)
Ce travail présente une méthodologie de Conception Optimale Intégrée (COI) d'un système éolien entièrement passif pour offrir un compromis coût-fiabilité–performance très satisfaisant. En l'absence d'électronique de puissance et de contrôle par MPPT, le dispositif n'est efficace que si l'adaptation des constituants est optimale. L'extraction de vent ainsi que les pertes globales du système sont donc optimisées à l'aide d'un algorithme génétique multicritère pour augmenter l'efficacité énergétique et minimiser la masse pour un profil de vent donné. La globalité du système (turbine – génératrice – redresseur - stockage) a été modélisée pour parvenir aux résultats d'optimisation et à la réalisation d'un prototype correspondant à une solution particulière. Les résultats obtenus montrent, d'une part, la cohérence entre modèles et expérience. D'autre part, il est possible, pour un profil de vent donné, d'obtenir une configuration optimale de l'ensemble génératrice – pont redresseur présentant des caractéristiques analogues à celles d'architectures « actives" plus complexes, associées à des lois de contrôle par MPPT. Suite à une analyse de sensibilité des performances aux paramètres, une de nos contributions concerne une approche de conception intégrant les questions de robustesse au sein même du processus d'optimisation. / This work deals with an Integrated Optimal Design (IOD) methodology of a full passive wind turbine system offering very good tradeoff in terms of cost, reliability and performance. Without active electronic device (power and MPPT control), efficiency of such architecture can only be obtained if all devices are mutually adapted: this can be achieved through an Integrated Optimal Design (IOD) approach. Wind energy extraction as whole losses are then optimized from a multiobjective genetic algorithm which aims at concurrently optimizing the energy efficiency while reducing the weight of the wind turbine system given a wind cycle. The whole system (turbine, generator, diode reducer, battery DC bus) has been modeled to obtain optimization results and finally to select a particular solution for an experimental validation. On the one hand, the obtained results put forward coherency between models and experience. On the other hand, given a reference wind cycle, it is possible to obtain optimal devices (generator – reducer – DC bus) whose energy efficiency is nearly equivalent to the ones obtained with active and more complex systems with MPPT control. Based on a sensitivity analysis of performance versus parametric uncertainties, one major contribution deals with a design methodology integrating robustness issues inside the optimization process.
142

Évaluation de paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité / Evaluation of safety parameters under uncertainty and optimal design of systems : application to safety instrumented systems

Sallak, Mohamed 19 October 2007 (has links)
L'introduction de systèmes instrumentés dédiés aux applications de sécurité impose l'évaluation de leur sûreté de fonctionnement. On utilise généralement pour cela les bases de données de fiabilité génériques. Cependant, le retour d'expérience pour ces systèmes qui présentent en général des défaillances rares est insuffisant pour valider les résultats obtenus. En outre, la collecte de données de fiabilité et leur extrapolation à d'autres composants introduisent des incertitudes. Les travaux de cette thèse portent sur la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des systèmes par le formalisme des sous ensembles flous. La méthodologie proposée est appliquée à l'évaluation des probabilités de défaillance des Systèmes Instrumentés de Sécurité (SIS) en présence de données de fiabilité imprécises. Nous introduisons deux nouveaux facteurs d'importance pour aider le concepteur. En outre, nous proposons une méthodologie d'aide à la conception des SIS basée sur la modélisation par réseaux de fiabilité et l'optimisation par des algorithmes génétiques de la structure des SIS pour le respect des niveaux d'intégrité de sécurité (SIL) exigés / The use of safety related systems imposes to evaluate their dependability. Laboratory data and generic data are often used to provide failure data of safety components to evaluate their dependability parameters. However, due to the lower solicitation of safety systems in plant, safety components have not been operating long enough to provide statistical valid failure data. Furthermore, measuring and collecting failure data have uncertainty associated with them, and borrowing data from laboratory and generic data sources involve uncertainty as well. Our contribution is to propose a fuzzy approach to evaluate dependability parameters of safety systems when there is an uncertainty about dependability parameters of systems components. This approach is applied to determine the failure probability on demand of Safety Instrumented Systems (SIS) in presence of uncertainty. Furthermore, we present an optimal design of SIS by using reliability graphs and genetic algorithms to identify the choice of components and design configuration in a SIS to meet the required SIL
143

Optimisation dynamique en temps-réel d’un procédé de polymérisation par greffage / Dynamic real-time optimization of a polymer grafting process

Bousbia-Salah, Ryad 17 December 2018 (has links)
D'une manière schématique, l'optimisation dynamique de procédés consiste en trois étapes de base : (i) la modélisation, dans laquelle un modèle (phénoménologique) du procédé est construit, (ii) la formulation du problème, dans laquelle le critère de performance, les contraintes et les variables de décision sont définis, (iii) et la résolution, dans laquelle les profils optimaux des variables de décision sont déterminés. Il est important de souligner que ces profils optimaux garantissent l'optimalité pour le modèle mathématique utilisé. Lorsqu'ils sont appliqués au procédé, ces profils ne sont optimaux que lorsque le modèle décrit parfaitement le comportement du procédé, ce qui est très rarement le cas dans la pratique. En effet, les incertitudes sur les paramètres du modèle, les perturbations du procédé, et les erreurs structurelles du modèle font que les profils optimaux des variables de décision basés sur le modèle ne seront probablement pas optimaux pour le procédé. L'application de ces profils au procédé conduit généralement à la violation de certaines contraintes et/ou à des performances sous-optimales. Pour faire face à ces problèmes, l'optimisation dynamique en temps-réel constitue une approche tout à fait intéressante. L'idée générale de cette approche est d'utiliser les mesures expérimentales associées au modèle du procédé pour améliorer les profils des variables de décision de sorte que les conditions d'optimalité soient vérifiées sur le procédé (maximisation des performances et satisfaction des contraintes). En effet, pour un problème d'optimisation sous contraintes, les conditions d'optimalité possèdent deux parties : la faisabilité et la sensibilité. Ces deux parties nécessitent différents types de mesures expérimentales, à savoir les valeurs du critère et des contraintes, et les gradients du critère et des contraintes par rapport aux variables de décision. L'objectif de cette thèse est de développer une stratégie conceptuelle d'utilisation de ces mesures expérimentales en ligne de sorte que le procédé vérifie non seulement les conditions nécessaires, mais également les conditions suffisantes d'optimalité. Ce développement conceptuel va notamment s'appuyer sur les récents progrès en optimisation déterministe (les méthodes stochastiques ne seront pas abordées dans ce travail) de procédés basés principalement sur l'estimation des variables d'état non mesurées à l'aide d'un observateur à horizon glissant. Une méthodologie d'optimisation dynamique en temps réel (D-RTO) a été développée et appliquée à un réacteur batch dans lequel une réaction de polymérisation par greffage a lieu. L'objectif est de déterminer le profil temporel de température du réacteur qui minimise le temps opératoire tout en respectant des contraintes terminales sur le taux de conversion et l'efficacité de greffage / In a schematic way, process optimization consists of three basic steps: (i) modeling, in which a (phenomenological) model of the process is developed, (ii) problem formulation, in which the criterion of Performance, constraints and decision variables are defined, (iii) the resolution of the optimal problem, in which the optimal profiles of the decision variables are determined. It is important to emphasize that these optimal profiles guarantee the optimality for the model used. When applied to the process, these profiles are optimal only when the model perfectly describes the behavior of the process, which is very rarely the case in practice. Indeed, uncertainties about model parameters, process disturbances, and structural model errors mean that the optimal profiles of the model-based decision variables will probably not be optimal for the process. The objective of this thesis is to develop a conceptual strategy for using experimental measurements online so that the process not only satisfies the necessary conditions, but also the optimal conditions. This conceptual development will in particular be based on recent advances in deterministic optimization (the stochastic methods will not be dealt with in this work) of processes based on the estimation of the state variables that are not measured by a moving horizon observer. A dynamic real-time optimization (D-RTO) methodology has been developed and applied to a batch reactor where polymer grafting reactions take place. The objective is to determine the on-line reactor temperature profile that minimizes the batch time while meeting terminal constraints on the overall conversion rate and grafting efficiency
144

Optimisation simultanée de la configuration et du dimensionnement des réseaux de chaleur urbains / District heating network optimization : configuration and design assistance at the same calculation time

Mertz, Théophile 10 September 2016 (has links)
L’objectif de ces travaux est de développer une méthode d’aide à la conception des réseaux de chaleur urbains (RCU). Cette méthode utilise un modèle de type MINLP (Mixed Integer Non Linear Programming) pour l’optimisation simultanée de la configuration et du dimensionnement d’un RCU. Aux variables continues pour l’aide au dimensionnement (température, vitesse, diamètre, aire des échangeurs), s’ajoutent des variables binaires aidant à définir la configuration du réseau (maillage et choix des technologies). La fonction objectif à minimiser est le coût total (capex et opex), qui est soumise à un ensemble de contraintes non linéaires (p. ex. pertes thermiques et de charge, bilans). La méthode développée dans ce manuscrit offre la possibilité de connecter en cascade des consommateurs n’ayant pas les mêmes besoins en température, et de réaliser des réseaux bouclés (une canalisation par tranchée). Elle permet aussi de choisir : les consommateurs à connecter au RCU, le ou les sites de production ainsi que le type de technologie utilisée. Enfin la bonne prise en compte de la physique permet de choisir le meilleur compromis entre pertes thermiques et pertes de charge, sur une large gamme de température. Cette formulation permet donc d’optimiser des réseaux de 4éme génération et de démontrer la rentabilité de l’intégration d’EnR&R sur le long terme (30 ans). Un premier travail est réalisé afin de proposer une méthodologie de résolution en plusieurs étapes permettant l’obtention de l’optimum global. Différents cas d’études académiques sont utilisés pour présenter les intérêts multiples de cette formulation. Enfin la comparaison avec un réseau existant a permis de démontrer la cohérence des résultats du modèle et a servi de base pour l’optimisation d’un cas d’étude de grande dimension. Plusieurs études de sensibilité post-optimale sont réalisées afin de démontrer l’intérêt de cet outil pour l’aide à la conception initiale ou l’extension de RCU existants. / The aim of this thesis is to develop a method that provides design assistance for District Heating Network (DHN). This tool allows simultaneously the optimization of the configuration and its sizing, thanks to an MINLP formulation (Mixed Integer Non-Linear Programming). Binary variables help to choose the optimal configuration (network layout and technologies of production), whereas continuous variables help DHN sizing (temperature, diameter, velocity, heat exchanger area, thermal generating capacity …). The objective function to minimize is the total cost (capex and opex), subjected to numerous nonlinear constraints (e.g. thermal losses, pressure drop, energy balance).This method enables to design temperature cascade between consumers, when consumer temperature requirements are different, and also looped network (only one pipe in one trench). It helps also the decision to connect (or not) consumers to the main network and also the location(s) and type(s) of the heating plant. Moreover, the arbitrage between heat losses and pressure drops is taken into account thanks to physical considerations (non-linear equations). Eventually, it is possible to design 4th generation DHN and prove their financial profitability over the long terms (30 years). First a multi-step resolution strategy is proposed to ensure finding global optimum of the complex MINLP problem. Then academic study cases are analyzed to underline the numerous assets of the formulation. Finally, the optimal design compared to an existing DHN ensures the consistency of the method and allows to build a study case at a wider scale, which can be solved thanks to the comprehensive strategy developed. The design assistance method is available for initial design as well as for extension of existing DHN.
145

線性羅吉斯迴歸模型的最佳D型逐次設計 / The D-optimal sequential design for linear logistic regression model

藍旭傑, Lan, Shiuh Jay Unknown Date (has links)
假設二元反應曲線為簡單線性羅吉斯迴歸模型(Simple Linear Logistic Regression Model),在樣本數為偶數的前題下,所謂的最佳D型設計(D-Optimal Design)是直接將半數的樣本點配置在第17.6個百分位數,而另一半則配置在第82.4個百分位數。很遺憾的是,這兩個位置在參數未知的情況下是無法決定的,因此逐次實驗設計法(Sequential Experimental Designs)在應用上就有其必要性。在大樣本的情況下,本文所探討的逐次實驗設計法在理論上具有良好的漸近最佳D型性質(Asymptotic D-Optimality)。尤其重要的是,這些特性並不會因為起始階段的配置不盡理想而消失,影響的只是收斂的快慢而已。但是在實際應用上,這些大樣本的理想性質卻不是我們關注的焦點。實驗步驟收斂速度的快慢,在小樣本的考慮下有決定性的重要性。基於這樣的考量,本文將提出三種起始階段設計的方法並透過模擬比較它們之間的優劣性。 / The D-optimal design is well known to be a two-point design for the simple linear logistic regression function model. Specif-ically , one half of the design points are allocated at the 17.6- th percentile, and the other half at the 82.4-th percentile. Since the locations of the two design points depend on the unknown parameters, the actual 2-locations can not be obtained. In order to dilemma, a sequential design is somehow necessary in practice. Sequential designs disscused in this context have some good properties that would not disappear even the initial stgae is not good enough under large sample size. The speed of converges of the sequential designs is influenced by the initial stage imposed under small sample size. Based on this, three initial stages will be provided in this study and will be compared through simulation conducted by C++ language.
146

A study on the acoustic performance of tramway low height noise barriers: gradient-based numerical optimization and experimental approaches ( Étude de la performance acoustique des écrans antibruit de faible hauteur pour le tramway : optimisation numérique par méthode de gradient et approches expérimentales)

Jolibois, Alexandre January 2013 (has links) (PDF)
Noise has become a main nuisance in urban areas to the point that according to the World Health Organization 40% of the European population is exposed to excessive noise levels, mainly due to ground transportation. There is therefore a need to find new ways to mitigate noise in urban areas. In this work, a possible device to achieve this goal is studied: a low-height noise barrier. It consists of a barrier typically less than one meter high placed close to a source, designed to decrease the noise level for nearby pedestrians and cyclists. This type of device is studied both numerically and experimentally. Tramway noise barriers are especially studied since the noise sources are in this case very close to the ground and can therefore be attenuated efficiently. The shape and the surface treatment of the barrier are optimized using a gradient-based method coupled to a 2D boundary element method (BEM). The optimization variables are the node coordinates of a control mesh and the parameters describing the surface impedance. Sensitivities are calculated efficiently using the adjoint state approach. Numerical results show that the shapes generated by the optimization algorithm tend to be quite irregular but provide a significant improvement of more than 5 dB(A) compared to simpler shapes. Utilizing an absorbing treatment on the source side of the barrier is shown to be efficient as well. This second point has been con firmed by scale model measurements. In addition, a full scale low height noise barrier prototype has been built and tested in situ close to a tramway track in Grenoble. Measurements show that the device provides more than 10 dB(A) of attenuation for a close receiver located at the typical height of human ears. These results therefore seem to con rm the applicability of such protections to efficiently decrease noise exposure in urban areas.
147

Model-Based Optimization of Clinical Trial Designs

Vong, Camille January 2014 (has links)
General attrition rates in drug development pipeline have been recognized as a necessity to shift gears towards new methodologies that allow earlier and correct decisions, and the optimal use of all information accrued throughout the process. The quantitative science of pharmacometrics using pharmacokinetic-pharmacodynamic models was identified as one of the strategies core to this renaissance. Coupled with Optimal Design (OD), they constitute together an attractive toolkit to usher more rapidly and successfully new agents to marketing approval. The general aim of this thesis was to investigate how the use of novel pharmacometric methodologies can improve the design and analysis of clinical trials within drug development. The implementation of a Monte-Carlo Mapped power method permitted to rapidly generate multiple hypotheses and to adequately compute the corresponding sample size within 1% of the time usually necessary in more traditional model-based power assessment. Allowing statistical inference across all data available and the integration of mechanistic interpretation of the models, the performance of this new methodology in proof-of-concept and dose-finding trials highlighted the possibility to reduce drastically the number of healthy volunteers and patients exposed to experimental drugs. This thesis furthermore addressed the benefits of OD in planning trials with bio analytical limits and toxicity constraints, through the development of novel optimality criteria that foremost pinpoint information and safety aspects. The use of these methodologies showed better estimation properties and robustness for the ensuing data analysis and reduced the number of patients exposed to severe toxicity by 7-fold.  Finally, predictive tools for maximum tolerated dose selection in Phase I oncology trials were explored for a combination therapy characterized by main dose-limiting hematological toxicity. In this example, Bayesian and model-based approaches provided the incentive to a paradigm change away from the traditional rule-based “3+3” design algorithm. Throughout this thesis several examples have shown the possibility of streamlining clinical trials with more model-based design and analysis supports. Ultimately, efficient use of the data can elevate the probability of a successful trial and increase paramount ethical conduct.
148

Problèmes combinatoires et modèles multi-niveaux pour la conception optimale des machines électriques / Combinatorial problems and multi-level models for the optimal design of electrical machines

Tran, Tuan Vu 18 June 2009 (has links)
La conception des machines électriques a une longue tradition et l’approche « business as usual » est un processus itératif d’essais et d’erreur, certes convergent mais nécessairement stoppé prématurément, car trop couteux. Un perfectionnement récent a consisté à remplacer les prototypes et les maquettes par des prototypes virtuels, entièrement numériques, comme ceux fournis par la méthode des éléments finis. Néanmoins, le procédé s’arrête toujours sur une frustration car le concepteur n’est jamais sûr d’avoir exploré complètement l’espace de conception qui s’offre à lui. La démarche de conception optimale se propose d’améliorer ce processus en le guidant, c'est-à-dire en proposant une méthodologie, et en l’automatisant, c'est-à-dire en proposant des outils logiciels. Mais dans cette démarche apparaissent de nombreuses difficultés. Ainsi, les objectifs généraux de cette thèse sont multiples. Il s’agit de définir des problèmes d'optimisation spécifiques représentatifs des choix structurels et d’élaborer des benchmarks de référence : discret, multiphysique, multidisciplinaire, multi-objectif et multi-niveaux. Ensuite, il faut rechercher, adapter et qualifier les méthodes d'optimisation les mieux à même de résoudre ces problèmes. Enfin, les différentes méthodes d'optimisation proposées sont implantées et testées de façon à prouver leur efficacité et leur adaptation. Un objectif secondaire mais important est de les capitaliser et diffuser les connaissances élaborées / The design of electrical machinery has a long tradition and the business as usual approach is a tries and errors iterative process, certainly converging but necessarily stopped prematurely as too expensive. A recent upgrade has been to replace the prototypes and models by virtual prototypes, fully numerical, such as those provided by the finite element method. Nevertheless, the process stops always on a frustration, because the designer is never sure to have completely explored the design space that offers to him. The optimal design approach proposes to improve this process by guiding it, i.e. by proposing a methodology and by equiping it, i.e. by providing software tools. But in this approach many difficulties appear. Thus, the general objectives of this thesis are multiple. It is to define specific representative optimization problems of the structural choices and develop reference benchmarks of optimization: discrete, multi-physics, multidisciplinary, multi-objective and multi-level. Then, it must seek, adapt and describe the best optimization methods able to solve these problems. These methods are implemented and tested in order to prove their efficiency and adaptation. A secondary but important objective is to capitalize and disseminate the developed knowledge
149

Conception sous incertitudes de modèles avec prise en compte des tests futurs et des re-conceptions / Optimizing the safety margins governing a deterministic design process while considering the effect of a future test and redesign on epistemic model uncertainty

Price, Nathaniel Bouton 15 July 2016 (has links)
Au stade de projet amont, les ingénieurs utilisent souvent des modèles de basse fidélité possédant de larges erreurs. Les approches déterministes prennent implicitement en compte les erreurs par un choix conservatif des paramètres aléatoires et par l'ajout de facteurs de sécurité dans les contraintes de conception. Une fois qu'une solution est proposée, elle est analysée par un modèle haute fidélité (test futur): une re-conception peut s'avérer nécessaire pour restaurer la fiabilité ou améliorer la performance, et le modèle basse fidélité est calibré pour prendre en compte les résultats de l'analyse haute-fidélité. Mais une re-conception possède un coût financier et temporel. Dans ce travail, les effets possibles des tests futurs et des re-conceptions sont intégrés à une procédure de conception avec un modèle basse fidélité. Après les Chapitres 1 et 2 qui donnent le contexte de ce travail et l'état de l'art, le Chapitre 3 analyse le dilemme d'une conception initiale conservatrice en terme de fiabilité ou ambitieuse en termes de performances (avec les re-conceptions associées pour améliorer la performance ou la fiabilité). Le Chapitre 4 propose une méthode de simulation des tests futurs et de re-conception avec des erreurs épistémiques corrélées spatialement. Le Chapitre 5 décrit une application à une fusée sonde avec des erreurs à la fois aléatoires et de modèles. Le Chapitre 6 conclut le travail. / At the initial design stage, engineers often rely on low-fidelity models that have high uncertainty. In a deterministic safety-margin-based design approach, uncertainty is implicitly compensated for by using fixed conservative values in place of aleatory variables and ensuring the design satisfies a safety-margin with respect to design constraints. After an initial design is selected, high-fidelity modeling is performed to reduce epistemic uncertainty and ensure the design achieves the targeted levels of safety. High-fidelity modeling is used to calibrate low-fidelity models and prescribe redesign when tests are not passed. After calibration, reduced epistemic model uncertainty can be leveraged through redesign to restore safety or improve design performance; however, redesign may be associated with substantial costs or delays. In this work, the possible effects of a future test and redesign are considered while the initial design is optimized using only a low-fidelity model. The context of the work and a literature review make Chapters 1 and 2 of this manuscript. Chapter 3 analyzes the dilemma of whether to start with a more conservative initial design and possibly redesign for performance or to start with a less conservative initial design and risk redesigning to restore safety. Chapter 4 develops a generalized method for simulating a future test and possible redesign that accounts for spatial correlations in the epistemic model error. Chapter 5 discusses the application of the method to the design of a sounding rocket under mixed epistemic model uncertainty and aleatory parameter uncertainty. Chapter 6 concludes the work.
150

Optimisation de chaufferies collectives multi-energies : dimensionnement et commande de systèmes de stockage thermique par hydro-accumulation

Labidi, Mouchira 30 April 2015 (has links)
Les travaux présentés dans ce manuscrit portent sur l’optimisation d’une chaufferie collective multi-énergie en l’équipant d’un système de stockage thermique de type hydro-accumulation. L’efficacité de ce dernier dépend de sa capacité à conserver son énergie initiale. Ainsi, pour minimiser les pertes thermiques, le système de stockage doit être correctement isolé. Un modèle de ballon d’hydro-accumulation stratifié est développé et validé expérimentalement. Une étude paramétrique est menée afin d’étudier l’impact, sur les pertes thermiques, de paramètres géométriques et météorologiques. Ensuite, une approche de dimensionnement, fondée sur une stratégie de gestion séquentielle et une étude paramétrique est proposée. Plusieurs critères énergétiques et économiques peuvent ainsi être évalués pour différents volumes de stockage thermique. L’approche de dimensionnement proposée a été appliquée à plusieurs sites exploités par Cofely GDF-Suez, notre partenaire industriel. Les résultats obtenus montrent que le dimensionnement optimal du système de stockage et la gestion intelligente du procédé permettent d'optimiser le fonctionnement d’un site. Des économies énergétiques et financières importantes peuvent ainsi être réalisées. La stratégie de gestion séquentielle proposée n’anticipe pas les besoins du réseau de chaleur. C’est pourquoi une stratégie fondée sur la commande prédictive (MPC pour Model Predictive Control) est susceptible d’améliorer le fonctionnement et les performances d’une chaufferie collective équipée d’un système d’hydro-accumulation. Afin de mettre en œuvre un tel contrôleur, la puissance thermique demandée par le réseau de chaleur doit être correctement prédite. Par conséquent, une méthode de prédiction a été développée. Elle s’appuie sur une analyse multi-résolution par transformée en ondelettes discrète et sur l’utilisation de réseaux de neurones artificiels de type perceptron multicouche. La stratégie séquentielle (non prédictive) et la stratégie prédictive ont été appliquées à une chaufferie collective mixte située dans une commune du nord de la France. Pour ce cas d’étude, la stratégie prédictive est plus efficace. De plus, les résultats montrent que, quelle que soit la stratégie utilisée, équiper la chaufferie d’un système d’hydro-accumulation correctement dimensionné est un investissement rentable. Il permet de minimiser la consommation d’énergie fossile et, par conséquent, le coût économique et les émissions de CO2. / The present work deals with optimizing a multi-energy district boiler by adding to the plant a thermal water storage tank. The effectiveness of such a system depends on how long the stored energy can be kept without considerable degradation. The storage tank should be properly insulated to reduce the rate of heat loss. Thus, firstly, a stratified water thermal storage model is developed and experimentally validated. A parametric study is carried out to determine the influence of geometric and meteorological parameters on heat loss. Next, a reliable sizing method based on a sequential management strategy and a parametric study is proposed. Various energy and economic criteria have been evaluated for a range of thermal storage sizes. The proposed methodology has been applied to many plants managed by Cofely GDF-Suez, our industrial partner. Results highlight the ability of a thermal storage tank (optimally sized and managed) to improve the operation of a multi-energy district boiler and realize significant energy and economic savings. The main drawback of the proposed sequential management strategy lies in not taking into account the future power demand. That is why a strategy based on a Model Predictive Controller (MPC) is likely to improve operation and performance. In order to implement such a controller, the power demand has to be accurately forecasted. As a consequence, a short-term forecast method, based on wavelet-based Multi-Resolution Analysis (MRA) and multilayer Artificial Neural Networks (ANN) is proposed. Both the sequential and the predictive strategies are applied to a northeast France multi-energy district boiler selected as a case study. The main result to retain is that the efficiency of water thermal storage tank is mainly related to its design and the way it is managed. For this case study, the predictive strategy regardless the size of the storage tank, the predictive strategy is more reliable. Furthermore, in all cases an adequately sized and managed thermal storage tank is a profitable investment. It allows the fossil energy consumption to be significantly reduced. The same remark applies to the functioning costs and CO2 emissions.

Page generated in 0.0668 seconds