Spelling suggestions: "subject:"électricité"" "subject:"electricité""
31 |
Un modèle énergétique en transition ? Centralisme et décentralisation dans la régulation du système énergétique / An energy model in transition? Centralism and decentralisation in the regulation of the electricity system.Boutaud, Benoit 12 October 2016 (has links)
La question de la transition énergétique se situe aujourd’hui en haut de l’agenda politique. L’objectif de cette thèse est de s’interroger sur l’émergence d’un nouveau modèle électrique, de déterminer quelles sont ses caractéristiques et s’il représente une alternative au modèle centralisé. En combinant trois perspectives d’analyse – institutionnelle, technologique et territoriale –, elle démontre que ce modèle centralisé a vécu. Un faisceau de changements a transformé en profondeur le système électrique dans sa matérialité et son organisation : libéralisation, production distribuée, décentralisation politique, etc. La nouvelle configuration qui s’élabore est hybride. Elle est le résultat de tensions entre d’un côté des innovations porteuses de changements sociotechniques importants et de l’autre des mécanismes de centralisation politico-administrative et de concentration technico-économique.L’État a perdu son hégémonie mais pas sa centralité, alors même que le secteur s’est diversifié (acteurs, technologies) et que l’électricité se diffuse dans toute la société (accession à la production, processus législatif, etc.). Ni la montée en compétence contrariée de l’UE, ni la libéralisation, ni l’émergence des collectivités n’ont totalement remis en cause sa capacité à se positionner au centre de la régulation du secteur. Son action est tout à la fois sélective (désengagement de l’opérationnel), intégratrice (EnR, collectivités), diffuse (financement, R&D, législation, etc.) et parfois interventionniste (actionnariat, tarification, réseaux de transport et de distribution, etc.). Dans un contexte libéral, l’État s’adapte par une réforme pragmatique de son action et par l’intégration contrôlée des alternatives. Ce « libéralisme apprivoisé » correspond à une territorialisation de la politique publique de l’énergie à l’intérieur de laquelle les collectivités s’imposent selon une logique à la fois ascendante et descendante.Celles-ci sont en train, d’une part, principalement autour des EPCI et des conseils régionaux, de s’imposer comme des partenaires obligés de l’État dans la mise en œuvre et la gestion d’une pluralité de processus et de dispositifs techniques infranationaux. D’autre part, elles souhaitent s’affirmer dans ce secteur et disposent pour cela de leviers opérationnels (concession, planification, soutien aux EnR, information, etc.). Cette appropriation reste encore aujourd’hui partielle et inégale mais représente une tendance forte qui fait du local le nouvel horizon du secteur, y compris pour l’État qui adapte son organisation administrative autour de l’échelle régionale. Un processus d’autonomisation des collectivités, de nature juridique, est donc à l’œuvre, organisé par l’État et relevant d’une libre administration énergétique qui ne peut être réduite au développement d’une capacité de production d’énergie. Les nouvelles délimitations issues de cette autonomisation aboutissent à un agencement de territoires institutionnels qui ne remettent pas fondamentalement en question l’échelle nationale et le rôle de l’État.Cette configuration hybride dépend des modalités de développement de la production soumis à des mécanismes de concentration technico-économiques propres à l’industrie de réseau électrique, à son contexte, ainsi qu’aux logiques spatiales et territoriales dépendants de paramètres infrastructurels. C’est ce que démontre le déploiement contre-intuitif de la production distribuée qui s’effectue sous une forme mixte centralisée/décentralisée, résultat de l’interaction entre des formes de contrôle et des conditions sociotechniques spécifiques (spatialisation, logiques d’échelle, concentration des acteurs, etc.).La configuration qui émerge combine des éléments de rupture/décentralisation et de continuité/centralisation. Compte tenu de l’importance des évolutions à venir – NTIC, stockage –, celle-ci ne représente cependant probablement qu’une étape d’un long cheminement vers un nouveau modèle énergétique / Energy transition finds itself high on the political agenda, with electricity occupying its own specific place. The aim of this thesis is to reflect on the emergence of a new electricity model, and to determine its features and whether it offers an alternative to the centralised model. Using three perspectives for analysis – institutional, technological and regional – this thesis demonstrate that this model has had its day. An accumulation of changes has transformed the electricity system, both materially and in relation to its organisation: liberalisation, rise of distributed generation, political decentralisation, and so on. The new configuration currently under production is the result of contradictory socio-technical pressures; these are creating a hybrid system between a general trend towards decentralisation on one side and mechanisms for political-administrative centralisation and technico-economic concentration on the other.The state has lost its monopoly but not its central position, even though the sector has diversified in terms of actors and technologies and become more open to society (access to production, legislative process, etc.). Neither the frustrated progression of EU operations, liberalisation, nor the greater presence of local authorities has thus far been able to entirely undermine the state's ability to position itself at the centre of operational control of the sector. It acts in different ways: withdrawal from operational matters, integration of renewables, finance, R&D, legislation, etc. On occasions it is also interventionist (shareholders, price structures, networks, etc.). In a liberal climate, the state is adapting by undertaking pragmatic reform of its activities and controlling the integration of socio-technical alternatives. This adaptation equates to a greater role for the regional authorities in public energy policy, as local areas continue to gain in importance. These regions and areas are currently defining themselves as indispensable partners of the state – largely on the basis of the bodies for intercommunal cooperation and the regional councils – for the management and implementation of a multitude of processes and technical measures at sub-national level. In parallel, they wish to assert their importance in the sector and can make use of their levers for operational control (planning, support for renewables, etc.) Today, they have still only appropriated the terrain partially and unevenly, but this strong trend means that local is the sector's new horizon, including for the state, which is adapting the organisation of its administration around the regions. And so a process, which is legal in nature and organised by the state is at work, whereby the administrations gain in autonomy to form an unhindered energy administration which cannot be reduced to a capacity to produce energy. The new boundary lines resulting from this growing autonomy are ultimately drawing up institutional territories which pose no challenge to the national scale or the role of the state.This hybrid character arises from technico-economic concentration mechanisms which are specific to the electricity network industry and its context and from rationales concerning space and territories which are connected to infrastructural factors. They result in particular from the counterintuitive deployment of distributed generation carried out in a mixed centralised/decentralised manner, highlighting the interaction between forms of control and socio-technical conditions (spatialisation conditions, concentration of actors, etc).With regard to regulation, the configuration currently emerging presents a balance between shortage/decentralisation and continuity/centralisation. Account taken of developments to come in the areas of storage and new information and communication technologies, it is nevertheless probable that this configuration will only be a long progression towards a new energy model
|
32 |
Vers une modélisation plus réaliste des systèmes biologiques / Toward a more realistic modelisation of biological systemsArchambault, Fabien 05 July 2011 (has links)
La plupart des fonctions énergie potentielle utilisées pour simuler les systèmes biologiques complexes ne traitent qu'implicitement la polarisation électronique et ce, de façon très incomplète. Bien qu'efficaces pour un large éventail d'applications, ces champs de force atteignent rapidement leurs limites dès lors que les effets de polarisation électronique sont importants. Tel est le cas par exemple au site actif des métalloprotéines où l'ion métallique polarise fortement son environnement. Dans cette thèse, j'ai développé une approche basée sur la mécanique quantique pour obtenir des paramètres d'un champ de force polarisable ayant pour composantes des charges, des polarisabilités distribuées d'ordre zéro et un (isotrope) et un potentiel de van der Waals décrit par une fonction de Buckingham. L'énergie d'induction peut être atténuée par une fonction de Tang et Toennies pour décrire l'énergie d'échange-induction. Cette approche a été effectuée avec succès pour l'interaction d'ions avec l'eau et le benzène mais aussi dans le cas d'un dimère d'eau. Une première étude des résultats en dynamique moléculaire montre que les paramètres obtenus en phase gazeuse peuvent se transférer pour les simulations en phase condensée / Most of the energy potential functional used in biological systems only treat electronic polarization implicitely and this, in an incomplete way. Even very effective for many applications, those force fields reach there limits when the polarization effects are important. This is the case, for example, at the active site of metalloproteins where the metallic ion heavily polarizes its environment. We will present a strategy to take into account the polarization through polarizability distributed on atoms obtained by quantum chemical calculations. The interaction energies have been compared with a reference SAPT (\textit{Symmetry Adapted Perturbation Theory}) calculation which permits to expand the interaction in electrostatics, induction and van der Waals contributions. I will present the interaction of ions with water, benzene and also water dimer interactions. Preliminary results in molecular dynamics seems to confirm that gas phase parameters can be transfered to condensed phase
|
33 |
Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentielsMaltais, Louis-Gabriel 30 August 2022 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
|
34 |
Habilitation des technologies pour l'électricité décarbonée, numérisée et décentralisée par l'utilisation de la co-simulation stochastique de systèmes de distribution et de clients intégrés à grande échelleSalinas Herrera, Kleber Fernando 04 June 2024 (has links)
La transition énergétique mondiale en cours incite à l'exploration et au développement d'approches holistiques incluant la modélisation et la simulation des ressources énergétiques distribuées (RED) et des charges flexibles modernes de manière intégrée, tout en évaluant leurs impacts sur le réseau de distribution. Avec le déploiement croissant de ces technologies dites vertes ces dernières décennies, caractérisées principalement par des dispositifs intelligents et un marché énergétique transactionnel en croissance, le système énergétique a acquis une dynamique significative, en particulier du côté de la distribution. Le comportement des consommateurs intelligents et la variabilité des RED changent radicalement les paradigmes traditionnels de planification et d'opération.
Cette recherche contribue au domaine de la co-simulation distribution et client (D&C) en introduisant FlexSimNet, une plateforme de simulation innovante open-source, construite autour des technologies de flexibilité et des ressources énergétiques distribuées qui seront cruciales pour fournir de l'électricité Décarbonée, Numérisée et Décentralisée (3D) de manière rentable pour permettre l'émergence de systèmes énergétiques plus verts. FlexSimNet est une plateforme de simulation multi-sectorielle conçue comme un repère pour la recherche et l'analyse de systèmes de distribution et de clients intégrés à grande échelle.
FlexSimNet est développé dans un environnement Python et utilise des solveurs de systèmes tels qu'OpenDSS et EnergyPlus en co-simulation. Il comprend plusieurs modules, chacun exécutant des fonctions spécifiques avec des entrées et des sorties distinctes, et conçu pour offrir une flexibilité dans le contrôle de l'opération des charges flexibles et des RED. Ces modules incluent :
- Un outil Générique Tierme-Series Pow Flow (GTSPF), qui tire parti d'OpenDSS et de Python pour la simulation dynamique des réseaux de distribution, qui est également intégré à la plateforme d'Énergie Transactionnelle ETSim, permettant un examen détaillé des échanges d'énergie transactionnelle et de leur impact sur les opérations et l'efficacité du réseau.
- Un module de Modélisation de l'Énergie Domestique qui utilise EnergyPlus pour une modélisation précise de l'énergie des bâtiments, facilitant une analyse plus approfondie des modèles de consommation tels que les niveaux de confort et leur influence sur le système énergétique global.
- La mise en œuvre de simulation de Monte Carlo pour explorer la nature stochastique de la charge et de la décharge des VE, fournissant des aperçus sur la flexibilité et les défis posés par une forte pénétration des VE.
- Et, l'application de techniques d'apprentissage machine pour la prévision précise de l'irradiance solaire et de la température, démontrant le potentiel des approches basées sur les données pour améliorer la précision prédictive.
Le potentiel et les capacités de FlexSimNet sont évalués de manière approfondie à travers une variété de scénarios et de configurations de simulation. Les résultats confirment l'efficacité et la fiabilité de la plateforme comme cadre robuste pour simuler les interactions entre les RED, les charges flexibles et les réseaux de distribution, offrant un nouveau repère pour l'analyse techno-économique. Les simulations démontrent la complexité supplémentaire introduite dans le réseau par la haute pénétration des ressources énergétiques distribuées et des charges flexibles. Bien que ces ressources offrent des avantages tels que l'intégration des énergies renouvelables et les services de soutien potentiels au réseau, elles défient également l'efficacité du réseau. Cela souligne l'importance d'optimiser l'opération et la coordination de ces ressources au sein du réseau de distribution pour exploiter pleinement leurs avantages tout en maintenant ou en améliorant la performance du réseau. Cela impose également des défis pour la stabilité de la tension. La gestion de ces fluctuations devient cruciale, surtout à mesure que les niveaux de pénétration de ces technologies augmentent. Les opérateurs de système doivent employer des stratégies de régulation de tension avancées et exploiter la flexibilité de ces ressources énergétiques distribuées pour maintenir la stabilité du réseau. / The ongoing global energy transition urges the exploration and development of holistic approaches that include the modelling and simulation of distributed energy resources (DER) and modern flexible loads in an integrated manner while evaluating their impacts on the distribution network. With the increasing deployment of these so-called green technologies in recent decades, characterized primarily by smart devices and a growing transactional energy market, the power system has gained significant dynamism, especially on the distribution side. The behaviour of smart consumers and the variability of DER drastically change traditional planning and operational paradigms.
This research contributes to the distribution and client (D&C) co-simulation field by introducing FlexSimNet, an innovative open-source simulation platform, built around flexibility technologies and distributed energy resources that will be crucial for delivering cost-effective Decarbonized, Digitized and Decentralized (3D) electricity to enable emerging greener energy systems. FlexSimNet is a multi-sector simulation platform designed as a benchmark for the research and analysis of large-scale integrated distribution and customer systems.
FlexSimNet is developed in a Python environment and employs system solvers such as OpenDSS and EnergyPlus in co-simulation. It comprises several modules, each performing specific functions with distinct inputs and outputs, and designed to offer flexibility in controlling the operation of flexible loads and DER. These modules include:
- A Generic Time-Series Power Flow (GTSPF) tool, which leverages OpenDSS and Python for dynamic simulation of distribution networks which is also integrated with the transactive energy ETSim platform, enabling detailed examination of transactive energy exchanges and their impact on network operations and efficiency.
- A Home Energy Modelling module which utilizes EnergyPlus for accurate building energy modelling, facilitating a deeper analysis of consumption patterns such as comfort levels and their influence on the overall energy system.
- The implementation of Monte Carlo simulations to explore the stochastic nature of EV charging and discharging, providing insights into the flexibility and challenges posed by high EV penetration.
- And, the application of machine learning techniques for precise forecasting of solar irradiance and temperature, demonstrating the potential of data-driven approaches inenhancing predictive accuracy.
FlexSimNet's potential and capabilities are thoroughly assessed through a variety of scenarios and simulation setups. The results confirm the platform's effectiveness and reliability as a robust framework for simulating the interactions between DER, flexible loads, and distribution networks, offering a new benchmark for techno-economic analysis. The simulations demonstrate the additional complexity introduced into the network by the high penetration of distributed energy resources and flexible loads. While these resources offer benefits such as renewable integration and potential grid support services, they also challenge network efficiency. This underscores the importance of optimizing the operation and coordination of these resources within the distribution network to harness their full benefits while maintaining or enhancing network performance. It also imposes challenges for voltage stability. Managing these fluctuations becomes crucial, especially as the penetration levels of such technologies grow. System operators need to employ advanced voltage regulation strategies and leverage the flexibility of these distributed energy resources to maintain grid stability.
|
35 |
Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentielsMaltais, Louis-Gabriel 13 December 2023 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
|
36 |
Conception et analyse thermodynamique d'une microturbine pour la production d'électricitéAbasian, Fatemeh 05 August 2024 (has links)
Dans ce travail, un prototype de turbine activée par une décharge d’air comprimé a été produit et testé pour trouver sa géométrie optimale, et ce, sur la base d'un modèle thermodynamique. Un dispositif expérimental, a été spécialement conçu pour tester la turbine. Il comprend un système de piston et de valves servant à charger un réservoir d’air comprimé, ainsi qu'une valve de fin de course servant à déclencher la décharge du réservoir à travers la turbine. L'appareil expérimental permet la mesure directe de la pression et de la température dans le réservoir et utilise un système d'acquisition de données basé sur LabVIEW. Pour assurer une mesure précise de ces paramètres, des thermocouples à réponse rapide et des capteurs de pression sont utilisés. Le modèle thermodynamique de charge et de décharge d'un réservoir est déterminé par un processus polytropique afin de prévoir la pression et la température de l’air à l'intérieur du réservoir. De plus, l’influence des paramètres de la turbine, tels que la vitesse angulaire initiale de l’arbre de la turbine et les bords avant ou arrière des aubes du rotor et du stator, a été étudiée en fonction de ses performances. Les résultats montrent que la turbine avec une vitesse angulaire initiale peut fournir un rendement supérieur à chaque impulsion. De plus, la plus grande vitesse angulaire initiale de la turbine contribue à une puissance plus élevée. En outre, les angles appropriés peuvent limiter la probabilité de séparation sur la trajectoire du mouvement du fluide.
|
37 |
Electrifying natural gas : a dynamic model of Québec's energy transitionBoudreau, Julien 10 February 2024 (has links)
Dans ce mémoire, j’évalue les implications économiques d’une électrification efficace des usages du gaz naturel. Pour ce faire, je développe un modèle dynamique en équilibre partiel des marchés du gaz naturel et de l’électricité dans lequel la demande est détaillée par service énergétique. Le modèle tient également compte des contraintes de capacité et des coûts d’ajustement du réseau électrique. L’implémentation numérique du modèle, laquelle est calibrée au contexte québécois, révèle que la transition énergétique est guidée par le prix des émissions de GES. Une transition optimale implique que les investissements dans les énergies renouvelables débutent tôt et soient répartis à travers le temps. Par ailleurs, le prix du carbone en place ne mène pas à une électrification qui permette l’atteinte des cibles du gouvernement du Québec. / In this thesis, I evaluate the economic implications of the efficient electrification of natural-gas usages. To do so, I develop a dynamic partial equilibrium model of the electricity and natural gas markets with multiple energy demands. The model accounts for the capacity constraint and adjustment cost of the electric grid. The numerical implementation, calibrated to Québec’s contexts, reveals that the electrification’s main driver is the cost of greenhouse gas emissions. An optimal transition implies that investments in renewables start early-on and are smoothed through time. Québec’s actual carbon price does not lead to an electrification pathway that satisfies the province’s emission target.
|
38 |
Contributions à la simulation temps réel des grands réseaux électriques modernesLe-Huy, Philippe 10 February 2024 (has links)
La simulation des phénomènes électromagnétiques transitoires (EMT) est capitale dans plusieurs spécialisations de l'électrotechnique pour analyser, comprendre et prévoir divers comportements de réseaux électriques ou de dispositifs d'électronique de puissance commutée. Ces simulations sont typiquement réalisées sans contraintes temporelles : la simulation d'un événement peut être plus rapide ou plus lente que l'événement lui-même. Toutefois, dans un contexte de validation de systèmes de contrôle réel, les simulations doivent être effectuées en temps réel afin de soumettre l'équipement réel à des signaux réalistes avec le bon contenu spectral sur la plage fréquentielle requise. Une simulation opérant avec un pas de temps Tₛ est dite en temps réel si elle est en mesure de produire une nouvelle solution complète et d'effectuer tous les services nécessaires (entrées/sorties, acquisition, monitorage, etc.) en un laps de temps de Tₛ, et ce de manière maintenue et périodique. Les besoins de simulation temps réel ne cessent de croître pour étudier l'intégration des différents dispositifs d'électronique de puissance avec système de contrôle et protection qui prolifèrent sur les réseaux électriques et pour évaluer leurs interactions potentielles. Les réseaux à simuler sont de plus en plus vastes parce que ces dispositifs sont de plus en plus distribués spatialement. De plus, les modélisations sont de plus en plus complexes afin de représenter le plus fidèlement possible les phénomènes réels sur des plages de fréquence de plus en plus larges. Il existe donc un besoin criant d'augmenter la capacité de simulation temps réel. Pour y arriver, plusieurs groupes de recherche explorent l'utilisation d'unités de traitement alternatives telles les FPGA et GPU pour complémenter ou remplacer les processeurs standards tandis que d'autres explorent des modélisations et techniques pour augmenter la capacité de simulation des processeurs standards tels les équivalents fréquentiels, la simulation multitaux et la simulation hybride. Toutefois, la majorité de ces efforts vise l'augmentation des capacités en temps différé et non en temps réel. Afin de combler ce décalage, le présent ouvrage vise l'augmentation des capacités de simulation en temps réel des processeurs standards pour les grands et très grands réseaux électriques modernes c'est-à-dire où l'électronique de puissance foisonne et impose des pas de temps de plus en plus faibles. Deux avenues sont explorées : le parallélisme massif et l'augmentation de capacité par l'utilisation de simulation à taux multiples, qui mènera à la simulation hybride. En premier lieu, le parallélisme massif de la simulation temps réel est présenté. La puissance de calcul de superordinateurs n'est pas triviale à canaliser pour la simulation EMT temps réel à cause des difficultés de synchronisation. Une fois maîtrisé, le Superdome Flex de HPE a effectué la simulation en temps réel d'un réseau de 16432 nœuds électriques avec 372 cœurs de calcul opérant avec un pas de temps de 17 µs. Ces travaux sur les plateformes matérielles a également permis de découvrir les excellentes performances temps réel d'ordinateurs personnels ordinaires bas de gamme (RTPC) et très accessibles, ouvrant la voie à une démocratisation de la simulation temps réel. En second lieu, le cadre de simulation multitaux temps réel est présenté ainsi que les améliorations nécessaires à son bon fonctionnement. En simulant avec des taux plus lents que le taux de base EMT, il est possible d'augmenter substantiellement la capacité de calcul d'une plateforme donnée. Des simulations avec des pas de temps habituellement réservés aux FPGA (5 et 10 µs) sont effectuées sur de modestes RTPC En exploitant le cadre de simulation multitaux, il est ensuite montré comment la simulation hybride EMT/stabilité transitoire permet d'augmenter drastiquement (d'un facteur 23 à 10 µs et 1 ms) les capacités de simulation en temps réel d'un cœur de calcul. Toutefois, ce gain se fait au prix d'une perte de l'interaction harmonique entre le système EMT et celui de stabilité transitoire. L'implémentation temps réel de cette simulation hybride en temps réel est facilitée par l'utilisation d'une interface basée sur une modélisation hybride des lignes de transport et d'un protocole d'interaction parallèle, ce qui diffère de la méthode classique des images et des protocoles itératifs sophistiqués. Finalement, ces trois approches sont comparées : selon la situation, l'une de ces approches sera à préconiser selon l'ampleur de la simulation, la plage fréquentielle désirée et la quantité de ressources temps réel disponible. / The simulation of transient electromagnetic (EMT) phenomena is essential in several specializations of electrical engineering to analyze, understand and predict various behaviors of power systems and switched power electronic devices. These simulations are typically performed without time constraint: the simulation of an event can be faster or slower than the real event itself. However, in the context of validating real control systems, simulations must be performed in real-time in order to subject real equipment to realistic signals with the right spectral content over the required frequency range. A simulation operating with a time step Tₛ is said to be in real-time if it is able to produce a complete new solution and perform all the necessary services (inputs/outputs, acquisition, monitoring, etc.) in a period of time of Tₛ in a maintained and periodic manner. The need for real-time simulation continues to grow to study the integration of the various power electronic devices with control and protection systems that proliferate in power systems and to assess their potential interactions. The power systems to be simulated are increasingly vast because the spatial distribution of these devices is increasing. Moreover, model complexity is ever increasing in order to represent as faithfully as possible the real phenomena over increasingly wide frequency ranges. There is therefore a crying need to increase the capacity for real-time simulation. Several research groups are exploring the use of alternative processing units such as FPGAs and GPUs to complement or replace standard processors, while others are exploring models and techniques to increase the simulation capacity of standard processors such as frequency equivalents, multi-rate simulation and hybrid simulation. However, the majority of these efforts are aimed at increasing capacity in offline simulations, not for real time. In order to bridge this gap, this work aims to increase the real-time simulation capabilities of standard processors for large and very large modern power systems, i.e. where power electronics abound and impose smaller and smaller time steps. Two research avenues are explored: massive parallelism and increasing capacity through the use of multi-rate simulation, which will lead to hybrid simulation. First, the massive parallelism of real-time simulation is presented. The computing power of supercomputers is not trivial to harness for real-time EMT simulations because of synchronization difficulties. Once mastered, the HPE Superdome Flex performed real-time simulation of a network of 16,432 power nodes with 372 computer cores operating at a time step of 17 µs. This work on hardware platforms has also made it possible to discover the excellent real-time performance of ordinary low-end, but very accessible, personal computers (RTPC), paving the way for a democratization of real-time simulation. Secondly, the real-time multi-rate simulation framework is presented as well as the improvements necessary for its proper functioning. By simulating with rates slower than the base EMT rate, it is possible to substantially increase the computational capacity of a given platform. Simulations with time steps usually reserved for FPGAs (5 and 10 µs) are carried out on modest RTPCs. By exploiting the multi-rate simulation framework, it is then shown how the EMT / transient stability hybrid simulation can drastically increase (by a factor of 23 with 10 µs and 1 ms) the real-time simulation capacities of a computer core. However, this gain comes at the cost of a loss of the harmonic interaction between the EMT and transient stability systems. The real-time implementation of this real-time hybrid simulation is facilitated by the use of an interface based on hybrid transmission line modeling and a simple parallel interaction protocol, which differs from the classic equivalent image method and sophisticated iterative interaction protocols. Finally, these three approaches are compared: depending on the situation, one of these approaches will be more suited depending on the desired size of the simulation, the desired frequency range and the amount of available real-time resources.
|
39 |
Data-driven Koopman methods for identification and control of distributed energy resourcesHusham, Ahmed 23 October 2023 (has links)
Thèse ou mémoire avec insertion d'articles / L'intégration à grande échelle d'actionneurs électroniques dispersés a rendu le système d'alimentation plus difficile à observer, à identifier et contrôler. Cette thèse introduit une nouvelle méthodologie axée sur les données pour les le contrôle des systèmes d'alimentation enrichis en ressources énergétiques distribuées (RED) afin d'améliorer le potentiel du système à héberger un grand nombre de RED tout en préservant le comportement dynamique du réseau. Notre approche incorpore des données historiquement enregistrées pour obtenir des modèles de prédiction distribués qui manifestent le comportement dynamique réel. La méthode proposée est décentralisée dans les phases d'apprentissage et de contrôle. Le schéma de conception n'utilise que les mesures locales de l'actionneur d'intérêt dans la phase d'apprentissage et reçoit les signaux de retour localement dans la phase de contrôle sans hébergement d'états supplémentaires provenant du reste du réseau, donc aucun problème d'extensibilité n'est posé. Dans la première étape, les modèles obtenus sont utilisés pour construire un module de contrôle par modèle prédictif (MPC) distribué et centré sur les données qui génère des signaux auxiliaires pour l'amortissement des oscillations et par les RED. La conception proposée module les injections de puissance active et réactive des onduleurs RED afin de réduire les oscillations pendant les conditions de perturbation. Le processus d'apprentissage est basé sur la théorie des opérateurs de Koopman où le sous-système inconnu est reconstruit projetant sa dynamique dans un espace linéaire de grande dimension, afin d'approximer le système non linéaire avec une trajectoire d'état approximativement linéaire. Dans la deuxième étape, nous considérons une contribution collective de grands groupes de charges contrôlables qui modulent leur puissance agrégée de manière à réguler la fréquence primaire. Le modèle de Koopman est à nouveau développé de la même manière pour traiter les variations locales de fréquence causées par diverses perturbations à chaque bus de charge, en considérant des modèles de charges incertains. Le schéma de contrôle est adapté à un grand nombre de charges contrôlables, sans ajustement manuel du modèle. Les tests montrent une amélioration des performances de régulation de la fréquence par rapport au contrôle par la génération ou à gain proportionnel, ainsi qu'une diminution de la dépendance au déploiement de la génération de réserve de secours lorsque le contrôle par la demande est activé. L'approche permet d'améliorer les performances avec un nombre minimal de charges contrôlables. En outre, un plus grand nombre de charges non sensibles à la fréquence peuvent être en réserve pour des scénarios inattendus, ce qui ne compromet pas la qualité des services. Dans la dernière étape, nous utilisons des réseaux de distribution actifs (ADN) pour la régulation de fréquence primaire, en considérant ensemble plusieurs petites unités contrôlables (charges intelligentes et RED) de sorte que leur impact (collectivement) soit significatif. Notre approche consiste à traiter chaque unité contrôlable comme un petit contributeur à la fréquence primaire. La commande prédictive par modèle de Koopman est conçue pour traiter les variations locales de fréquence au point de couplage commun (PCC), en supposant un modèle incertain du système associé à chaque unité. Le schéma est entièrement décentralisé et adapté à un grand nombre de charges flexibles et de REDs, sans ajustement manuel du modèle. Il est démontré que l'activation de la fonctionnalité de contrôle du côté de la demande fournit une meilleure performance de fréquence avec les REDs, avec une utilisation moindre de la réserve de puissance disponible dans celles-ci. / Large scale integration of dispersed generation units has made the power system more difficult to observe, identify and control. This dissertation provides a novel data-driven methodology for power systems enriched with distributed energy resources (DERs) to enhance the system's potential to host huge number of DERs while preserving network dynamic behavior. Our approach incorporates historically recorded data to obtain distributed prediction models that manifest the actual dynamic behavior. The proposed method is decentralized in both learning and control phases. The design scheme utilizes only the local measurements of the controllable unit of interest in the learning phase and receives the feedback signals locally in the control phase with no extra states hosted from the rest of the grid, thus no scalability issues are posed. In the first stage, the obtained models are used to construct a distributed data-centric model predictive control (MPC) modules that generate auxiliary signals for oscillation damping and the DERs. The proposed design controls the active and reactive power injections of the DER inverters to reduce the oscillations during disturbance conditions. The learning process is based on Koopman operator theory where the unknown subsystem is reconstructed by lifting its dynamics to a linear space with an approximate linear state evolution. In the second stage, we consider a collective contribution of large clusters of controllable loads which modulate their aggregate demand power to regulate the primary frequency. Koopman model is again developed by the same manner to handle local frequency variations caused by various disturbances at each load bus, considering uncertain loads models. The control scheme is suited for a large-scale number of controllable loads, with no manual model adjustments. The tests show an improved frequency regulation performance compared to generation-side and a decreased reliance on standby reserve generation deployment when demand-side control is enabled. The approach can raise the performance with the minimum number of loads. Furthermore, more non-spinning frequency-responsive loads can be on standby for unexpected scenarios, thus no jeopardy to the quality of the services might occur. In the last stage, we utilize active distribution networks (ADNs) for primary frequency regulation, considering several small controllable units (smart loads and DERs) such that their impact (collectively) is significant. Our approach focuses on treating each controllable unit as a small contributor to the primary frequency. Koopman model predictive control is designed to handle local frequency variations at the point of common coupling (PCC), assuming an uncertain system model associated with each unit. The scheme is fully decentralized and suited for a large-scale number of flexible loads and DERs, with no manual model adjustments. It is shown that enabling the demand-side control functionality provides a better performance along with the DER, whilst keeping less usage of the DER surplus power reserve.
|
40 |
Du Plan Monnet au Plan Bettencourt : comment ont évolué la politique charbonnière et la politique énergétique dans les Trente glorieuses ? / From Monnet plan to Bettencourt plan : coal policy and energy policy in France during trente glorieusesMamehara, Keisuke 14 November 2016 (has links)
La pénurie de charbon a constitué une des préoccupations incessantes de la politique énergétique à partir des années trente en France. Dès la Libération, ce problème a conduit le gouvernement à adopter le programme de modernisation du charbonnage. Vers le début des années cinquante, la pénurie absolue en charbon a été endiguée. Dans le même temps, l'ouverture de la CECA a fourni davantage de facilités aux Français pour importer les charbons. Toutefois, le choix du gouvernement a plutôt consisté à accélérer le programme de renforcement de la production de charbon en vue de satisfaire les besoins le plus possible grâce à sa propre production dans une période où le pays souffrait d'une aggravation de la situation de la balance des comptes commerciaux. Cette politique s'est basée sur des hypothèses prévoyant une progression continuelle des besoins en charbon et que les mines françaises se trouvaient en mesure d'améliorer suffisamment leur compétitivité pour concurrencer leurs homologues étrangères. Cependant, ces hypothèses n'ont pas été confirmées par les faits. La crise du charbon de 1958 a provoqué un gonflement des stocks qui a obligé le gouvernement à annoncer le Plan Jeanneney. Le gouvernement a essayé par ailleurs de résoudre le problème de l'accumulation des stocks. Cet effort s'est concrétisé par la conclusion d'un contrat entre l'EDF et les CDF en 1965 par suite de l'intervention des pouvoirs publics. Ces derniers ont contraint l'EDF à accepter tous les charbons proposés par les CDF. L'EDF devait ainsi supporter les charges résultant de la politique d'accroissement de la production charbonnière menée par le gouvernement selon des prévisions erronées. / One of the most urgent tasks for French economy after Libération was to increase coal production. French government nationalized coal industry in 1946 and decided to increase coal production in the framework of Monnet Plan by concentrating financial and material resource to coal industry. France succeeded in increasing coal production according to Monnet Plan by the early 50's. The government estimated that national demand for coal would increase constantly through 50's and 60's. On the other hand, France had easier access to coal importation than before in 1952 with the institution of ECSC. However, French government decided to continue to increase national coal production in order to meet national demand for coal by its own production, and in order not to deteriorate current account. But in fact, national demand for coal did not increased as the government estimated. Coal crisis in 1958 forced the government to revise coal production programme to reduce national coal output. Meanwhile, French government made efforts to secure outlets of national coal. These efforts were concretized by the conclusion of contract between Électricité de France (EDF) et Charbonnages de France (CDF). By this contract, EDF was obliged to receive all quantity of national coal that CDF hoped to sell to electric sector. Thus, electric sector had to pay the price for coal policy that the government drew up according to the wrong estimation of national demand for coal.
|
Page generated in 0.0676 seconds