• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 14
  • 3
  • Tagged with
  • 88
  • 32
  • 18
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Data-driven Koopman methods for identification and control of distributed energy resources

Husham, Ahmed 28 July 2023 (has links)
Thèse ou mémoire avec insertion d'articles / L'intégration à grande échelle d'actionneurs électroniques dispersés a rendu le système d'alimentation plus difficile à observer, à identifier et contrôler. Cette thèse introduit une nouvelle méthodologie axée sur les données pour les le contrôle des systèmes d'alimentation enrichis en ressources énergétiques distribuées (RED) afin d'améliorer le potentiel du système à héberger un grand nombre de RED tout en préservant le comportement dynamique du réseau. Notre approche incorpore des données historiquement enregistrées pour obtenir des modèles de prédiction distribués qui manifestent le comportement dynamique réel. La méthode proposée est décentralisée dans les phases d'apprentissage et de contrôle. Le schéma de conception n'utilise que les mesures locales de l'actionneur d'intérêt dans la phase d'apprentissage et reçoit les signaux de retour localement dans la phase de contrôle sans hébergement d'états supplémentaires provenant du reste du réseau, donc aucun problème d'extensibilité n'est posé. Dans la première étape, les modèles obtenus sont utilisés pour construire un module de contrôle par modèle prédictif (MPC) distribué et centré sur les données qui génère des signaux auxiliaires pour l'amortissement des oscillations et par les RED. La conception proposée module les injections de puissance active et réactive des onduleurs RED afin de réduire les oscillations pendant les conditions de perturbation. Le processus d'apprentissage est basé sur la théorie des opérateurs de Koopman où le sous-système inconnu est reconstruit projetant sa dynamique dans un espace linéaire de grande dimension, afin d'approximer le système non linéaire avec une trajectoire d'état approximativement linéaire. Dans la deuxième étape, nous considérons une contribution collective de grands groupes de charges contrôlables qui modulent leur puissance agrégée de manière à réguler la fréquence primaire. Le modèle de Koopman est à nouveau développé de la même manière pour traiter les variations locales de fréquence causées par diverses perturbations à chaque bus de charge, en considérant des modèles de charges incertains. Le schéma de contrôle est adapté à un grand nombre de charges contrôlables, sans ajustement manuel du modèle. Les tests montrent une amélioration des performances de régulation de la fréquence par rapport au contrôle par la génération ou à gain proportionnel, ainsi qu'une diminution de la dépendance au déploiement de la génération de réserve de secours lorsque le contrôle par la demande est activé. L'approche permet d'améliorer les performances avec un nombre minimal de charges contrôlables. En outre, un plus grand nombre de charges non sensibles à la fréquence peuvent être en réserve pour des scénarios inattendus, ce qui ne compromet pas la qualité des services. Dans la dernière étape, nous utilisons des réseaux de distribution actifs (ADN) pour la régulation de fréquence primaire, en considérant ensemble plusieurs petites unités contrôlables (charges intelligentes et RED) de sorte que leur impact (collectivement) soit significatif. Notre approche consiste à traiter chaque unité contrôlable comme un petit contributeur à la fréquence primaire. La commande prédictive par modèle de Koopman est conçue pour traiter les variations locales de fréquence au point de couplage commun (PCC), en supposant un modèle incertain du système associé à chaque unité. Le schéma est entièrement décentralisé et adapté à un grand nombre de charges flexibles et de REDs, sans ajustement manuel du modèle. Il est démontré que l'activation de la fonctionnalité de contrôle du côté de la demande fournit une meilleure performance de fréquence avec les REDs, avec une utilisation moindre de la réserve de puissance disponible dans celles-ci. / Large scale integration of dispersed generation units has made the power system more difficult to observe, identify and control. This dissertation provides a novel data-driven methodology for power systems enriched with distributed energy resources (DERs) to enhance the system's potential to host huge number of DERs while preserving network dynamic behavior. Our approach incorporates historically recorded data to obtain distributed prediction models that manifest the actual dynamic behavior. The proposed method is decentralized in both learning and control phases. The design scheme utilizes only the local measurements of the controllable unit of interest in the learning phase and receives the feedback signals locally in the control phase with no extra states hosted from the rest of the grid, thus no scalability issues are posed. In the first stage, the obtained models are used to construct a distributed data-centric model predictive control (MPC) modules that generate auxiliary signals for oscillation damping and the DERs. The proposed design controls the active and reactive power injections of the DER inverters to reduce the oscillations during disturbance conditions. The learning process is based on Koopman operator theory where the unknown subsystem is reconstructed by lifting its dynamics to a linear space with an approximate linear state evolution. In the second stage, we consider a collective contribution of large clusters of controllable loads which modulate their aggregate demand power to regulate the primary frequency. Koopman model is again developed by the same manner to handle local frequency variations caused by various disturbances at each load bus, considering uncertain loads models. The control scheme is suited for a large-scale number of controllable loads, with no manual model adjustments. The tests show an improved frequency regulation performance compared to generation-side and a decreased reliance on standby reserve generation deployment when demand-side control is enabled. The approach can raise the performance with the minimum number of loads. Furthermore, more non-spinning frequency-responsive loads can be on standby for unexpected scenarios, thus no jeopardy to the quality of the services might occur. In the last stage, we utilize active distribution networks (ADNs) for primary frequency regulation, considering several small controllable units (smart loads and DERs) such that their impact (collectively) is significant. Our approach focuses on treating each controllable unit as a small contributor to the primary frequency. Koopman model predictive control is designed to handle local frequency variations at the point of common coupling (PCC), assuming an uncertain system model associated with each unit. The scheme is fully decentralized and suited for a large-scale number of flexible loads and DERs, with no manual model adjustments. It is shown that enabling the demand-side control functionality provides a better performance along with the DER, whilst keeping less usage of the DER surplus power reserve.
32

Contributions à la simulation temps réel des grands réseaux électriques modernes

Le-Huy, Philippe 22 June 2021 (has links)
La simulation des phénomènes électromagnétiques transitoires (EMT) est capitale dans plusieurs spécialisations de l'électrotechnique pour analyser, comprendre et prévoir divers comportements de réseaux électriques ou de dispositifs d'électronique de puissance commutée. Ces simulations sont typiquement réalisées sans contraintes temporelles : la simulation d'un événement peut être plus rapide ou plus lente que l'événement lui-même. Toutefois, dans un contexte de validation de systèmes de contrôle réel, les simulations doivent être effectuées en temps réel afin de soumettre l'équipement réel à des signaux réalistes avec le bon contenu spectral sur la plage fréquentielle requise. Une simulation opérant avec un pas de temps Tₛ est dite en temps réel si elle est en mesure de produire une nouvelle solution complète et d'effectuer tous les services nécessaires (entrées/sorties, acquisition, monitorage, etc.) en un laps de temps de Tₛ, et ce de manière maintenue et périodique. Les besoins de simulation temps réel ne cessent de croître pour étudier l'intégration des différents dispositifs d'électronique de puissance avec système de contrôle et protection qui prolifèrent sur les réseaux électriques et pour évaluer leurs interactions potentielles. Les réseaux à simuler sont de plus en plus vastes parce que ces dispositifs sont de plus en plus distribués spatialement. De plus, les modélisations sont de plus en plus complexes afin de représenter le plus fidèlement possible les phénomènes réels sur des plages de fréquence de plus en plus larges. Il existe donc un besoin criant d'augmenter la capacité de simulation temps réel. Pour y arriver, plusieurs groupes de recherche explorent l'utilisation d'unités de traitement alternatives telles les FPGA et GPU pour complémenter ou remplacer les processeurs standards tandis que d'autres explorent des modélisations et techniques pour augmenter la capacité de simulation des processeurs standards tels les équivalents fréquentiels, la simulation multitaux et la simulation hybride. Toutefois, la majorité de ces efforts vise l'augmentation des capacités en temps différé et non en temps réel. Afin de combler ce décalage, le présent ouvrage vise l'augmentation des capacités de simulation en temps réel des processeurs standards pour les grands et très grands réseaux électriques modernes c'est-à-dire où l'électronique de puissance foisonne et impose des pas de temps de plus en plus faibles. Deux avenues sont explorées : le parallélisme massif et l'augmentation de capacité par l'utilisation de simulation à taux multiples, qui mènera à la simulation hybride. En premier lieu, le parallélisme massif de la simulation temps réel est présenté. La puissance de calcul de superordinateurs n'est pas triviale à canaliser pour la simulation EMT temps réel à cause des difficultés de synchronisation. Une fois maîtrisé, le Superdome Flex de HPE a effectué la simulation en temps réel d'un réseau de 16432 nœuds électriques avec 372 cœurs de calcul opérant avec un pas de temps de 17 µs. Ces travaux sur les plateformes matérielles a également permis de découvrir les excellentes performances temps réel d'ordinateurs personnels ordinaires bas de gamme (RTPC) et très accessibles, ouvrant la voie à une démocratisation de la simulation temps réel. En second lieu, le cadre de simulation multitaux temps réel est présenté ainsi que les améliorations nécessaires à son bon fonctionnement. En simulant avec des taux plus lents que le taux de base EMT, il est possible d'augmenter substantiellement la capacité de calcul d'une plateforme donnée. Des simulations avec des pas de temps habituellement réservés aux FPGA (5 et 10 µs) sont effectuées sur de modestes RTPC En exploitant le cadre de simulation multitaux, il est ensuite montré comment la simulation hybride EMT/stabilité transitoire permet d'augmenter drastiquement (d'un facteur 23 à 10 µs et 1 ms) les capacités de simulation en temps réel d'un cœur de calcul. Toutefois, ce gain se fait au prix d'une perte de l'interaction harmonique entre le système EMT et celui de stabilité transitoire. L'implémentation temps réel de cette simulation hybride en temps réel est facilitée par l'utilisation d'une interface basée sur une modélisation hybride des lignes de transport et d'un protocole d'interaction parallèle, ce qui diffère de la méthode classique des images et des protocoles itératifs sophistiqués. Finalement, ces trois approches sont comparées : selon la situation, l'une de ces approches sera à préconiser selon l'ampleur de la simulation, la plage fréquentielle désirée et la quantité de ressources temps réel disponible. / The simulation of transient electromagnetic (EMT) phenomena is essential in several specializations of electrical engineering to analyze, understand and predict various behaviors of power systems and switched power electronic devices. These simulations are typically performed without time constraint: the simulation of an event can be faster or slower than the real event itself. However, in the context of validating real control systems, simulations must be performed in real-time in order to subject real equipment to realistic signals with the right spectral content over the required frequency range. A simulation operating with a time step Tₛ is said to be in real-time if it is able to produce a complete new solution and perform all the necessary services (inputs/outputs, acquisition, monitoring, etc.) in a period of time of Tₛ in a maintained and periodic manner. The need for real-time simulation continues to grow to study the integration of the various power electronic devices with control and protection systems that proliferate in power systems and to assess their potential interactions. The power systems to be simulated are increasingly vast because the spatial distribution of these devices is increasing. Moreover, model complexity is ever increasing in order to represent as faithfully as possible the real phenomena over increasingly wide frequency ranges. There is therefore a crying need to increase the capacity for real-time simulation. Several research groups are exploring the use of alternative processing units such as FPGAs and GPUs to complement or replace standard processors, while others are exploring models and techniques to increase the simulation capacity of standard processors such as frequency equivalents, multi-rate simulation and hybrid simulation. However, the majority of these efforts are aimed at increasing capacity in offline simulations, not for real time. In order to bridge this gap, this work aims to increase the real-time simulation capabilities of standard processors for large and very large modern power systems, i.e. where power electronics abound and impose smaller and smaller time steps. Two research avenues are explored: massive parallelism and increasing capacity through the use of multi-rate simulation, which will lead to hybrid simulation. First, the massive parallelism of real-time simulation is presented. The computing power of supercomputers is not trivial to harness for real-time EMT simulations because of synchronization difficulties. Once mastered, the HPE Superdome Flex performed real-time simulation of a network of 16,432 power nodes with 372 computer cores operating at a time step of 17 µs. This work on hardware platforms has also made it possible to discover the excellent real-time performance of ordinary low-end, but very accessible, personal computers (RTPC), paving the way for a democratization of real-time simulation. Secondly, the real-time multi-rate simulation framework is presented as well as the improvements necessary for its proper functioning. By simulating with rates slower than the base EMT rate, it is possible to substantially increase the computational capacity of a given platform. Simulations with time steps usually reserved for FPGAs (5 and 10 µs) are carried out on modest RTPCs. By exploiting the multi-rate simulation framework, it is then shown how the EMT / transient stability hybrid simulation can drastically increase (by a factor of 23 with 10 µs and 1 ms) the real-time simulation capacities of a computer core. However, this gain comes at the cost of a loss of the harmonic interaction between the EMT and transient stability systems. The real-time implementation of this real-time hybrid simulation is facilitated by the use of an interface based on hybrid transmission line modeling and a simple parallel interaction protocol, which differs from the classic equivalent image method and sophisticated iterative interaction protocols. Finally, these three approaches are compared: depending on the situation, one of these approaches will be more suited depending on the desired size of the simulation, the desired frequency range and the amount of available real-time resources.
33

Application de l'intelligence artificielle à la prédiction de la demande en eau chaude domestique et en électricité pour le contrôle par modèle prédictif dans les bâtiments résidentiels

Maltais, Louis-Gabriel 30 August 2022 (has links)
Le secteur du bâtiment représente plus du tiers de la consommation énergétique et des émissions de gaz à effet de serre mondiales. Face à cet enjeu, des stratégies passives ont permis d'améliorer l'efficacité énergétique des bâtiments. À mesure que les technologies passives se rapprochent de leur limite physique d'efficacité, il devient nécessaire de s'intéresser à des technologies actives. Les stratégies de contrôle par modèle prédictif ont le potentiel de réduire la consommation énergétique des systèmes de chauffage, climatisation, ventilation, conditionnement de l'air et de production d'eau chaude domestique. Une difficulté limitant leur implantation dans les bâtiments provient du besoin de prédire des paramètres influencés par le comportement des occupantes et des occupants qui apparait stochastique, complexifiant le développement de modèles de prédiction. Dans ce contexte, cette thèse se concentre à évaluer des méthodes basées sur les données pour estimer la prédictibilité de la consommation d'eau chaude domestique et d'électricité dans un bâtiment résidentiel. L'impact d'une prédictibilité variable sur les performances est évalué lors de l'implémentation de ces modèles de prédiction dans des contrôleurs par modèle prédictif appliqués à des systèmes de production d'eau chaude domestique. Premièrement, la prédictibilité des profils de consommation d'eau chaude est évaluée à partir de profils mesurés dans un bâtiment résidentiel de 40 logements. Plus précisément, des réseaux de neurones sont entraînés à prédire cette consommation pour des systèmes de tailles variables allant d'un à 100 logements. Le niveau de prédictibilité est identifié comme étant proportionnel au nombre de logements et hautement variable pour des systèmes unifamiliaux, passant de très faible à élevé (c.-à-d., coefficient de détermination allant de 8 à 92% avec une moyenne de 58%). Les résultats montrent une difficulté à prédire précisément les pics de consommation, souvent sous-estimés lorsqu'une faible prédictibilité est observée. Puisqu'un contrôleur par modèle prédictif base ses décisions sur les prédictions, une faible prédictibilité pourrait impacter les performances en termes d'économie d'énergie et de respect des contraintes applicables à un système de production d'eau chaude. Deuxièmement, l'impact du niveau de prédictibilité des profils de consommation d'eau chaude sur les performances de contrôleurs par modèle prédictif est estimé. Les performances d'un contrôleur par modèle prédictif théorique employant des prédictions parfaitement précises sont comparées avec celles obtenues avec un contrôleur employant des prédictions imparfaites produites par les réseaux de neurones entraînés précédemment. Pour un système unifamilial, le principal effet des prédictions imparfaites sur les performances est le non-respect plus fréquent des contraintes de température dû à une incapacité à agir suffisamment en avance en préparation aux futurs pics de consommation d'eau chaude sous-estimés. Néanmoins, en comparaison avec une commande traditionnelle, des économies d'énergie allant de 4 à 8% ont été obtenues avec le contrôleur employant les prédictions imparfaites. En prédisant les périodes de pointe énergétique, les contrôleurs par modèle prédictif ont la capacité de réduire les pointes de consommation énergétique en déplaçant une partie de cette consommation vers les périodes hors-pointes. Dans cette optique, plusieurs modèles de prédiction basés sur les données sont entraînés afin de prédire la consommation d'électricité de logements unifamiliaux liée à l'éclairage et à l'utilisation des prises de courant sur plusieurs horizons allant de 10 minutes à 24 heures. Les arbres de décision renforcés (boosted) par le gradient sont identifiés comme étant la méthode produisant la meilleure qualité de prédiction. Une grande variabilité quant au niveau de prédictibilité est observée entre les logements, ce qui pourrait affecter la capacité des contrôleurs à réduire la consommation énergétique de pointe dans certains cas. Finalement, un dernier chapitre explore le potentiel d'un contrôleur par modèle prédictif employant les modèles de prédiction de la demande en eau chaude et de la consommation d'électricité pour prédire les périodes de pointe. Les résultats démontrent une plus grande différenciation entre les contrôleurs par modèle prédictif avec prédictions parfaites et imparfaites, le premier permettant de réduire d'avantage la consommation énergétique de pointe du chauffe-eau en prédisant plus précisément les périodes de pointe ainsi que la demande en eau chaude domestique correspondante. En comparaison avec la commande traditionnelle, des économies d'énergie pendant les périodes de pointe allant de 10 à 70% (moyenne de 26%) selon l'unité résidentielle étudiée ont été obtenues avec le contrôleur basé sur les prédictions imparfaites. Globalement, cette thèse représente un grand pas vers l'application future des contrôleurs par modèle prédictif basés sur l'apprentissage machine dans les bâtiments résidentiels, et les résultats obtenus démontrent le potentiel de cette stratégie de contrôle face à la réduction de la consommation d'énergie des systèmes de production d'eau chaude domestique unifamiliaux. / The building sector accounts for more than a third of the worldwide energy consumption and greenhouse gas emissions. Facing these challenges, passive strategies have allowed to increase the energy efficiency of buildings. As these passive technologies are reaching their efficiency limits, it is necessary to turn our interest to active technologies. Model predictive control strategies have the potential to reduce the energy consumption of heating, cooling, ventilation and air conditioning as well as domestic hot water production systems. One of the challenges towards their application in buildings is the requirement to predict parameters that are influenced by occupants' behavior that appears to be stochastic. In this context, this thesis focuses on evaluating data-based methods to estimate the predictability of domestic hot water and electricity consumption profiles in a residential building. The impact of a varying predictability on the performance is evaluated by implementing these forecasting models in model predictive controllers applied to domestic hot water production systems. First, the predictability of domestic hot water consumption profiles is evaluated from profiles measured in a 40-unit case-study residential building. More specifically, neural networks are trained to predict this consumption for systems of varying size ranging between one and 100 units. The level of predictability is identified as proportional to the number of units and shows high variability for single-family systems, starting at very low and reaching high levels (i.e., coefficient of determination from 8 to 92% with a mean of 58%). Results show that accurately predicting consumption peaks is a challenge and often results in underestimating their amplitude when a low predictability is observed. As the decisions of model predictive controllers are based on predictions, a low predictability could impact their energy-saving performance and ability to respect the constraints of domestic hot water production systems. Thus, the impact of the level of predictability of hot water consumption profiles on the performance of model predictive controllers is estimated. The performance of a theoretical model predictive controller relying on perfectly accurate predictions are compared with that of a controller using imperfect predictions produced by the previously trained neural networks. In single-family systems, the main impact of imperfect predictions on the performance is more violations of the storage temperature constraint due to the inability to act sufficiently in advance in preparation of underestimated future hot water consumption peaks. Nonetheless, comparing with a traditional controller, energy savings from 4 to 8% were obtained with the predictive controller relying on imperfect forecasts. By predicting energy-peak periods, the predictive controllers have the ability to reduce peak energy consumption by moving parts of the energy consumption to off-peak periods. In this context, many data-based prediction models are trained to predict the plug load and lighting electricity consumption of single-family residential units over horizons of 10 minutes to 24 hours. Gradient-boosted regression trees are identified as the method providing the highest prediction quality. A high variability is observed for the level of predictability between residential units, which could affect the controllers' ability to reduce electricity consumption peaks in some cases. Finally, a last chapter explores the potential of a model predictive controller using the prediction models of the domestic hot water demand and of the electricity consumption to forecast electricity-peak periods. As the electricity consumption was demonstrated as challenging to predict in many contexts, the impact of forecasting inaccuracies on the performance of controllers is even more displayed here. The results show that the model predictive controllers with perfect or imperfect predictions are more differentiated, with the first managing to reduce more the electricity-consumption peaks of the water heater by accurately predicting peak periods along with the corresponding domestic hot water demand. Compared with a traditional controller, peak-period energy savings ranging from 10 to 70% (mean of 26%) were obtained with the controller relying on imperfect forecasts depending on the studied residential unit. Globally, this thesis is a major step towards future application of model predictive controllers based on machine learning in residential buildings. The results demonstrate the potential of this control strategy to reduce the energy consumption of single-family domestic hot water systems.
34

Du Plan Monnet au Plan Bettencourt : comment ont évolué la politique charbonnière et la politique énergétique dans les Trente glorieuses ? / From Monnet plan to Bettencourt plan : coal policy and energy policy in France during trente glorieuses

Mamehara, Keisuke 14 November 2016 (has links)
La pénurie de charbon a constitué une des préoccupations incessantes de la politique énergétique à partir des années trente en France. Dès la Libération, ce problème a conduit le gouvernement à adopter le programme de modernisation du charbonnage. Vers le début des années cinquante, la pénurie absolue en charbon a été endiguée. Dans le même temps, l'ouverture de la CECA a fourni davantage de facilités aux Français pour importer les charbons. Toutefois, le choix du gouvernement a plutôt consisté à accélérer le programme de renforcement de la production de charbon en vue de satisfaire les besoins le plus possible grâce à sa propre production dans une période où le pays souffrait d'une aggravation de la situation de la balance des comptes commerciaux. Cette politique s'est basée sur des hypothèses prévoyant une progression continuelle des besoins en charbon et que les mines françaises se trouvaient en mesure d'améliorer suffisamment leur compétitivité pour concurrencer leurs homologues étrangères. Cependant, ces hypothèses n'ont pas été confirmées par les faits. La crise du charbon de 1958 a provoqué un gonflement des stocks qui a obligé le gouvernement à annoncer le Plan Jeanneney. Le gouvernement a essayé par ailleurs de résoudre le problème de l'accumulation des stocks. Cet effort s'est concrétisé par la conclusion d'un contrat entre l'EDF et les CDF en 1965 par suite de l'intervention des pouvoirs publics. Ces derniers ont contraint l'EDF à accepter tous les charbons proposés par les CDF. L'EDF devait ainsi supporter les charges résultant de la politique d'accroissement de la production charbonnière menée par le gouvernement selon des prévisions erronées. / One of the most urgent tasks for French economy after Libération was to increase coal production. French government nationalized coal industry in 1946 and decided to increase coal production in the framework of Monnet Plan by concentrating financial and material resource to coal industry. France succeeded in increasing coal production according to Monnet Plan by the early 50's. The government estimated that national demand for coal would increase constantly through 50's and 60's. On the other hand, France had easier access to coal importation than before in 1952 with the institution of ECSC. However, French government decided to continue to increase national coal production in order to meet national demand for coal by its own production, and in order not to deteriorate current account. But in fact, national demand for coal did not increased as the government estimated. Coal crisis in 1958 forced the government to revise coal production programme to reduce national coal output. Meanwhile, French government made efforts to secure outlets of national coal. These efforts were concretized by the conclusion of contract between Électricité de France (EDF) et Charbonnages de France (CDF). By this contract, EDF was obliged to receive all quantity of national coal that CDF hoped to sell to electric sector. Thus, electric sector had to pay the price for coal policy that the government drew up according to the wrong estimation of national demand for coal.
35

L’énergie électrique au Sénégal de 1887 à 1985 : transfert de technologie, appropriation et enjeu politique d’un patrimoine industriel naissant / Electrical Energy in Senegal 1887-1985 : transfer of Technology, appropriation and political stake of a rising industrial heritage

Diedhiou, Salif 25 June 2016 (has links)
L’électrification du Sénégal est intervenue assez tôt, en 1889, à Saint-Louis, au moment où les grandes villes européennes n’avaient pas fini de découvrir toutes les possibilités qu’offrait cette grande innovation énergétique. L’industrie de l’électricité est ainsi restée aux mains d’entrepreneurs métropolitains jusqu’à la fin des années 1970. Durant toute cette période, le personnel technique, en charge de son fonctionnement était essentiellement européen. C’est avec le processus de nationalisation du secteur, amorcé en fin 1972, qu’on a posé pour la première fois l’option de la « sénégalisation » des postes techniques, et ainsi du processus de transfert de technologie de l’énergie électrique vers le personnel local. Cette mission a été conduite par Électricité de France, en accord avec l’État du Sénégal. Il a néanmoins fallu presqu’un siècle, de 1889 à 1985, pour que le Sénégal s’approprie la technologie vers 1985. Cette thèse analyse à la fois l’introduction des techniques depuis la colonisation mais également la trajectoire de l’électrification du Sénégal et les outils du transfert de la technologie de l’énergie électrique. Elle évoque en outre la politique patrimoniale et l’enjeu du patrimoine industriel dans un pays non industriel comme le Sénégal. / The electrification of Senegal had already occurred in 1889, in Saint-Louis, at a time when the European cities had yet to discover all the possibilities that this great technological innovation comprised. The industry of electricity thus remained in the hands of metropolitan entrepreneurs until the end of the 1970s. During this period, the technical personnel in charge of its operating were essentially European. It is with the nationalization process launched in the seventies that, for the first time, the term “senegalisation” is coined; and, with it, the process of technology transfers to the local personnel. Electricity de France, in agreement with the State of Senegal, has conducted this task. It nevertheless took close to a century, from 1889 to 1985, for Senegal to fully seize the technology. This thesis analyzes the introduction of techniques since the colonization and both the path of electrification of Senegal, alongside the tools necessary to the transfer of the technology of electrical energy. It further mentions the patrimonial policy, and the stakes of the industrial heritage in a non-industrial country such as Senegal.
36

Market power in power markets in Europe : the Cases in French and German woholesale electricity markets / Pouvoir de marché dans les marchés électriques en Europe : Les cas dans les marchés de gros de l'électricité français et allemand

Pham, Thao 28 May 2015 (has links)
Les deux derniers siècles ont connu une révolution exceptionnelle dans l'organisation des marchés électriques dans le monde entier. Ainsi, traditionnellement organisé autour de monopoles verticalement intégrés et soumis à la régulation, le secteur électrique connait un processus de réforme et évolue vers une organisation décentralisée qui favorise les mécanismes du marché. Le passage des tarifs régulés à des prix du marché, compte tenu des structures concentrées et les caractéristiques particulières de l'industrie électrique, accroît la possibilité que certaines entreprises puissent manipuler les prix du marché en exerçant leur pouvoir de marché. Les questions de "pouvoir de marché" dans un secteur donné ont été abondamment étudiées dans la littérature de l'économie Industrielle depuis la fin des années 1970, mais des études théoriques et empiriques de "pouvoir de marché dans les marchés électriques" n'ont été développées que récemment. Dans cette thèse, nous essayons de mener une recherche approfondie autour des questions de pouvoir de marché sur les marchés de gros de l'électricité en Europe. Nous conduisons des études empiriques dans deux des plus grands marchés européens: la France (sur des données 2009-2012) et l'Allemagne (sur des données de 2011), en utilisant des méthodes économétriques et des modèles de simulation des marchés électriques. Le sujet semble pertinent dans la période de transition énergétique en Europe. / The two last centuries have witnessed an exceptional revolution in the organization of electric power markets worldwide. The industry's organization has changed from vertically integrated monopolies under regulation to unbundled structures that favor market mechanisms; known as reform process in Europe. The shift to reliance on market prices, given concentrated structures and particular characteristics of electricity industry, raises a possibility that some firms could influence the market prices by exercising their market power. The issues of "market power" in a given industry have been abundantly employed in the literatureof Industrial Organization since the late 1970s but theoretical and empirical studies of "market power in electricity markets" have only been developed recently. In this thesis, we attempt to carry out an insight research around market power questions in deregulated wholesale electricity markets in Europe, as regarding the way of defining and measuring it. We carry out empirical studies in two of the biggest liberalized electricity markets in Europe: France (2009-2012's data) and Germany (2011's data), using econometric regressions and electricity simulation models as main methodologies. The subject is particularly relevant inthe context of energy transition in Europe (transition energetique in France and Energiewende in Germany).
37

Attention ! Travaux en cours : l’extension des réseaux de services essentiels dans les quartiers irréguliers de Delhi et Lima / Caution! Work in progress : the extension of basic service networks in the irregular settlements of Delhi and Lima

Criqui, Laure 10 September 2014 (has links)
L'extension des réseaux d'électricité, d'eau et d'assainissement dans les villes en développement est a priori compliquée par l'absence ou les déficiences de la planification urbaine. Les modalités de viabilisation des quartiers irréguliers à Delhi et Lima sont ici analysées comme des mécanismes sociotechniques révélateurs de dynamiques de fabrique urbaine. En effet, au quotidien, les entreprises installent des poteaux et des tuyaux dans les quartiers non-planifiés. Des innovations techniques, sociales et institutionnelles permettent d'y étendre les réseaux ; l'absence de planification n'est donc pas un obstacle à la viabilisation. Toutefois, ce processus est sous-optimal : la conduite des travaux est désordonnée, l'imprévisibilité limite l'élaboration de stratégies, et les injonctions politiques peuvent être contradictoires. De tels déficits de coordination génèrent des incertitudes qui sont difficiles à surmonter pour les entreprises de services. Il y a néanmoins des pistes prometteuses pour intervenir dans les quartiers non-planifiés : des dispositifs alternatifs de desserte existent qui peuvent être promus ; des données et plans informels satisfont les besoins de connaissances sur la ville et gagneraient à être valorisés ; et le dessin et la préservation de la trame viaire s'avèrent déterminants pour permettre une consolidation urbaine cohérente, progressive et durable. L'analyse de l'extension des réseaux permet d'identifier des instruments clés pour l'action publique dans les villes en développement, et offre ainsi de nouvelles perspectives à la planification urbaine pour aménager la ville existante et préparer stratégiquement l'urbanisation encore à venir / The extension of electricity, water and sanitation networks in developing cities seems to be a priori complicated by the lack or the deficiencies of urban planning. The modalities of infrastructure deployment into the irregular settlements of Delhi and Lima are here analysed as sociotechnical mechanisms, indicative of the dynamics of the urban fabric. Indeed, on a daily basis, utility firms do install pipes and poles in unplanned settlements. Some technical, social and institutional innovations make the extension of networks possible; the lack of urban planning is therefore not an obstacle to service extension. Nonetheless, this process is not optimal: the conduct of public works is disordered, unpredictability hampers the elaboration of strategies and political injunctions can be contradictory. Such coordination deficits generate uncertainties which are more difficult to overcome for utility firms. There are nevertheless some promising leads for intervention in unplanned settlements: alternative devices for servicing exist that can be promoted; some informal plans and data satisfy the needs for knowledge on the city and would be well worth valuing; and the design and the preservation of the road layout appear to be decisive to allow a coherent, progressive and sustainable urban consolidation process. The analysis of network extension helps to identify key instruments for public action in developing cities, and thus offers new perspectives for urban planning to develop the existing city as well as to strategically prepare for the urbanisation yet to come
38

Une nouvelle approche pour la vérification des masques des circuits intégrés

Jerraya, A.A. 24 November 1983 (has links) (PDF)
Approche pour la réalisation d'outils de vérification des masques de circuit intégrés. Le système Comfor est un extracteur de schéma électrique paramétrable par la technologie. Il analyse des images de C.I. pour reconnaitre les composants électriques et calculer leurs caractéristiques. Comfor base à la fois sur des notions de programmation logique et des techniques de reconnaissance syntaxique de formes
39

Développement d'une méthodologie d'analyse coût-bénéfice en vue d'évaluer le potentiel de réduction des impacts environnementaux liés au confort d'été : cas des climatiseurs individuels fixes en France métropolitaine

Grignon-Massé, Laurent 20 May 2010 (has links) (PDF)
Le développement de la climatisation individuelle est une préoccupation grandissante pour les pouvoirs publics français. Dans ce cadre, cette thèse vise à évaluer, sous l'angle de l'Analyse Coût-Bénéfice (ACB), des solutions permettant de concilier amélioration du confort d'été et réduction des impacts environnementaux. Après avoir éclairci le concept d'ambiance climatique confortable, des méthodes de monétisation de l'inconfort et des externalités sont développées en vue d'être intégrées dans l'évaluation économique d'actions d'amélioration du confort d'été. Les potentiels d'actions portant sur l'enveloppe et l'usage des bâtiments sont ensuite quantifiés en termes de réduction des besoins de refroidissement (locaux climatisés) et d'amélioration du confort d'été (locaux non climatisés). Des stratégies efficaces de lutte contre l'inconfort sont identifiées. Il apparaît d'autre part que les rénovations d'enveloppe des bâtiments, réalisées en vue de réduire les besoins de chauffage, peuvent fortement détériorer le confort d'été. Les potentiels d'amélioration des performances environnementales des climatiseurs sont ensuite estimés, ce qui nécessite le développement d'une méthode d'évaluation de l'efficacité énergétique saisonnière des appareils. L'Analyse en Cycle de Vie réalisée montre que l'atténuation des impacts requiert de se concentrer sur la réduction des consommations électriques puis sur le cycle de vie du fluide frigorigène. Enfin, l'ACB d'actions d'amélioration du confort d'été est réalisée, puis complétée par un travail prospectif d'estimation des impacts de la climatisation dans le parc existant français. La superficie climatisée pourrait croître de 650 % d'ici 2030, le secteur résidentiel représentant alors l'essentiel des surfaces (90 %). Des mesures de maîtrise de la demande d'énergie, associées à la récupération des fluides frigorigènes, peuvent néanmoins réduire fortement les impacts engendrés.
40

De la méso-échelle à la micro-échelle : désagrégation spatio-temporelle multifractale des précipitations

Biaou, Angelbert 13 December 2004 (has links) (PDF)
Le passage de la méso-échelle, échelle des modèles de circulation générale GCM, de l'anglais "General Circulation Models", à la micro-échelle (échelle hydrologique), pour les précipitations, est un exercice assez complexe. Les champs de précipitations comme la plupart des champs géophysiques turbulents obéissent au concept d'invariance d'échelle, qui est une caractéristique principale des champs multifractals. Par ailleurs, il a été prouvé que le transfert d'énergie des grosses structures aux plus petites structures au sein d'un phénomène géophysique turbulent s'effectue de façon multiplicative (Kolmogorov, 1962; Mandelbrot, 1974 ...): un facteur aléatoire déterminant la fraction de flux transmis d'un gros tourbillon à un plus petit. Le travail que nous présentons ici s'inscrit dans le cadre du projet EDF "Prévisions saisonnières et Hydraulicité" dans la gestion de son parc hydroélectrique et a pour objectif la construction d'un modèle de désagrégation basé sur le principe d'invariance d'échelle des champs de précipitation, donc utilisant les propriétés des champs géophysiques mentionnées ci-dessus. Dans un premier temps, nous conduisons une analyse multifractale (Schertzer et Lovejoy , 1991) sur des séries pluviométriques de la France (243 séries pluviométriques au pas de temps de six minutes, constituées sur une dizaine d'années distribuées sur la France métropolitaine), ce qui nous permet de déduire les paramètres multifractals, dans le temps, dans l'espace ou dans le cas spatio-temporel. La seconde étape consiste à construire des cascades multifractales, à partir des valeurs saisonnières de pluies avec les paramètres déterminés dans la première étape. Le principe de cette deuxième partie consiste, à partir d'une prévision mensuelle sur des mailles de dimensions 243km×243km×32jours (correspondant à une anisotropie espace-temps de l'ordre de H=2/3 :x=y=t (3/2) ) voisines de celles des modèles de circulation générale (dimensions de l'ordre de 250km×250km×30jours) et à conduire la cascade multifractale, avec les paramètres multifractals préalablement déterminés, pour atteindre des valeurs de prévision sur des mailles de l'ordre de 1km×1km×1j. Les résultats obtenus devront faire l'objet d'un conditionnement orographique avant d'être comparés avec les valeurs réelles obtenues.

Page generated in 0.4285 seconds