• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 81
  • 41
  • 34
  • 33
  • 27
  • 26
  • 6
  • 6
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 432
  • 175
  • 166
  • 102
  • 100
  • 91
  • 91
  • 87
  • 73
  • 66
  • 63
  • 62
  • 62
  • 61
  • 60
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

La régionalisation des inventaires de cycle de vie pour évaluer les technologies, les flux matériaux et les impacts dans la chaine d’approvisionnement des énergies renouvelables / Technologies, flow raw materials and supply risks about the renewable energy technologies

François, Cyril 15 December 2017 (has links)
La transition énergétique est un enjeu crucial du XXIème siècle, en particulier pour réduire les conséquences néfastes du changement climatique. Cependant, cette transition est sujette à de nombreux risques : économiques, géologiques, sociaux, environnementaux et géopolitiques. Afin de pouvoir évaluer la vulnérabilité et les conditions de faisabilité des scénarios de transition énergétique, il est nécessaire de pouvoir évaluer la chaine de valeur technologique et géographique des technologies impliquées dans le système énergétique.Les outils actuels tels que les analyses de cycle de vie (ACV) permettent de prendre en compte la chaine de valeur technologique, mais les données relatives aux ACV ne fournissent pas ou peu d’information sur la chaine de valeur géographique. Les modèle d’entrées-sorties économiques (IOA), en particulier ceux mutlirégionaux (MRIO), s’ils fournissent des données sur les échanges économiques bilatéraux, donc une estimation des échanges régionalisés, sont des modèles très agrégés. Les nomenclatures des activités économiques et des catégories de produits prisent en compte sont restreintes. Le travail réalisé au sein de cette thèse vise à exploiter les informations des outils ACV et MRIO, profitant des avantages de chacun, c’est à dire l’information technologique des premiers et l’information régionalisée des seconds. Une nouvelle méthodologie est proposée pour régionaliser les inventaires de cycle de vie d’ACV à partir des données MRIO. Cette méthodologie permet, à partir d’une base de données ACV de processus industriels, d’exploiter l’information géographique des processus lorsqu’elle existe et d’exploiter les informations d’échanges économiques bilatéraux des MRIO pour estimer cette information lorsqu’elle n’existe pas. Un soin particulier est pris afin de faire correspondre les activités et les produits selon leurs géographies.Les outils qui découlent de ces travaux sont la première étape à l’évaluation des scénarios de la transition énergétique. En particulier, ils permettent de réaliser des inventaires de cycle de vie régionalisés pour évaluer les besoins et les impacts des technologies impliquées dans la transition énergétique. Cependant, des travaux supplémentaires sont nécessaires pour prendre en compte la dimension temporelle des scénarios de transition énergétique.Cette nouvelle méthode nécessite l’usage de nombreuses données de sources différentes. Afin de gérer ces données, une plateforme internet collaborative a été mise en place, qui permet de dissocier la gestion des données de leur usage. Une réflexion sur la gestion de la donnée a amené à penser de manière différente la structure des données relatives à l’écologie industrielle. Une nouvelle architecture sémantique, aussi appelée ontologie, a été développée pour faciliter la gestion des données, mais aussi leur maintient et leur évolution dans le temps, que ce soit pour un utilisateur unique, ou dans le cadre d’une gestion collaborative. / The energy transition is a decisive issue of the XXIth century, particularly in relation to the reduction of the harmful consequences of the climatic changes. However, this transition is subjected to several hazards : economic, geologic, social, environmental and geopolitical ones. In order to evaluate the vulnerability and the conditions of feasibility of the energy transition scenarios it is necessary to be able to evaluate the supply chain of the technologies related to the energy system, in the technological and but also geographical dimensions.The current studies such as the life cycle assessments (LCA) allow to take into account the supply chain in the technological dimension, but these studies do not provide or only few information about the geographical dimension. At the opposite, the Input-Output Analysis (IOA), particularly the multiregional ones (MRIO) provide an information about the regional exchanges by categories of products, but are very aggregated. The nomenclatures of the economical activities and the categories of products taken into account are restricted. The works realized within this thesis aim to exploit the best of each tool, i.e. the technological information from the LCA and the geographical information from the MRIO. A new methodology is proposed to regionalize the LCA inventory with the MRIO data. This methodology allows to use the geographical information of the LCA data when it exists or otherwise use the geographical information from MRIO to estimate it. A particular attention is paid to get a realistic model, i.e. to match the activities and the products with real geographical data.The tools produced in this thesis are the first step to evaluate the energy transition scenarios. Particularly, they allow to realize regionalized LCA inventories to evaluate the needs and impacts of the technologies involved in the energy transition. However, additional works are necessary to take into account the temporal dimension of the energy transition scenarios.The new method needs to manipulate a lot of different data from different sources. In order to manage these data a new collaborative web platform has been set up. It allows to manipulate the data through a web interface as well as uses them in calculation frameworks. In order to facilitate the evolution of the tools and the manipulation of the data, a work about how to structure and manipulate the information was realized. A new semantic architecture — called computer ontology — has been developed to facilitate the management of the knowledges but also the maintenance and the integration of new knowledges. The collaborative framework can fit the specifications for a one person usage or a community.
392

Der Stromausfall in München: Einfluss auf Zahlungsbereitschaften für Versorgungssicherheit und auf die Akzeptanz Erneuerbarer Energien

Schubert, Daniel Kurt Josef, Meyer, Thomas, von Selasinsky, Alexander, Schmidt, Adriane, Thuß, Sebastian, Erdmann, Niels, Erndt, Mark 01 October 2013 (has links)
Mit dem Forschungsprojekt wurde das Ziel verfolgt, den Einfluss des Münchner Stromausfalls im Winter 2012 auf die Zahlungsbereitschaft für Versorgungssicherheit sowie auf die Akzeptanz für Erneuerbare Energien zu untersuchen. Das Ausfallereignis in München bot sich in besonderer Weise für eine Untersuchung an, da etwa die Hälfte des Stadtgebiets betroffen war, sodass eine Trennung nach beeinträchtigten und nicht-beeinträchtigen Haushalten aus einer nahezu homogenen Stichprobe ermöglicht wurde. Im Zentrum der Untersuchung steht eine repräsentative Bevölkerungsumfrage, die zwei Monate nach dem Ausfallereignis durchgeführt wurde. Dazu wurden über das Telefonlabor der Technischen Universität Dresden 526 Personen aus Münchner Privathaushalten befragt. Nach unseren Befunden beeinflusst eine kleine Versorgungsunterbrechung, wie in München, die Einstellung hinsichtlich der Erneuerbaren Energien nur unwesentlich. Allerdings können wir mit Hilfe der kontingenten Bewertungsmethode einen signifikanten Einfluss des Ausfalls auf die Zahlungsbereitschaft für eine sichere Versorgung nachweisen. Darüber ergeben sich aus unserer Studie Erkenntnisse für die Umsetzung der Energiewende: Beispielsweise wurde der Wert für die letzte gelieferte Kilowattstunde Strom (Value of Lost Load), das Last-Abschaltpotenzial von Haushalten sowie die Akzeptanz der Höhe der EEG-Umlage ermittelt.
393

Distributed Computing Solutions for High Energy Physics Interactive Data Analysis

Padulano, Vincenzo Eduardo 04 May 2023 (has links)
[ES] La investigación científica en Física de Altas Energías (HEP) se caracteriza por desafíos computacionales complejos, que durante décadas tuvieron que ser abordados mediante la investigación de técnicas informáticas en paralelo a los avances en la comprensión de la física. Uno de los principales actores en el campo, el CERN, alberga tanto el Gran Colisionador de Hadrones (LHC) como miles de investigadores cada año que se dedican a recopilar y procesar las enormes cantidades de datos generados por el acelerador de partículas. Históricamente, esto ha proporcionado un terreno fértil para las técnicas de computación distribuida, conduciendo a la creación de Worldwide LHC Computing Grid (WLCG), una red global de gran potencia informática para todos los experimentos LHC y del campo HEP. Los datos generados por el LHC hasta ahora ya han planteado desafíos para la informática y el almacenamiento. Esto solo aumentará con futuras actualizaciones de hardware del acelerador, un escenario que requerirá grandes cantidades de recursos coordinados para ejecutar los análisis HEP. La estrategia principal para cálculos tan complejos es, hasta el día de hoy, enviar solicitudes a sistemas de colas por lotes conectados a la red. Esto tiene dos grandes desventajas para el usuario: falta de interactividad y tiempos de espera desconocidos. En años más recientes, otros campos de la investigación y la industria han desarrollado nuevas técnicas para abordar la tarea de analizar las cantidades cada vez mayores de datos generados por humanos (una tendencia comúnmente mencionada como "Big Data"). Por lo tanto, han surgido nuevas interfaces y modelos de programación que muestran la interactividad como una característica clave y permiten el uso de grandes recursos informáticos. A la luz del escenario descrito anteriormente, esta tesis tiene como objetivo aprovechar las herramientas y arquitecturas de la industria de vanguardia para acelerar los flujos de trabajo de análisis en HEP, y proporcionar una interfaz de programación que permite la paralelización automática, tanto en una sola máquina como en un conjunto de recursos distribuidos. Se centra en los modelos de programación modernos y en cómo hacer el mejor uso de los recursos de hardware disponibles al tiempo que proporciona una experiencia de usuario perfecta. La tesis también propone una solución informática distribuida moderna para el análisis de datos HEP, haciendo uso del software llamado ROOT y, en particular, de su capa de análisis de datos llamada RDataFrame. Se exploran algunas áreas clave de investigación en torno a esta propuesta. Desde el punto de vista del usuario, esto se detalla en forma de una nueva interfaz que puede ejecutarse en una computadora portátil o en miles de nodos informáticos, sin cambios en la aplicación del usuario. Este desarrollo abre la puerta a la explotación de recursos distribuidos a través de motores de ejecución estándar de la industria que pueden escalar a múltiples nodos en clústeres HPC o HTC, o incluso en ofertas serverless de nubes comerciales. Dado que el análisis de datos en este campo a menudo está limitado por E/S, se necesita comprender cuáles son los posibles mecanismos de almacenamiento en caché. En este sentido, se investigó un sistema de almacenamiento novedoso basado en la tecnología de almacenamiento de objetos como objetivo para el caché. En conclusión, el futuro del análisis de datos en HEP presenta desafíos desde varias perspectivas, desde la explotación de recursos informáticos y de almacenamiento distribuidos hasta el diseño de interfaces de usuario ergonómicas. Los marcos de software deben apuntar a la eficiencia y la facilidad de uso, desvinculando la definición de los cálculos físicos de los detalles de implementación de su ejecución. Esta tesis se enmarca en el esfuerzo colectivo de la comunidad HEP hacia estos objetivos, definiendo problemas y posibles soluciones que pueden ser adoptadas por futuros investigadores. / [CA] La investigació científica a Física d'Altes Energies (HEP) es caracteritza per desafiaments computacionals complexos, que durant dècades van haver de ser abordats mitjançant la investigació de tècniques informàtiques en paral·lel als avenços en la comprensió de la física. Un dels principals actors al camp, el CERN, acull tant el Gran Col·lisionador d'Hadrons (LHC) com milers d'investigadors cada any que es dediquen a recopilar i processar les enormes quantitats de dades generades per l'accelerador de partícules. Històricament, això ha proporcionat un terreny fèrtil per a les tècniques de computació distribuïda, conduint a la creació del Worldwide LHC Computing Grid (WLCG), una xarxa global de gran potència informàtica per a tots els experiments LHC i del camp HEP. Les dades generades per l'LHC fins ara ja han plantejat desafiaments per a la informàtica i l'emmagatzematge. Això només augmentarà amb futures actualitzacions de maquinari de l'accelerador, un escenari que requerirà grans quantitats de recursos coordinats per executar les anàlisis HEP. L'estratègia principal per a càlculs tan complexos és, fins avui, enviar sol·licituds a sistemes de cues per lots connectats a la xarxa. Això té dos grans desavantatges per a l'usuari: manca d'interactivitat i temps de espera desconeguts. En anys més recents, altres camps de la recerca i la indústria han desenvolupat noves tècniques per abordar la tasca d'analitzar les quantitats cada vegada més grans de dades generades per humans (una tendència comunament esmentada com a "Big Data"). Per tant, han sorgit noves interfícies i models de programació que mostren la interactivitat com a característica clau i permeten l'ús de grans recursos informàtics. A la llum de l'escenari descrit anteriorment, aquesta tesi té com a objectiu aprofitar les eines i les arquitectures de la indústria d'avantguarda per accelerar els fluxos de treball d'anàlisi a HEP, i proporcionar una interfície de programació que permet la paral·lelització automàtica, tant en una sola màquina com en un conjunt de recursos distribuïts. Se centra en els models de programació moderns i com fer el millor ús dels recursos de maquinari disponibles alhora que proporciona una experiència d'usuari perfecta. La tesi també proposa una solució informàtica distribuïda moderna per a l'anàlisi de dades HEP, fent ús del programari anomenat ROOT i, en particular, de la seva capa d'anàlisi de dades anomenada RDataFrame. S'exploren algunes àrees clau de recerca sobre aquesta proposta. Des del punt de vista de l'usuari, això es detalla en forma duna nova interfície que es pot executar en un ordinador portàtil o en milers de nodes informàtics, sense canvis en l'aplicació de l'usuari. Aquest desenvolupament obre la porta a l'explotació de recursos distribuïts a través de motors d'execució estàndard de la indústria que poden escalar a múltiples nodes en clústers HPC o HTC, o fins i tot en ofertes serverless de núvols comercials. Atès que sovint l'anàlisi de dades en aquest camp està limitada per E/S, cal comprendre quins són els possibles mecanismes d'emmagatzematge en memòria cau. En aquest sentit, es va investigar un nou sistema d'emmagatzematge basat en la tecnologia d'emmagatzematge d'objectes com a objectiu per a la memòria cau. En conclusió, el futur de l'anàlisi de dades a HEP presenta reptes des de diverses perspectives, des de l'explotació de recursos informàtics i d'emmagatzematge distribuïts fins al disseny d'interfícies d'usuari ergonòmiques. Els marcs de programari han d'apuntar a l'eficiència i la facilitat d'ús, desvinculant la definició dels càlculs físics dels detalls d'implementació de la seva execució. Aquesta tesi s'emmarca en l'esforç col·lectiu de la comunitat HEP cap a aquests objectius, definint problemes i possibles solucions que poden ser adoptades per futurs investigadors. / [EN] The scientific research in High Energy Physics (HEP) is characterised by complex computational challenges, which over the decades had to be addressed by researching computing techniques in parallel to the advances in understanding physics. One of the main actors in the field, CERN, hosts both the Large Hadron Collider (LHC) and thousands of researchers yearly who are devoted to collecting and processing the huge amounts of data generated by the particle accelerator. This has historically provided a fertile ground for distributed computing techniques, which led to the creation of the Worldwide LHC Computing Grid (WLCG), a global network providing large computing power for all the experiments revolving around the LHC and the HEP field. Data generated by the LHC so far has already posed challenges for computing and storage. This is only going to increase with future hardware updates of the accelerator, which will bring a scenario that will require large amounts of coordinated resources to run the workflows of HEP analyses. The main strategy for such complex computations is, still to this day, submitting applications to batch queueing systems connected to the grid and wait for the final result to arrive. This has two great disadvantages from the user's perspective: no interactivity and unknown waiting times. In more recent years, other fields of research and industry have developed new techniques to address the task of analysing the ever increasing large amounts of human-generated data (a trend commonly mentioned as "Big Data"). Thus, new programming interfaces and models have arised that most often showcase interactivity as one key feature while also allowing the usage of large computational resources. In light of the scenario described above, this thesis aims at leveraging cutting-edge industry tools and architectures to speed up analysis workflows in High Energy Physics, while providing a programming interface that enables automatic parallelisation, both on a single machine and on a set of distributed resources. It focuses on modern programming models and on how to make best use of the available hardware resources while providing a seamless user experience. The thesis also proposes a modern distributed computing solution to the HEP data analysis, making use of the established software framework called ROOT and in particular of its data analysis layer implemented with the RDataFrame class. A few key research areas that revolved around this proposal are explored. From the user's point of view, this is detailed in the form of a new interface to data analysis that is able to run on a laptop or on thousands of computing nodes, with no change in the user application. This development opens the door to exploiting distributed resources via industry standard execution engines that can scale to multiple nodes on HPC or HTC clusters, or even on serverless offerings of commercial clouds. Since data analysis in this field is often I/O bound, a good comprehension of what are the possible caching mechanisms is needed. In this regard, a novel storage system based on object store technology was researched as a target for caching. In conclusion, the future of data analysis in High Energy Physics presents challenges from various perspectives, from the exploitation of distributed computing and storage resources to the design of ergonomic user interfaces. Software frameworks should aim at efficiency and ease of use, decoupling as much as possible the definition of the physics computations from the implementation details of their execution. This thesis is framed in the collective effort of the HEP community towards these goals, defining problems and possible solutions that can be adopted by future researchers. / Padulano, VE. (2023). Distributed Computing Solutions for High Energy Physics Interactive Data Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193104
394

Effect of Wall Shear Stress on Corrosion Inhibitor Film Performance

Canto Maya, Christian M. January 2015 (has links)
No description available.
395

Coupled-Cluster in Real Space

Kottmann, Jakob Siegfried 24 August 2018 (has links)
In dieser Arbeit werden Algorithmen für die Berechnung elektronischer Korrelations- und Anregungsenergien mittels der Coupled-Cluster Methode auf adaptiven Gittern entwickelt und implementiert. Die jeweiligen Funktionen und Operatoren werden adaptiv durch Multiskalenanalyse dargestellt, was eine Basissatz unabängige Beschreibung mit kontrollierter numerischer Genauigkeit ermöglicht. Gleichungen für die Coupled-Cluster Methode werden in einem verallgemeinerten Rahmen, unabhängig von virtuellen Orbitalen und globalen Basissätzen, neu formuliert. Hierzu werden die amplitudengewichteten Anregungen in virtuelle Orbitale ersetzt durch Anregungen in n-Elektronenfunktionen, welche durch Gleichungen im n-Elektronen Ortsraum bestimmt sind. Die erhaltenen Gleichungen können, analog zur Basissatz abh¨angigen Form, mit leicht angepasster Interpretation diagrammatisch dargestellt werden. Aufgrund des singulären Coulomb Potentials werden die Arbeitsgleichungen mit einem explizit korrelierten Ansatz regularisiert. Coupled-Cluster singles mit genäherten doubles (CC2) und ähnliche Modelle werden, für geschlossenschalige Systeme und in regularisierter Form, in die MADNESS Bibliothek (eine allgemeine Bibliothek zur Darstellung von Funktionen und Operatoren mittels Multiskalenanalyse) implementiert. Mit der vorgestellten Methode können elektronische CC2 Paarkorrelationsenergien und Anregungsenergien mit bestimmter numerischer Genauigkeit unabhängig von globalen Basissätzen berechnet werden, was anhand von kleinen Molekülen verifiziert wird / In this work algorithms for the computation of electronic correlation and excitation energies with the Coupled-Cluster method on adaptive grids are developed and implemented. The corresponding functions and operators are adaptively represented with multiresolution analysis allowing a basis-set independent description with controlled numerical accuracy. Equations for the coupled-cluster model are reformulated in a generalized framework independent of virtual orbitals and global basis-sets. For this, the amplitude weighted excitations into virtuals are replaced by excitations into n-electron functions which are determined by projected equations in the n-electron position space. The resulting equations can be represented diagrammatically analogous to basis-set dependent approaches with slightly adjusted rules of interpretation. Due to the singular Coulomb potential, the working equations are regularized with an explicitly correlated ansatz. Coupled-cluster singles with approximate doubles (CC2) and similar models are implemented for closed-shell systems and in regularized form into the MADNESS library (a general library for the representation of functions and operators with multiresolution analysis). With the presented approach electronic CC2 pair-correlation energies and excitation energies can be computed with definite numerical accuracy and without dependence on global basis sets, which is verified on small molecules.
396

Gestion optimisée d'un modèle d'agrégation de flexibilités diffuses / Optimized management of a distributed demand response aggregation model

Prelle, Thomas 22 September 2014 (has links)
Le souhait d’augmenter la part des énergies renouvelables dans le mix énergétique entraine une augmentation des parts des énergies volatiles et non pilotables, et rend donc l’équilibre offre-demande difficile à satisfaire. Une façon d’intégrer ces énergies dans le réseau électrique actuel est d’utiliser de petits moyens de production, de consommation et de stockage répartis sur tout le territoire pour compenser les sous ou sur productions. Afin que ces procédés puissent être intégrés dans le processus d’équilibre offre-demande, ils sont regroupés au sein d’une centrale virtuelle d’agrégation de flexibilité, qui est vue alors comme une centrale virtuelle. Comme pour tout autre moyen de production du réseau, il est nécessaire de déterminer son plan de production. Nous proposons dans un premier temps dans cette thèse une architecture et un mode de gestion pour une centrale d’agrégation composée de n’importe quel type de procédés. Dans un second temps, nous présentons des algorithmes permettant de calculer le plan de production des différents types de procédés respectant toutes leurs contraintes de fonctionnement. Et enfin, nous proposons des approches pour calculer le plan de production de la centrale d’agrégation dans le but de maximiser son gain financier en respectant les contraintes réseau. / The desire to increase the share of renewable energies in the energy mix leads to an increase inshare of volatile and non-controllable energy and makes it difficult to meet the supply-demand balance. A solution to manage anyway theses energies in the current electrical grid is to deploy new energy storage and demand response systems across the country to counter balance under or over production. In order to integrate all these energies systems to the supply and demand balance process, there are gathered together within a virtual flexibility aggregation power plant which is then seen as a virtual power plant. As for any other power plant, it is necessary to compute its production plan. Firstly, we propose in this PhD thesis an architecture and management method for an aggregation power plant composed of any type of energies systems. Then, we propose algorithms to compute the production plan of any types of energy systems satisfying all theirs constraints. Finally, we propose an approach to compute the production plan of the aggregation power plant in order to maximize its financial profit while complying with all the constraints of the grid.
397

A proteção do meio ambiente sobre a perspectiva das fontes alternativas de energia

Riquelme, Daniela Maria 03 December 2008 (has links)
Made available in DSpace on 2016-04-26T20:28:20Z (GMT). No. of bitstreams: 1 Daniela Maria Riquelme.pdf: 3664410 bytes, checksum: f671a6b4378f17885fbd022301cd8f41 (MD5) Previous issue date: 2008-12-03 / This present work has the intention to present the environment as a diffuse good belonging to an undetermined plurality of subjects, which are undividable in relation to its holders and their protection is responsibility of Public Power and also the collectivity. Therefore, when we deal with sustainable energy consumption, which is in the present case the alternative energy sources, we are preserving the current environment for us and for the future generations, respecting ourselves as citizens and the legal norms / A presente dissertação pretende demonstrar que o meio ambiente é um bem difuso pertencente a uma pluralidade indeterminada de sujeitos, indivisíveis em relação aos seus titulares e cuja defesa incumbe tanto ao Poder Público quanto a coletividade. Desta forma, quando nos preocupamos com o consumo consciente da energia, no caso presente das fontes alternativas de energia, estamos cuidando do meio em que vivemos, tanto para nós quanto para as futuras gerações respeitando, assim, nós mesmos como cidadãos e, as normas legais
398

NACHHALTIGE NUTZUNG VON ERNEUERBAREN ENERGIEN – UNTERNEHMERISCHES INVESTITIONSVERHALTEN UND VERTRAGSGESTALTUNG / SUSTAINABLE USE OF RENEWABLE ENERGY - ENTREPRENEURIAL INVESTMENT BEHAVIOR AND CONTRACT DESIGN

Reise, Christian 31 May 2012 (has links)
No description available.
399

Die internationale Pionierphase der Windenergienutzung / The international pioneer phase of wind power use

Neukirch, Mario 28 October 2009 (has links)
No description available.
400

Quelle place pour les aides aux technologies de réduction d'émissions en présence d'un prix du carbone? Le cas du secteur électrique

Lecuyer, Oskar 29 November 2013 (has links) (PDF)
Cette thèse étudie les conditions d'efficacité d'un portefeuille de politiques pour réduire les émissions de gaz à effet de serre du secteur électrique. Il est montré qu'en présence d'incertitude, le prix du carbone issu d'un marché de permis d'émissions peut ne pas entraîner suffisamment de réductions d'émission, justifiant l'ajout d'une politique au marché de permis, par exemple une subvention renouvelable. Dans le cadre d'une transition vers une production électrique décarbonée, l'accumulation du capital électrique génère des effets dynamiques complexes. Il est montré que l'utilisation naïve du signal-prix du carbone ou de critères statiques pour évaluer les investissements peut alors conduire à un sous-investissement en capital vert. L'effet d'une modification à la marge du portefeuille de politiques actuel est également étudié. Il est montré en particulier que si on suppose une seule technologie de production fossile à taux d'émission constant, contrainte par un plafond d'émissions - donc toutes les réductions d'émissions proviennent des renouvelables - augmenter à la marge le tarif d'achat renouvelable réduit le prix de l'électricité perçu par le consommateur, et ce paradoxalement même si la taxe à la consommation nécessaire pour financer le tarif augmente. Cette thèse réalise enfin une évaluation qualitative du portefeuille actuel de politiques climat-énergie en France. Cet examen montre que les multiples défaillances du prix du carbone justifient l'utilisation d'une combinaison de politiques, même si le portefeuille cible varie en fonction des hypothèses sur les trajectoires du prix du carbone.

Page generated in 0.0506 seconds