• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 9
  • 5
  • Tagged with
  • 46
  • 46
  • 21
  • 20
  • 14
  • 14
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Détection et localisation de défauts dans les réseaux de distribution HTA<br />en présence de génération d'énergie dispersée

Pham, Cong Duc 19 September 2005 (has links) (PDF)
Ce travail de thèse a porté sur la détection et localisation de défauts dans les réseaux de distribution HTA par les<br />indicateurs de passage de défaut (IPD). Les études ont été effectuées dans le cadre du développement attendu et<br />croissant des GED (sources de Génération d'Energie Décentralisées).<br />La première partie du mémoire est consacrée à l'analyse du comportement des IPD. En ce qui concerne<br />l'influence du contexte de fonctionnement sur la réponse des IPD, une partie est destinée à vérifier le<br />fonctionnement des modèles IPD développés et les règles d'utilisation des IPD prévus. Une autre analyse<br />l'influence des GED sur l'utilisation des IPD sur la détection et localisation de défauts. Pour l'amélioration de la<br />robustesse du diagnostic avec IPD en présence de fausses indications, une méthode de détermination de la<br />section en défaut (limitée par des IPD) est proposée.<br />La deuxième partie du mémoire est consacrée à une méthode d'optimisation du placement des IPD dans les<br />réseaux HTA sur la base d'algorithmes génétiques. Nous avons défini différents critères pour l'optimisation ; ils<br />sont validés par un programme de calcul des indices de fiabilité. L'influence de la GED dans le départ HTA sur<br />le placement optimal des IPD est analysée en tenant compte du coût de l'énergie non fournie par la GED et du<br />fonctionnement envisageable comme un secours de la GED.
42

Modélisation et Commande de structures FACTS : (Flexible Alternative CUITent Transmission System) Application au STATCOM (STATic COMpensator)

Petitclair, Patrice 16 July 1997 (has links) (PDF)
Le problème de la maîtrise du transport de l'énergie électrique a donné naissance au projet FACTS (Flexible Alternative Current Transmission System ! Pour améliorer la flexibilité des réseaux de transport existants. Le ST A TCOM (ST ATic COMD*~ n s ator) est un dispositif FACTS dédié à la compensation d'énergie réactive transitant sur le réseau . L'évolution des composants d'électronique de puissance a apporté des solutions technologiques pour la réalisation des structures onduleurs du STATCOM. En tenant compte des diverses structures présentées, un modèle dynnamique est construit en utilisant la théorie du modèle moyen généralisé. Il est ensuite validé avec le modèle topologique, lequel décrit le comportement fin de l'onduleur. Afin d' avoir un contrôle robuste du courant réactif du dispositif, une loi de commande non linéaire est élaborée à partir de la théorie de la linéarisation par bouclage. La linéarisation est obtenue au détriment des comportements dynamiques du courant actif et de la tension continue de l' onduleur. Une optimisation de la loi de conunande est proposée afin de maîtriser le comportement dynamique de toutes les variables du dispositif. Cette loi de commal1de est validée sur le modèle topologique après avoir abordé le problème des filtres de mesure. La mise en place de la linéarisation par bouclage nécessite une connaissance des valeurs des composants de la structure. Une estimation ainsi qu'une correction de l'erreur commise sur ces grandeurs sont alors proposées. Le modèle du ST A TCOM avec ses lois de commande est ensuite inséré dans un logiciel destiné à l' étude du comportement dynamique de réseaux (EUROSTAG). A cet effet, le modèle mis au point prend en compte le comportement dynamique de la structure du ST A TCOM, et apporte une richesse supplémentaire pour l 'étude dynamique des réseaux. L'intérêt de la loi de commande optimisée est nus en évidence comparativement aux solutions classiques.
43

Optimisation des réseaux : réseau actif et flexible / Networks optimization : active and flexible network

Touré, Sellé 20 October 2014 (has links)
Le Système Électrique est soumis ces dernières années à plusieurs évolutions, depuis la dérégulationdu marché d'énergie à l'intégration de plus en plus importante de Générateurs Dispersés (GED). Ainsi,dans le cadre du concept de Smart Grid, les nouvelles technologies de l'information et de lacommunication (NTIC) offrent de nouvelles perspectives pour la gestion et l'exploitation des réseauxde distribution.Dans ce contexte, de nouveaux outils sont étudiés. Encore appelés Fonctions Avancéesd’Automatisation (FAA), le but principal de ces outils est d’utiliser tous les composants du réseau dedistribution de manière coordonnée en vue de les rendre plus actifs, flexibles et d’augmenter leurefficacité opérationnelle. Dans notre cas, nous avons étudié les fonctions associées à la reconfigurationen régime normal, du réglage de la tension et l’hybridation de ces deux derniers, tout en tenant comptede la présence des GED. En partant du comportement physique inhérent aux composants du réseau,plusieurs modèles ont été proposés. Certains sont tirés de la théorie des graphes et d’autres sur l’outilpuissant de la reformulation mathématique pour « convexifier » nos modèles. Cette modélisationadoptée répond à la fois à la nécessité de prendre en compte tous les moyens de réglages qui peuventêtre discrets (prises des transformateurs avec régleurs en charge ou des gradins de condensateurs),binaires (état de connectivité des composants) et continues (puissance réactive de la DG) et par lechoix des outils et des algorithmes d'optimisation mixte. En effet, la complexité de ces problèmes sonttelles que nous avons exploré à la fois des algorithmes méta-heuristiques (ACF : Algorithme desColonies de Fourmis) que déterministes (Décomposition de Benders Généralisée, Algorithme duBranch and Cut). / The Electric Power System is undergoing a lot of evolutions in recent years, including the energymarket deregulation and the increasing integration of Dispersed Generators (DG). Therefore, withinthe framework of Smart Grid concept, the New Information and Communication Technologies (NICT)provide new perspectives to manage and operate distribution networks.In this context, new tools, called Advanced Distribution Automation functions (ADA, are beingstudied). The main objective of these tools is to use all the distribution network components in acoordinated manner to make them more active and flexible, in addition to increasing their operationalefficiency. In our case, we studied the functions associated with the reconfiguration problem, thevoltage control problem and the hybridization of these two, while taking into account the presence ofthe DG. Based on the inherent components of network physical models, several models have beenproposed. Some are derived from the graph theory and others use powerful mathematicalreformulation to make our models convex. The adopted models answer to the necessity of taking intoaccount all regulation means, which can be discrete (On Load Tap-Changer and capacitor banks),binary (components connectivity such as lines or transformers) and continuous (DG reactive power ),and by the choice of tools and algorithms of mixed optimization. Indeed, the complexity of theseproblems is such that we have explored both algorithms: meta-heuristic (ACA, Ant Colony Algorithm)and deterministic (Generalized Benders Decomposition, Branch and Cut Algorithm).
44

Méthode de construction d’une offre d’effacement électrique basée sur les technologies gaz naturel : Application - micro-cogénération et chaudière hybride / Development methodology of electricity demand side management scheme with natural gas technologies

Vuillecard, Cyril 14 March 2013 (has links)
La thèse répond à deux problématiques, d'une part la quantification des effacements de consommation d'électricité par technologies gaz dans l'habitat et d'autre part de l'intégration de leurs valorisations dans une perspective de planification des infrastructures. Ces travaux se justifient dans un contexte d'augmentation de la pointe électrique, à l'origine d'une hausse du risque de défaillance du système, et de la baisse des consommations de gaz naturel conduisant à une sous utilisation du réseau de distribution. Pourtant, alors que la demande en gaz naturel croît du fait de l'installation de centrales à cycle combiné sur le réseau de transport, l'interaction des réseaux de distribution gaz/électricité n'est pas exploitée.Ce manuscrit envisage l'intégration des technologies gaz comme moyen de Maîtrise de la Demande en Électricité dans le processus de planification des réseaux. Ainsi les effacements de consommations d'électricité lors des périodes dimensionnantes par des micro-cogénérateurs ou des chaudières hybrides sont des solutions alternatives aux solutions de renforcement de réseaux.Pour quantifier le gisement d'effacement, nous nous intéressons à l'impact marginal des systèmes sur la demande en termes de modification de la quantité d'Énergie Non Distribuée potentielle. Les estimations des impacts de systèmes de chauffage sur la demande sont donc des prérequis à cette approche. Nous modélisons les courbes de charge régionales par une approche Bottom-Up permettant de déterminer les profils de demande marginale de chauffage en fonction des systèmes. La mise en application de cette méthode est à fiabiliser par des études socio-technico-économiques permettant de réduire les incertitudes sur les déterminants des besoins de chauffage. Une calibration en puissance des profils générés a été proposée mais n'a pu être réalisée. En revanche, nous apportons une contribution à l'analyse des courbes de charge agrégées en montrant que le modèle d'estimation actuellement utilisé par le gestionnaire de réseau s'apparente à un modèle simplifié de bâtiment / This PhD thesis addresses two issues: Firstly, the assessment of Demand Side Management (DSM) opportunity of gas and electricity technologies in dwellings, and secondly, the integration of their valuations in infrastructure planning schemes.This work originaites from a context of the growth of electricity peaks (which increased risk of system failure) and the natural gas consumption decrease which leads to an under-utilization of the gas distribution network.This manuscript focuses on the integration of gas technologies as DSM solution to contribute to the planning of electricity grid. Indeed, relieving the electricity consumption during constrained periods by diffusing micro-cogeneration or hybrid boiler, is an actual alternative to network reinforcement solutions. To quantify the load shedding capacity, we are interested in the marginal impact of demand systems on the amount of Energy Not Supplied potential. Estimating systems' impacts on heating demand is a prerequisite to this approach. So we model the regional heating load curves by a Bottom-Up approach to simulate marginal demand profiles depending on heating systems. The implementation of this method requires socio-technico-economic studies to reduce uncertainty of the determinants of heating needs. A load calibration methodology has been proposed but has not been performed. However, we make a contribution to the analysis of aggregated load curves emphasizing that the load model currently used by network operator similar to a simplified building model.
45

Équilibrage de charge et répartition de ressources dans les grands systèmes distribués

Leconte, Mathieu 18 December 2013 (has links) (PDF)
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
46

Optimisation de l'architecture des réseaux de distribution d'énergie électrique / Optimization of architecture of power distribution networks

Gladkikh, Egor 08 June 2015 (has links)
Pour faire face aux mutations du paysage énergétique, les réseaux de distribution d'électricité sont soumis à des exigences de fonctionnement avec des indices de fiabilité à garantir. Dans les années à venir, de grands investissements sont prévus pour la construction des réseaux électriques flexibles, cohérents et efficaces, basés sur de nouvelles architectures et des solutions techniques innovantes, adaptatifs à l'essor des énergies renouvelables. En prenant en compte ces besoins industriels sur le développement des réseaux de distribution du futur, nous proposons, dans cette thèse, une approche reposant sur la théorie des graphes et l'optimisation combinatoire pour la conception de nouvelles architectures pour les réseaux de distribution. Notre démarche consiste à étudier le problème général de recherche d'une architecture optimale qui respecte l'ensemble de contraintes topologiques (redondance) et électrotechniques (courant maximal, plan de tension) selon des critères d'optimisation bien précis : minimisation du coût d'exploitation (OPEX) et minimisation de l'investissement (CAPEX). Ainsi donc, les deux familles des problèmes combinatoires (et leurs relaxations) ont été explorées pour proposer des résolutions efficaces (exactes ou approchées) du problème de planification des réseaux de distribution en utilisant une formulation adaptée. Nous nous sommes intéressés particulièrement aux graphes 2-connexes et au problème de flot arborescent avec pertes quadratiques minimales. Les résultats comparatifs de tests sur les instances de réseaux (fictifs et réels) pour les méthodes proposées ont été présentés. / To cope with the changes in the energy landscape, electrical distribution networks are submitted to operational requirements in order to guarantee reliability indices. In the coming years, big investments are planned for the construction of flexible, consistent and effective electrical networks, based on the new architectures, innovative technical solutions and in response to the development of renewable energy. Taking into account the industrial needs of the development of future distribution networks, we propose in this thesis an approach based on the graph theory and combinatorial optimization for the design of new architectures for distribution networks. Our approach is to study the general problem of finding an optimal architecture which respects a set of topological (redundancy) and electrical (maximum current, voltage plan) constraints according to precise optimization criteria: minimization of operating cost (OPEX) and minimization of investment (CAPEX). Thus, the two families of combinatorial problems (and their relaxations) were explored to propose effective resolutions (exact or approximate) of the distribution network planning problem using an adapted formulation. We are particularly interested in 2-connected graphs and the arborescent flow problem with minimum quadratic losses. The comparative results of tests on the network instances (fictional and real) for the proposed methods were presented.

Page generated in 0.0788 seconds