• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 14
  • 2
  • Tagged with
  • 54
  • 22
  • 22
  • 19
  • 16
  • 15
  • 14
  • 13
  • 13
  • 13
  • 12
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Application des outils du traitement du signal a la commande des machines tournantes

Hilairet, Mickaël 09 November 2001 (has links) (PDF)
Notre travail a porté sur l'application des filtres de Kalman et des estimateurs fréquentiels pour l'estimation de la vitesse des machines électriques. La finalité de cette approche est la maîtrise du coût algorithmique des algorithmes de commande avec ou sans capteur mécanique.<br /><br />La mise en œuvre d'un filtre de Kalman estimant le flux et la vitesse des machines asynchrones est généralement effectuée dans sa formulation matricielle, excessivement gourmande en temps de calcul. Pour cette raison, nous avons modifié la méthode de conception de ce filtre étendu, que nous avons nommé filtre de Kalman à état virtuel. La réduction très importante du coût algorithmique de ce nouveau filtre justifie son application dans les variateurs de vitesse de faible puissance où le coût de revient des cartes électroniques est conséquent. Il est également possible de conserver les équations traditionnelles du filtrage de Kalman tout en réduisant la complexité algorithmique. Pour cela, nous avons appliqué le filtrage de Kalman à deux niveaux et à deux périodes d'échantillonnage pour l'estimation de la vitesse mécanique.<br /><br />Nous avons également optimisé le réglage des paramètres du filtre de Kalman. La dynamique de l'estimateur est réglée en fonction de la dynamique des grandeurs régulées, des bruits de mesure et des incertitudes paramétriques. Ce réglage permet de rendre l'estimateur robuste aux variations paramétriques et d'éviter des instabilités lorsque les estimations sont incluses dans les boucles de régulation (pour les systèmes non-linéaires).<br /><br />Pour ne pas être soumis aux incertitudes paramétriques du moteur, le contenu spectral des courants statoriques consommés peut être analysé grâce à des estimateurs de vitesse à faible coût algorithmique. Les résultats expérimentaux obtenus avec une machine à courant continu et une machine asynchrone montrent que l'estimation de la vitesse est excellente en régime permanent. Cependant, les fonctionnements à basse vitesse et la capacité de poursuite ne sont pas aussi performants que ceux d'estimateurs construits à partir du modèle dynamique de la machine. L'interconnexion de deux estimateurs complémentaires, un estimateur fréquentiel et un estimateur basé sur le modèle dynamique, a été mise en œuvre pour palier aux inconvénients de chacun. Cette stratégie de pilotage a été testée expérimentalement avec succès pour une commande sans capteur mécanique d'une machine à courant continu.
42

Etude d'un multiplexeur hyperfréquence planaire ultra-compact pour les futures architectures de systèmes RF

Cadiou, Stephane 02 December 2010 (has links) (PDF)
Ces travaux de thèse se situent dans le domaine du multiplexage hyperfréquence pour les systèmes de télécommunication de Guerre Électronique. Ils s'inscrivent dans le cadre d'une étude portant sur la miniaturisation des solutions actuelles de multiplexage visant à réduire l'encombrement et donc le coût de fabrication de ce type de dispositifs Radar. L'objectif est donc de proposer une alternative aux technologies et architectures classiques de multiplexeurs qui, bien que performantes, pâtissent d'un encombrement et d'un poids prohibitifs pour les systèmes aéroportés du futur. Le multiplexage en fréquence permet un découpage d'un spectre électromagnétique en un certain nombre de bandes de fréquence (canaux) dont le nombre, la largeur et l'espacement dépendent de l'application visée. L'objectif de ces travaux est donc d'étudier la faisabilité d'un multiplexeur en technologie planaire, découpant la bande 2-18GHz en 16 canaux contigus. L'enjeu de cette étude concerne autant l'architecture globale du composant que le choix de la topologie des différents filtres qui le composent, afin de respecter un cahier des charges très contraignant en termes de performances électriques ou d'encombrement. La connexion et la cohabitation des différents filtres au sein du multiplexeur est également un paramètre critique de l'étude, et nécessite une attention particulière. Nous proposons ici un découpage en fréquence singulier impliquant l'utilisation d'une architecture originale de multiplexeur utilisant divers composants passifs tels qu'un diviseur de puissance de type Wilkinson, des duplexeurs ou encore plusieurs quadriplexeurs (banques de quatre filtres). Ces travaux ont donc été divisés en sous-blocs dont nous prouvons, pour chacun d'eux, la faisabilité en technologie planaire. Les duplexeurs utilisent une topologie originale dite " flèche " dont nous développons la synthèse et les quadriplexeurs HF sont basés sur la topologie DBR développée au laboratoire. Les quadripexeurs BF sont, quant à eux, basés sur différentes topologies large bande (interdigitée, à stubs CO ou CC). La validité de l'architecture globale proposée est également avérée. Au cours de cette thèse, divers outils d'aide à la conception des circuits hyperfréquences complexes ont été développés afin de simplifier au maximum le flot de conception classique et donc de diminuer les temps de réglage. Plusieurs réalisations et de nombreuses simulations électromagnétiques viennent étayer les résultats et confirmer l'acuité des outils utilisés.
43

Modélisation, analyse et commande des grands systèmes électriques interconnectés

Mallem, Badis 15 November 2010 (has links) (PDF)
Cette thèse porte sur la modélisation, la réduction et la commande des grands systèmes électriques.En terme de modélisation et de réduction, l'objectif principal est de développer une méthode de réduction des modèles dynamiques des systèmes électriques. Cette réduction a pour objet de répondre à une situation particulière dans laquelle toutes les données du système à réduire ne sont pas connues.En terme de commande, l'objectif est la conception de commandes robustes coordonnées pour répondre aux nouvelles contraintes des grands systèmes électriques. Ces approches doivent respecter trois niveaux de coordination et deux nouvelles contraintes. Les trois niveaux de coordination concernent la prise en compte simultanée des oscillations électromécaniques interzones et locaux, la coordination de la synthèse de régulateurs pour plusieurs alternateurs, et la coordination du réglage des paramètres (gains et constantes de temps) des régulateurs de tension (les boucles stabilisatrices PSS) avec le réglage des paramètres des régulateurs de turbine des alternateurs. Les contraintes sont liées à la stabilité et la robustesse des régulateurs proposés.
44

Gammes et cotation pour le réglage des machines-outils de décolletage

Goldschmidt, Ephraim 28 January 2009 (has links) (PDF)
Les moyens de production ont subi de fortes évolutions techniques durant les dernières décennies. La tendance actuelle est de minimiser le nombre de remise en position de la pièce au cours de sa réalisation de façon à gagner en temps de cycle et en précision. Le métier du décolletage, lui, est fortement soumis à cette problématique pour répondre à des cadences de production et des exigences clients de plus en plus élevées. On constate malheureusement, que les outils méthodiques et logiciels n'ont pas suivi cette même évolution et que l'industrialisation de pièces de complexité croissante pose problème. Il existe pourtant des méthodes d'industrialisation que l'on pourrait qualifier "d'académiques". On remarque cependant que ces dernières ont été conçues pour l'usinage conventionnel à partir de lopins de matière mais ne prévoient pas l'usinage à partir de barres, qui est la caractéristique du décolletage. La méthode des flux présentée dans ces travaux répond à cette problématique en fournissant une démarche systématique aux préparateurs méthodes, leurs permettant de définir le séquençage des opérations de fabrication en un nombre minimal d'étapes et donc d'arrêts machines. Pour cela, nous proposons une description formelle du processus de fabrication, l'organisant en postes, prisesde- pièces et opérations de fabrication. Nous proposons ensuite d'organiser les opérations de fabrication en étapes, destinées, soit au réglage initial ou régulier des machines, soit à la surveillance en production. Le fait de créer une gamme de réglage distincte de la gamme de surveillance nous paraît essentielle et est en accord avec le fait que le réglage et la surveillance des machines sont souvent effectués par deux personnes différentes, en l'occurrence, un régleur et un opérateur. Pour chacune des gammes, nous déterminons un jeu de cotes de fabrication par une approche novatrice appelée les chaînes de cotes à incertitudes de mesure minimales. Nous proposons d'adjoindre à ce jeu de cotes de fabrication, un nouveau jeu de cotes que nous appelons les cotes pilotes. Ces dernières correspondent aux paramètres sur lesquels peut agir le régleur pour corriger les écarts mesurés sur les cotes de fabrication. Une fiche de calcul est générée pour les régleurs donnant les corrections à effectuer sur les cotes pilotes en fonction des écarts mesurés sur les cotes de fabrication pour chaque étape de réglage ou de surveillance. Des expérimentations sur des cas industriels ont permis de valider notre approche qui a ensuite été implémentée dans le logiciel d'industrialisation Copilot Proä . Ce travail de recherche s'est inscrit dans le cadre d'une collaboration entre le laboratoire SYMME de l'Université de Savoie et le Centre Technique de l'Industrie du Décolletage et fait partie de programme "Tolérancement et Qualité des produits" du Pôle de Compétitivité Arve-Industries Haute-Savoie Mont-Blanc.
45

Optimisation par métaheuristique adaptative distribuée en environnement de calcul parallèle / Optimization by adaptive distributed heuristics in parallel computing environment

Jankee, Christopher 31 August 2018 (has links)
Pour résoudre des problèmes d'optimisation discret de type boîte noire, de nombreux algorithmes stochastiques tels que les algorithmes évolutionnaires ou les métaheuristiques existent et se révèlent particulièrement efficaces selon le problème à résoudre. En fonction des propriétés observées du problème, choisir l'algorithme le plus pertinent est un problème difficile. Dans le cadre original des environnements de calcul parallèle et distribué, nous proposons et analysons différentes stratégies adaptative de sélection d'algorithme d'optimisation. Ces stratégies de sélection reposent sur des méthodes d'apprentissage automatique par renforcement, issu du domaine de l'intelligence artificielle, et sur un partage d'information entre les noeuds de calcul. Nous comparons et analysons les stratégies de sélection dans différentes situations. Deux types d'environnement de calcul distribué synchrone sont abordés : le modèle en île et le modèle maître-esclave. Sur l'ensemble des noeuds de manière synchrone à chaque itération la stratégie de sélection adaptative choisit un algorithme selon l'état de la recherche de la solution. Dans une première partie, deux problèmes OneMax et NK, l'un unimodal et l'autre multimodal, sont utilisés comme banc d'essai de ces travaux. Ensuite, pour mieux saisir et améliorer la conception des stratégies de sélection adaptatives, nous proposons une modélisation du problème d'optimisation et de son opérateur de recherche locale. Dans cette modélisation, une caractéristique importante est le gain moyen d'un opérateur en fonction de la fitness de la solution candidate. Le modèle est utilisé dans le cadre synchrone du modèle maître-esclave. Une stratégie de sélection se décompose en trois composantes principales : l'agrégation des récompenses échangées, la technique d'apprentissage et la répartition des algorithmes sur les noeuds de calcul. Dans une dernière partie, nous étudions trois scénarios et nous donnons des clés de compréhension sur l'utilisation pertinente des stratégies de sélection adaptative par rapport aux stratégies naïves. Dans le cadre du modèle maître-esclave, nous étudions les différentes façons d'agréger les récompenses sur le noeud maître, la répartition des algorithmes d'optimisation sur les noeuds de calcul et le temps de communication. Cette thèse se termine par des perspectives pour le domaine de l'optimisation stochastique adaptative distribuée. / To solve discrete optimization problems of black box type, many stochastic algorithms such as evolutionary algorithms or metaheuristics exist and prove to be particularly effective according to the problem to be solved. Depending on the observed properties of the problem, choosing the most relevant algorithm is a difficult problem. In the original framework of parallel and distributed computing environments, we propose and analyze different adaptive optimization algorithm selection strategies. These selection strategies are based on reinforcement learning methods automatic, from the field of artificial intelligence, and on information sharing between computing nodes. We compare and analyze selection strategies in different situations. Two types of synchronous distributed computing environment are discussed : the island model and the master-slave model. On the set of nodes synchronously at each iteration, the adaptive selection strategy chooses an algorithm according to the state of the search for the solution. In the first part, two problems OneMax and NK, one unimodal and the other multimodal, are used as benchmarks for this work. Then, to better understand and improve the design of adaptive selection strategies, we propose a modeling of the optimization problem and its local search operator. In this modeling, an important characteristic is the average gain of an operator according to the fitness of the candidate solution. The model is used in the synchronous framework of the master-slave model. A selection strategy is broken down into three main components : the aggregation of the rewards exchanged, the learning scheme and the distribution of the algorithms on the computing nodes. In the final part, we study three scenarios, and we give keys to understanding the relevant use of adaptive selection strategies over naïve strategies. In the framework of the master-slave model, we study the different ways of aggregating the rewards on the master node, the distribution of the optimization algorithms of the nodes of computation and the time of communication. This thesis ends with perspectives in the field of distributed adaptive stochastic optimization.
46

Optimisation des réseaux : réseau actif et flexible / Networks optimization : active and flexible network

Touré, Sellé 20 October 2014 (has links)
Le Système Électrique est soumis ces dernières années à plusieurs évolutions, depuis la dérégulationdu marché d'énergie à l'intégration de plus en plus importante de Générateurs Dispersés (GED). Ainsi,dans le cadre du concept de Smart Grid, les nouvelles technologies de l'information et de lacommunication (NTIC) offrent de nouvelles perspectives pour la gestion et l'exploitation des réseauxde distribution.Dans ce contexte, de nouveaux outils sont étudiés. Encore appelés Fonctions Avancéesd’Automatisation (FAA), le but principal de ces outils est d’utiliser tous les composants du réseau dedistribution de manière coordonnée en vue de les rendre plus actifs, flexibles et d’augmenter leurefficacité opérationnelle. Dans notre cas, nous avons étudié les fonctions associées à la reconfigurationen régime normal, du réglage de la tension et l’hybridation de ces deux derniers, tout en tenant comptede la présence des GED. En partant du comportement physique inhérent aux composants du réseau,plusieurs modèles ont été proposés. Certains sont tirés de la théorie des graphes et d’autres sur l’outilpuissant de la reformulation mathématique pour « convexifier » nos modèles. Cette modélisationadoptée répond à la fois à la nécessité de prendre en compte tous les moyens de réglages qui peuventêtre discrets (prises des transformateurs avec régleurs en charge ou des gradins de condensateurs),binaires (état de connectivité des composants) et continues (puissance réactive de la DG) et par lechoix des outils et des algorithmes d'optimisation mixte. En effet, la complexité de ces problèmes sonttelles que nous avons exploré à la fois des algorithmes méta-heuristiques (ACF : Algorithme desColonies de Fourmis) que déterministes (Décomposition de Benders Généralisée, Algorithme duBranch and Cut). / The Electric Power System is undergoing a lot of evolutions in recent years, including the energymarket deregulation and the increasing integration of Dispersed Generators (DG). Therefore, withinthe framework of Smart Grid concept, the New Information and Communication Technologies (NICT)provide new perspectives to manage and operate distribution networks.In this context, new tools, called Advanced Distribution Automation functions (ADA, are beingstudied). The main objective of these tools is to use all the distribution network components in acoordinated manner to make them more active and flexible, in addition to increasing their operationalefficiency. In our case, we studied the functions associated with the reconfiguration problem, thevoltage control problem and the hybridization of these two, while taking into account the presence ofthe DG. Based on the inherent components of network physical models, several models have beenproposed. Some are derived from the graph theory and others use powerful mathematicalreformulation to make our models convex. The adopted models answer to the necessity of taking intoaccount all regulation means, which can be discrete (On Load Tap-Changer and capacitor banks),binary (components connectivity such as lines or transformers) and continuous (DG reactive power ),and by the choice of tools and algorithms of mixed optimization. Indeed, the complexity of theseproblems is such that we have explored both algorithms: meta-heuristic (ACA, Ant Colony Algorithm)and deterministic (Generalized Benders Decomposition, Branch and Cut Algorithm).
47

Coordination des moyens de réglage de la tension à l'interface réseau de distribution et de transport; et évolution du réglage temps réel de la tension dans les réseaux de distribution. / Joint TSO-DSO voltage and reactive power control at the HV/MV systems interface and development of real-time volt var control of distribution networks.

Morin, Juliette 17 November 2016 (has links)
Le réglage de la tension et la gestion de la puissance réactive est d’une importance capitale pour le bon fonctionnement du système électrique. Les réseaux de distribution connaissent des modifications profondes qui sont tant techniques avec l’insertion de la production décentralisée ou l’enfouissement des lignes aériennes, que réglementaires avec l’entrée en vigueur des codes de réseaux Européens. Aussi, des alternatives aux réglages traditionnels de tension et la mise en place de contrôle des échanges de puissance réactive à l’interface réseau de transport/distribution peuvent être développées. Dans le cadre de ces travaux de doctorat, une solution basée sur l’amélioration du réglage temps réel des réseaux de distribution ainsi que la mise en place d’une gestion conjointe de la puissance réactive entre les gestionnaires du réseau de transport et distribution a été proposée. Ce réglage temps réel est basé sur une méthode de commande prédictive, et s’appuie notamment sur le régleur en charge ou les productions décentralisées pour réaliser un réglage de la tension au sein d’un réseau de distribution et contrôler les échanges de puissance réactive. Les références de puissance réactive à atteindre à l’interface entre réseau de distribution et de transport sont déterminées par le gestionnaire du réseau de transport pour ses propres besoins et en connaissance des réserves de puissance réactive disponible depuis les réseaux de distribution. Par rapport à la littérature, notre démarche a pour originalité de prendre en compte les problèmes à l’interface des réseaux de distribution et de transport et démontre l’intérêt de mener des études conjointes entre gestionnaires / Voltage and reactive power control are of paramount importance to ensure safe and reliable operation of the power system. Distribution grids are undergoing major changes, namely the insertion of distributed generation and the replacement of overhead lines. Along with these physical evolutions, new distribution networks should comply with the requirements of the European Grid Codes on the reactive power exchange at the HV/MV interface. To handle these new operational concerns, alternative solutions to the traditional voltage and reactive power control can be found. In our work, a scheme based on the evolution of the real-time Volt Var Control (VVC) of distribution networks and a joint coordination for the reactive power management of a HV system has been proposed. The real-time VVC of MV grids is based on a predictive control method. This control uses in a coordinated manner the on load tap changer, the distributed generation and the capacitor banks to enforce a suitable MV voltage profile and an appropriate HV/MV reactive power exchange. The reactive power targets at the HV/MV interface are determined by the Transmission System Operator for its own requirements but considering the true MV reactive power reserve. Compared to the literature, the novelty of our approach consists in considering the concerns at the HV/MV system interface. Next our works have shown the relevance of performing joint transmission and distribution system operators analysis.
48

Ultrasonic Generator for Surgical Applications and Non-invasive Cancer Treatment by High Intensity Focused Ultrasound / Générateur d'ultrasons pour les applications chirurgicales et le traitement non-invasif du cancer par High Intensity Focused Ultrasound

Wang, Xusheng 11 February 2016 (has links)
La technique de haute intensité ultrasons focalisés (HIFU) est maintenant largement utilisée pour le traitement du cancer, grâce à son avantage non-invasif. Dans un système de HIFU, une matrice de transducteurs à ultrasons est pilotée en phase pour produire un faisceau focalisé d'ultrasons (1M ~ 10 MHz) dans une petite zone de l'emplacement de la cible sur le cancer dans le corps. La plupart des systèmes HIFU sont guidées par imagerie par résonance magnétique (IRM) dans de nos jours. Dans cette étude de doctorat, un amplificateur de puissance de classe D en demi-pont et un système d'accord automatique d'impédance sont proposés. Tous deux circuits proposés sont compatibles avec le système IRM. L'amplificateur de puissance proposé a été réalisé par un circuit imprimé (PCB) avec des composants discrets. Selon les résultats du test, il a rendement de conversion en puissance de 82% pour une puissance de sortie conçue de 1,25W à une fréquence de travail de 3MHz. Le système d'accord automatique d'impédance proposé a été conçu en deux versions: une version en PCB et une version en circuit intégré (IC). Contrairement aux systèmes d'accord automatique proposés dans la littérature, il n'y a pas besoin de l'unité de microcontrôleur (MCU) ou de l'ordinateur dans la conception proposée. D'ailleurs, sans l'aide de composants magnétiques volumineux, ce système d'auto-réglage est entièrement compatible avec l'équipement IRM. La version en PCB a été conçue pour vérifier le principe du système proposé, et il est également utilisé pour guider à la conception du circuit intégré. La réalisation en PCB occupe une surface de 110cm². Les résultats des tests ont confirmé la performance attendue. Le système d'auto-tuning proposé peut parfaitement annuler l'impédance imaginaire du transducteur, et il peut également compenser l'impédance de la dérive causée par les variations inévitables (variation de température, dispersion technique, etc.). La conception du système d'auto-réglage en circuit intégré a été réalisé avec une technologie CMOS (C35B4C3) fournies par Austrian Micro Systems (AMS). La surface occupée par le circuit intégré est seulement de 0,42mm². Le circuit intégré conçu est capable de fonctionner à une large gamme de fréquence tout en conservant une consommation d'énergie très faible (137 mW). D'après les résultats de la simulation, le rendement de puissance de ce circuit peut être amélioré jusqu'à 20% comparant à celui utilisant le réseau d'accord statique. / High intensity focused ultrasound (HIFU) technology is now broadly used for cancer treatment, thanks to its non-invasive property. In a HIFU system, a phased array of ultrasonic transducers is utilized to generate a focused beam of ultrasound (1M~10MHz) into a small area of the cancer target within the body. Most HIFU systems are guided by magnetic resonance imaging (MRI) in nowadays. In this PhD study, a half-bridge class D power amplifier and an automatic impedance tuning system are proposed. Both the class D power amplifier and the auto-tuning system are compatible with MRI system. The proposed power amplifier is implemented by a printed circuit board (PCB) circuit with discrete components. According to the test results, it has a power efficiency of 82% designed for an output power of 3W at 1.25 MHz working frequency. The proposed automatic impedance tuning system has been designed in two versions: a PCB version and an integrated circuit (IC) version. Unlike the typical auto-impedance tuning networks, there is no need of microprogrammed control unit (MCU) or computer in the proposed design. Besides, without using bulky magnetic components, this auto-tuning system is completely compatible with MRI equipment. The PCB version was designed to verify the principle of the proposed automatic impedance tuning system, and it is also used to help the design of the integrated circuit. The PCB realization occupies a surface of 110cm². The test results confirmed the expected performance. The proposed auto-tuning system can perfectly cancel the imaginary impedance of the transducer, and it can also compensate the impedance drifting caused by unavoidable variations (temperature variation, technical dispersion, etc.). The IC design of the auto-tuning system is realized in a CMOS process (C35B4C3) provided by Austrian Micro Systems (AMS). The die area of the integrated circuit is only 0.42mm². This circuit design can provide a wide working frequency range while keeping a very low power consumption (137 mW). According to the simulation results, the power efficiency can be improved can up to 20% by using this auto-tuning circuit compared with that using the static tuning network.
49

Crowdtuning : towards practical and reproducible auto-tuning via crowdsourcing and predictive analytics / Crowdtuning : towards practical and reproducible auto-tuning via crowdsourcing and predictive analytict

Memon, Abdul Wahid 17 June 2016 (has links)
Le réglage des heuristiques d'optimisation de compilateur pour de multiples cibles ou implémentations d’une même architecture est devenu complexe. De plus, ce problème est généralement traité de façon ad-hoc et consomme beaucoup de temps sans être nécessairement reproductible. Enfin, des erreurs de choix de paramétrage d’heuristiques sont fréquentes en raison du grand nombre de possibilités d’optimisation et des interactions complexes entre tous les composants matériels et logiciels. La prise en compte de multiples exigences, comme la performance, la consommation d'énergie, la taille de code, la fiabilité et le coût, peut aussi nécessiter la gestion de plusieurs solutions candidates. La compilation itérative avec profil d’exécution (profiling feedback), le réglage automatique (auto tuning) et l'apprentissage automatique ont montré un grand potentiel pour résoudre ces problèmes. Par exemple, nous les avons utilisés avec succès pour concevoir le premier compilateur qui utilise l'apprentissage pour l'optimisation automatique de code. Il s'agit du compilateur Milepost GCC, qui apprend automatiquement les meilleures optimisations pour plusieurs programmes, données et architectures en se basant sur les caractéristiques statiques et dynamiques du programme. Malheureusement, son utilisation en pratique, a été très limitée par le temps d'apprentissage très long et le manque de benchmarks et de données représentatives. De plus, les modèles d'apprentissage «boîte noire» ne pouvaient pas représenter de façon pertinente les corrélations entre les caractéristiques des programme ou architectures et les meilleures optimisations. Dans cette thèse, nous présentons une nouvelle méthodologie et un nouvel écosystème d’outils(framework) sous la nomination Collective Mind (cM). L’objectif est de permettre à la communauté de partager les différents benchmarks, données d’entrée, compilateurs, outils et autres objets tout en formalisant et facilitant la contribution participative aux boucles d’apprentissage. Une contrainte est la reproductibilité des expérimentations pour l’ensemble des utilisateurs et plateformes. Notre cadre de travail open-source et notre dépôt (repository) public permettent de rendre le réglage automatique et l'apprentissage d’optimisations praticable. De plus, cM permet à la communauté de valider les résultats, les comportements inattendus et les modèles conduisant à de mauvaises prédictions. cM permet aussi de fournir des informations utiles pour l'amélioration et la personnalisation des modules de réglage automatique et d'apprentissage ainsi que pour l'amélioration des modèles de prévision et l'identification des éléments manquants. Notre analyse et évaluation du cadre de travail proposé montre qu'il peut effectivement exposer, isoler et identifier de façon collaborative les principales caractéristiques qui contribuent à la précision de la prédiction du modèle. En même temps, la formalisation du réglage automatique et de l'apprentissage nous permettent d'appliquer en permanence des techniques standards de réduction de complexité. Ceci permet de se contenter d'un ensemble minimal d'optimisations pertinentes ainsi que de benchmarks et de données d’entrée réellement représentatifs. Nous avons publié la plupart des résultats expérimentaux, des benchmarks et des données d’entrée à l'adresse http://c-mind.org tout en validant nos techniques dans le projet EU FP6 Milepost et durant un stage de thèse HiPEAC avec STMicroelectronics. / Tuning general compiler optimization heuristics or optimizing software for rapidly evolving hardware has become intolerably complex, ad-hoc, time consuming and error prone due to enormous number of available design and optimization choices, complex interactions between all software and hardware components, and multiple strict requirements placed on performance, power consumption, size, reliability and cost. Iterative feedback-directed compilation, auto-tuning and machine learning have been showing a high potential to solve above problems. For example, we successfully used them to enable the world's first machine learning based self-tuning compiler, Milepost GCC, which automatically learns the best optimizations across multiple programs, data sets and architectures based on static and dynamic program features. Unfortunately, its practical use was very limited by very long training times and lack of representative benchmarks and data sets. Furthermore, "black box" machine learning models alone could not get full insight into correlations between features and best optimizations. In this thesis, we present the first to our knowledge methodology and framework, called Collective Mind (cM), to let the community share various benchmarks, data sets, compilers, tools and other artifacts while formalizing and crowdsourcing optimization and learning in reproducible way across many users (platforms). Our open-source framework and public optimization repository helps make auto-tuning and machine learning practical. Furthermore, cM let the community validate optimization results, share unexpected run-time behavior or model mispredictions, provide useful feedback for improvement, customize common auto-tuning and learning modules, improve predictive models and find missing features. Our analysis and evaluation of the proposed framework demonstrates that it can effectively expose, isolate and collaboratively identify the key features that contribute to the model prediction accuracy. At the same time, formalization of auto-tuning and machine learning allows us to continuously apply standard complexity reduction techniques to leave a minimal set of influential optimizations and relevant features as well as truly representative benchmarks and data sets. We released most of the experimental results, benchmarks and data sets at http://c-mind.org while validating our techniques in the EU FP6 MILEPOST project and during HiPEAC internship at STMicroelectronics.
50

Valorisation des services système sur un réseau de transport d'électricité en environnement concurrentiel

Hennebel, Martin 05 February 2009 (has links) (PDF)
Dans le cadre de l'ouverture des marchés de l'électricité à la concurrence, de nouvelles règles doivent régir les relations entre producteur et transporteur d'électricité pour ce qui concerne les services au système tels que la fourniture de puissance réactive. Xu, Kundur et da Silva ont développé une méthode permettant d'évaluer le service rendu, et donc la valeur, d'un MVAr fourni par un générateur en calculant le nombre de MVAr qui doivent être fournis aux nœuds de charge pour maintenir leur tension lorsque le générateur réduit sa production. Nous avons amélioré cette méthode en optimisant l'emplacement et en minimisant la capacité de moyens de compensation permettant de remplacer la production réactive d'un générateur tout en maintenant la tension de chaque nœud dans sa plage acceptable. De plus les capacités de production réactives disponibles auprès d'autres générateurs sont mises à contribution, ce qui permet de prendre en compte la pénurie ou l'abondance de capacités de production. Cette méthode a été appliquée sur un réseau à deux nœuds, puis sur un réseau de test IEEE à 118 nœuds et enfin sur une partie du réseau électrique français. Les résultats obtenus permettent de valoriser chaque MVAr généré en fonction de la localisation du générateur sur le réseau, de l'état de charge du réseau, de la disponibilité des autres producteurs et du niveau de production du générateur. Ainsi les premiers MVAr fournis par un générateur sont difficilement remplaçables par des moyens de compensation et ont donc une valeur plus grande que les derniers qui eux sont facilement remplaçables.

Page generated in 0.0513 seconds