• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 2
  • Tagged with
  • 10
  • 10
  • 6
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse thermo-économique d'un système de dessalement par thermocompression de vapeur et conception de l'éjecteur

Samaké, Oumar January 2016 (has links)
L’objectif de cette thèse est de présenter les travaux d’une analyse thermo-économique d’un système de dessalement par distillation dans l’optique de revaloriser les pertes thermiques industrielles. Les rejets en question sont ceux d’un moteur Diesel utilisé dans une centrale de production d’électricité. Premièrement, une étude préliminaire est faite en utilisant un modèle boite noire. L’optimisation des fonctions objectives de ce modèle a permis de déterminer les paramètres de conception. Ensuite un nouveau modèle d’éjecteur distinct des deux modèles classiques utilisés en thermodynamique (à pression et à section constante) est développé. Les performances des procédés de détente et de compression dans cet éjecteur sont calculées en appliquant un rendement polytropique comme dans les turbomachines. La méthode développée a permis de déterminer toutes les dimensions de l’éjecteur ainsi que la position de l’onde de choc. Enfin une analyse détaillée du système de dessalement est faite pour déterminer le nombre d’effets ou cellules et les conditions qui permettent de satisfaire les conditions optimales obtenues lors de l’analyse préliminaire. L’analyse thermodynamique se base sur un tout nouveau modèle mathématique qui permet de simuler à la fois les deux configurations les plus utilisées en dessalement. De plus, une analyse thermo-économique basée sur l’exergo-économie a permis de calculer le coût de production et les investissements nécessaires.
2

Studies on Stochastic Optimisation and applications to the Real-World / Contributions à l'Optimisation Stochastique et Applications au Monde-Réel

Berthier, Vincent 29 September 2017 (has links)
Un grand nombre d'études ont été faites dans le domaine de l'Optimisation Stochastique en général et les Algorithmes Génétiques en particulier. L'essentiel des nouveaux développements ou des améliorations faites sont alors testés sur des jeux de tests très connus tels que BBOB, CEC, etc. conçus de telle manière que soient présents les principaux défis que les optimiseurs doivent relever : non séparabilité, multimodalité, des vallées où le gradient est quasi-nul, et ainsi de suite. La plupart des études ainsi faites se déroulent via une application directe sur le jeu de test, optimisant un nombre donné de variables pour atteindre un critère précis. La première contribution de ce travail consiste à étudier l'impact de la remise en cause de ce fonctionnement par deux moyens : le premier repose sur l'introduction d'un grand nombre de variables qui n'ont pas d'impact sur la valeur de la fonction optimisée ; le second quant à lui relève de l'étude des conséquences du mauvais conditionnement d'une fonction en grande dimension sur les performances des algorithmes d'optimisation stochastique. Une deuxième contribution se situe dans l'étude de l'impact de la modification des mutations de l'algorithme CMA-ES,où, au lieu d'utiliser des mutations purement aléatoires, nous allons utiliser des mutations quasi-aléatoires. Ce travail introduit également la ``Sieves Method'', bien connue des statisticiens. Avec cette méthode, nous commençons par optimiser un faible nombre de variables, nombre qui est ensuite graduellement incrémenté au fil de l'optimisation.Bien que les jeux de tests existants sont bien sûr très utiles, ils ne peuvent constituer que la première étape : dans la plupart des cas, les jeux de tests sont constitués d'un ensemble de fonctions purement mathématiques, des plus simples comme la sphère, aux plus complexes. Le but de la conception d'un nouvel optimiseur, ou l'amélioration d'un optimiseur existant, doit pourtant in fine être de répondre à des problèmes du monde réel. Ce peut-être par exemple la conception d'un moteur plus efficace, d'identifier les bons paramètres d'un modèle physique ou encore d'organiser des données en groupes.Les optimiseurs stochastiques sont bien évidemment utilisés sur de tels problèmes, mais dans la plupart des cas, un optimiseur est choisi arbitrairement puis appliqué au problème considéré. Nous savons comment les optimiseurs se comparent les uns par rapport aux autres sur des fonctions artificielles, mais peu de travaux portent sur leur efficacité sur des problèmes réels. L'un des principaux aspects de des travaux présentés ici consiste à étudier le comportement des optimiseurs les plus utilisés dans la littérature sur des problèmes inspirés du monde réel, voire des problèmes qui en viennent directement. Sur ces problèmes, les effets des mutations quasi-aléatoires de CMA-ES et de la``Sieves Method'' sont en outre étudiés. / A lot of research is being done on Stochastic Optimisation in general and Genetic Algorithms in particular. Most of the new developments are then tested on well know testbeds like BBOB, CEC, etc. conceived to exhibit as many pitfalls as possible such as non-separability, multi-modality, valleys with an almost null gradient and so on. Most studies done on such testbeds are pretty straightforward, optimising a given number of variables for there cognized criterion on the testbed. The first contribution made here is to study the impact of some changes in those assumptions, namely the effect of supernumerary variables that don't change anything to a function evaluation on the one hand, and the effect of a change of the studied criterion on the other hand. A second contribution is in the modification of the mutation design for the algorithm CMA-ES, where we will use Quasi-Random mutations instead of purely random ones. This will almost always result in a very clear improvement ofthe observed results. This research also introduces the Sieves Method well known in statistics, to stochastic optimisers: by first optimising a small subset of the variables and gradually increasing the number of variables during the optimization process, we observe on some problems a very clear improvement. While artificial testbeds are of course really useful, they can only be the first step: in almost every case, the testbeds are a collection of purely mathematical functions, from the simplest one like the sphere, to some really complex functions. The goal of the design of new optimisers or the improvement of an existing one is however, in fine, to answer some real world question. It can be the design of a more efficient engine, finding the correct parameters of a physical model or even to organize data in clusters. Stochastic optimisers are used on those problems, in research or industry, but in most instances, an optimiser ischosen almost arbitrarily. We know how optimisers compare on artificial functions, but almost nothing is known abouttheir performances on real world problems. One of the main aspect of the research exposed here will be to compare someof the most used optimisers in the literature on problems inspired or directly coming from the real-world. On those problems, we will additionally test the efficiency of quasi-random mutations in CMA-ES and the Sieves-Method.
3

Interopérabilité sur les standards Modelica et composant logiciel pour la simulation énergétique des sytèmes de bâtiment

Gaaloul, Sana 18 October 2012 (has links) (PDF)
Pour mieux maîtriser ses flux énergétiques et respecter les diverses restrictions mises en place dans ce secteur énergivore, le bâtiment devient un système de plus en plus complexe incluant divers technologies innovantes comme les systèmes de gestion énergétiques (SGEB), une isolation performante et intégrant les énergies renouvelables. Cette complexité exige un changement dans les techniques et paradigmes actuels de simulation du bâtiment pour la prise en compte de ses diverses évolutions. Une modélisation globale des différents composants de ce système et une simulation efficace de ses sous-systèmes hétérogènes doivent être dorénavant assurées.Ces objectifs ne pourront être atteints qu'à travers l'exploitation des approches méthodologiques d'interopérabilité. Plusieurs solutions d'interopérabilités ont été exploitées dans le secteur du bâtiment. L'état de l'art dans ce secteur, met l'accent sur le manque de standardisation des solutions appliquées. Une approche boîte blanche se basant sur le langage Modelica a remarquablement émergée. Pour monter ses intérêts ainsi que ses limites, cette solution est adoptée pour la modélisation du système de bâtiment "PREDIS", à haute performance énergétique. Une approche boîte noire complémentaire, s'appuyant sur le standard de composant logiciel dédié à la simulation, est également mise en ouvre pour palier aux difficultés rencontrées en utilisant la première approche de modélisation système. Cette approche s'articule autour du concept de bus à composants permettant une interopérabilité effective entre outils de modélisation et environnements de simulation. En plus de l'architecture logicielle autour de la plateforme d'interopérabilité, une simulation efficace du système hétérogène requière des techniques de simulations adaptées. Ces dernières peuvent exiger des adaptations des modèles utilisés qui sont prévues par la norme de composant.
4

Interopérabilité basée sur les standards Modelica et composant logiciel pour la simulation énergétique des systèmes de bâtiment

Gaaloul, Sana 18 October 2012 (has links) (PDF)
Pour mieux maîtriser ses flux énergétiques et respecter les diverses restrictions mises en place dans ce secteur énergivore, le bâtiment devient un système de plus en plus complexe incluant divers technologies innovantes comme les systèmes de gestion énergétiques (SGEB), une isolation performante et intégrant les énergies renouvelables. Cette complexité exige un changement dans les techniques et paradigmes actuels de simulation du bâtiment pour la prise en compte de ses diverses évolutions. Une modélisation globale des différents composants de ce système et une simulation efficace de ses sous-systèmes hétérogènes doivent être dorénavant assurées. Ces objectifs ne pourront être atteints qu'à travers l'exploitation des approches méthodologiques d'interopérabilité. Plusieurs solutions d'interopérabilités ont été exploitées dans le secteur du bâtiment. L'état de l'art dans ce secteur, met l'accent sur le manque de standardisation des solutions appliquées. Une approche boîte blanche se basant sur le langage Modelica a remarquablement émergée. Pour monter ses intérêts ainsi que ses limites, cette solution est adoptée pour la modélisation du système de bâtiment "PREDIS", à haute performance énergétique. Une approche boîte noire complémentaire, s'appuyant sur le standard de composant logiciel dédié à la simulation, est également mise en ouvre pour palier aux difficultés rencontrées en utilisant la première approche de modélisation système. Cette approche s'articule autour du concept de bus à composants permettant une interopérabilité effective entre outils de modélisation et environnements de simulation. En plus de l'architecture logicielle autour de la plateforme d'interopérabilité, une simulation efficace du système hétérogène requière des techniques de simulations adaptées. Ces dernières peuvent exiger des adaptations des modèles utilisés qui sont prévues par la norme de composant.
5

Développement de modèles de bâtiment pour la prévision de charge de climatisation et l'élaboration de stratégies d'optimisation énergétique et d'effacement

Berthou, Thomas 16 December 2013 (has links) (PDF)
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d'optimisation énergétique et d'effacement. Cette thèse compare plusieurs architectures de modèles inverses (" boite noire ", " boite grise "). Un modèle semi-physique d'ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d'interpréter des situations inédites (effacement), absentes de la phase d'apprentissage. Trois stratégies d'optimisation énergétique et d'effacement adaptées aux contraintes d'exploitation sont étudiées. La première permet d'optimiser la relance en chauffage afin de réduire la consommation et d'atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l'énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s'effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L'étude montre qu'il est possible de prévoir la puissance électrique et la température moyenne d'un bâtiment complexe avec un modèle mono-zone ; elle permet d'évaluer les stratégies développées et d'identifier les limites du modèle.
6

Développement de modèles de bâtiment pour la prévision de charge de climatisation et l’élaboration de stratégies d’optimisation énergétique et d’effacement / Development of building models for load curve forecast and design of energy optimization and load shedding strategies

Berthou, Thomas 16 December 2013 (has links)
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d’optimisation énergétique et d’effacement. Cette thèse compare plusieurs architectures de modèles inverses (« boite noire », « boite grise »). Un modèle semi-physique d’ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d’interpréter des situations inédites (effacement), absentes de la phase d’apprentissage. Trois stratégies d’optimisation énergétique et d’effacement adaptées aux contraintes d’exploitation sont étudiées. La première permet d’optimiser la relance en chauffage afin de réduire la consommation et d’atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l’énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s’effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L’étude montre qu’il est possible de prévoir la puissance électrique et la température moyenne d’un bâtiment complexe avec un modèle mono-zone ; elle permet d’évaluer les stratégies développées et d’identifier les limites du modèle. / To reach the objectives of reducing the energy consumption and increasing the flexibility of buildings energy demand, it is necessary to have load forecast models easy to adapt on site and efficient for the implementation of energy optimization and load shedding strategies. This thesis compares several inverse model architectures ("black box", "grey box"). A 2nd order semi-physical model (R6C2) has been selected to forecast load curves and the average indoor temperature for heating and cooling. It is also able to simulate unknown situations (load shedding), absent from the learning phase. Three energy optimization and load shedding strategies adapted to operational constraints are studied. The first one optimizes the night set-back to reduce consumption and to reach the comfort temperature in the morning. The second strategy optimizes the set-point temperatures during a day in the context of variable energy prices, thus reducing the energy bill. The third strategy allows load curtailment in buildings by limiting load while meeting specified comfort criteria. The R6C2 model and strategies have been faced with a real building (elementary school). The study shows that it is possible to forecast the electrical power and the average temperature of a complex building with a single-zone model; the developed strategies are assessed and the limitations of the model are identified.
7

Applications de la théorie de l'information à l'apprentissage statistique / Applications of Information Theory to Machine Learning

Bensadon, Jérémy 02 February 2016 (has links)
On considère ici deux sujets différents, en utilisant des idées issues de la théorie de l'information : 1) Context Tree Weighting est un algorithme de compression de texte qui calcule exactement une prédiction Bayésienne qui considère tous les modèles markoviens visibles : on construit un "arbre de contextes", dont les nœuds profonds correspondent aux modèles complexes, et la prédiction est calculée récursivement à partir des feuilles. On étend cette idée à un contexte plus général qui comprend également l'estimation de densité et la régression, puis on montre qu'il est intéressant de remplacer les mixtures Bayésiennes par du "switch", ce qui revient à considérer a priori des suites de modèles plutôt que de simples modèles. 2) Information Geometric Optimization (IGO) est un cadre général permettant de décrire plusieurs algorithmes d'optimisation boîte noire, par exemple CMA-ES et xNES. On transforme le problème initial en un problème d'optimisation d'une fonction lisse sur une variété Riemannienne, ce qui permet d'obtenir une équation différentielle du premier ordre invariante par reparamétrage. En pratique, il faut discrétiser cette équation, et l'invariance n'est plus valable qu'au premier ordre. On définit l'algorithme IGO géodésique (GIGO), qui utilise la structure de variété Riemannienne mentionnée ci-dessus pour obtenir un algorithme totalement invariant par reparamétrage. Grâce au théorème de Noether, on obtient facilement une équation différentielle du premier ordre satisfaite par les géodésiques de la variété statistique des gaussiennes, ce qui permet d'implémenter GIGO. On montre enfin que xNES et GIGO sont différents dans le cas général, mais qu'il est possible de définir un nouvel algorithme presque invariant par reparamétrage, GIGO par blocs, qui correspond exactement à xNES dans le cas Gaussien. / We study two different topics, using insight from information theory in both cases: 1) Context Tree Weighting is a text compression algorithm that efficiently computes the Bayesian combination of all visible Markov models: we build a "context tree", with deeper nodes corresponding to more complex models, and the mixture is computed recursively, starting with the leaves. We extend this idea to a more general context, also encompassing density estimation and regression; and we investigate the benefits of replacing regular Bayesian inference with switch distributions, which put a prior on sequences of models instead of models. 2) Information Geometric Optimization (IGO) is a general framework for black box optimization that recovers several state of the art algorithms, such as CMA-ES and xNES. The initial problem is transferred to a Riemannian manifold, yielding parametrization-invariant first order differential equation. However, since in practice, time is discretized, this invariance only holds up to first order. We introduce the Geodesic IGO (GIGO) update, which uses this Riemannian manifold structure to define a fully parametrization invariant algorithm. Thanks to Noether's theorem, we obtain a first order differential equation satisfied by the geodesics of the statistical manifold of Gaussians, thus allowing to compute the corresponding GIGO update. Finally, we show that while GIGO and xNES are different in general, it is possible to define a new "almost parametrization-invariant" algorithm, Blockwise GIGO, that recovers xNES from abstract principles.
8

Practical and Foundational Aspects of Secure Computation

Ranellucci, Samuel 02 1900 (has links)
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication . / There are seemingly impossible problems to solve without a trusted third-party. How can two millionaires learn who is the richest when neither is willing to tell the other how rich he is? How can satellite collisions be prevented when the trajectories are secret? How can researchers establish correlations between diseases and medication while respecting patient confidentiality? How can an organization insure that the government does not abuse the knowledge that it possesses even though such an organization would be unable to control that information? Secure computation, a branch of cryptography, is a eld that studies how to generate protocols for realizing such tasks without the use of a trusted third party. There are certain goals that such protocols should achieve. The rst concern is privacy: players should learn no more information than what a trusted third party would give them. The second main goal is correctness: players should only receive what a trusted third party would give them. The protocols should also be efficient. Another important property is robustness, the protocols should not abort even if a small set of players is cheating. Secure computation has four basic building blocks : Oblivious Transfer, secret sharing, commitment schemes, and garbled circuits. Protocols can be built based only on these building blocks or alternatively, they can be constructed from specific computational assumptions. Protocols constructed solely from these primitives are flexible and are not as vulnerable to technological or algorithmic improvements. Many protocols are nevertheless based on computational assumptions. It is important to ask if efficiency requires computational assumptions. We show that this is not the case by building efficient protocols from these primitives. It is the conclusion of this thesis that building protocols from black-box primitives can also lead to e cient protocols. This thesis is a collection of four articles written in collaboration with other researchers. This constitutes the mature part of my investigation and is my main contributions to the field during that period of time. In the first work presented in this thesis we study the commitment capacity of noisy channels. We first show a tight lower bound that implies that in contrast to Oblivious Transfer, there exists no constant rate protocol for bit commitments. We then demonstrate that by restricting the way the commitments can be opened, we can achieve better efficiency and in particular cases, a constant rate. This is done by exploiting the notion of cover-free families. In the second article, we show that for certain problems, there exists a trade-off between robustness, correctness and privacy. This is done by using verifiable secret sharing, zero-knowledge, the concept of ghosts and a technique which we call \balls and bins". In our third contribution, we show that many protocols in the literature based on specific computational assumptions can be instantiated from a primitive known as Verifiable Oblivious Transfer, via the concept of Generalized Oblivious Transfer. The protocol uses secret sharing as its foundation. In the last included publication, we construct a constant-round protocol for secure two-party computation that is very efficient and only uses black-box primitives. The remarkable efficiency of the protocol is achieved by replacing the core of a standard protocol by a faulty but very efficient primitive. The fault is then dealt with by a non-trivial use of privacy amplification.
9

Interopérabilité sur les standards Modelica et composant logiciel pour la simulation énergétique des sytèmes de bâtiment / Interoperability based on Modelica and software component standard for building system energy simulation

Gaaloul Chouikh, Sana 18 October 2012 (has links)
Pour mieux maîtriser ses flux énergétiques et respecter les diverses restrictions mises en place dans ce secteur énergivore, le bâtiment devient un système de plus en plus complexe incluant divers technologies innovantes comme les systèmes de gestion énergétiques (SGEB), une isolation performante et intégrant les énergies renouvelables. Cette complexité exige un changement dans les techniques et paradigmes actuels de simulation du bâtiment pour la prise en compte de ses diverses évolutions. Une modélisation globale des différents composants de ce système et une simulation efficace de ses sous-systèmes hétérogènes doivent être dorénavant assurées.Ces objectifs ne pourront être atteints qu'à travers l’exploitation des approches méthodologiques d’interopérabilité. Plusieurs solutions d’interopérabilités ont été exploitées dans le secteur du bâtiment. L’état de l’art dans ce secteur, met l’accent sur le manque de standardisation des solutions appliquées. Une approche boîte blanche se basant sur le langage Modelica a remarquablement émergée. Pour monter ses intérêts ainsi que ses limites, cette solution est adoptée pour la modélisation du système de bâtiment «PREDIS», à haute performance énergétique. Une approche boîte noire complémentaire, s’appuyant sur le standard de composant logiciel dédié à la simulation, est également mise en ouvre pour palier aux difficultés rencontrées en utilisant la première approche de modélisation système. Cette approche s’articule autour du concept de bus à composants permettant une interopérabilité effective entre outils de modélisation et environnements de simulation. En plus de l’architecture logicielle autour de la plateforme d’interopérabilité, une simulation efficace du système hétérogène requière des techniques de simulations adaptées. Ces dernières peuvent exiger des adaptations des modèles utilisés qui sont prévues par la norme de composant. / To better reduce its invoices, control its energy flows and respect various restrictions in this sector characterised by important consumption, the building becomes more and more complex including various innovative technologies such as Energy Management Systems (BEMS), efficient insulation and integrating renewable energies. This complexity requires a changing in building simulation techniques and paradigms in order to take into account its various developments. A global modelling of this system taking into account its various components and ensuring an efficient simulation of its heterogeneous subsystems must be performed.These objectives can only be achieved through the use of interoperability methodological approaches. Several interoperability solutions have been explored in the building sector and the state of the art make an accent on the standardization lack of applied solutions. A white box approach based on Modelica language has emerged in this area. To raise its interest and limitations, this solution is adopted for “PREDIS” system, a high energy performance building, modelling. A complementary black box approach, based on software component standard and dedicated for simulation is also applied to overcome the first approach difficulties. This approach is based on software component bus concept that is able to ensure an effective interoperability between modelling tools and simulation environments.In addition of the established software architecture around the platform interoperability, an efficient simulation of heterogeneous systems requires appropriate simulations techniques. These techniques may require several adaptations of used models that are provided by the component standard.
10

Contribution des technologies CPL et sans fil à la supervision des réseaux de distribution d'électricité / Contribution of PLC and wireless technologies to supervision of electric distribution networks

Lefort, Romain 03 February 2015 (has links)
Le déploiement d'une infrastructure de supervision permet une gestion plus intelligente des réseaux de distribution d'électricité comparé à un renforcement traditionnel pour répondre aux nouveaux enjeux de la maitrise de l'énergie (Consommations, EnR, VE, ...). Pour acheminer les données, les Courants Porteurs en Ligne (CPL) possèdent un atout majeur. En effet, cette technologie permet de superposer un signal de plus haute fréquence au signal électrique 50/60 Hz. Toutefois, le support de transmission est difficile et non maîtrisable. Ces travaux de recherche ont pour objectif d'apporter une contribution à cette problématique par l'élaboration d'une plateforme de simulation des réseaux pour des fréquences allant jusqu'à 1 MHz dans un but de transmission de données. Des éléments clés des réseaux sont traités de façon séparés puis assemblés pour estimer les performances des CPL « Outdoor » actuels. La variation du comportement des réseaux en fonction du temps et de la fréquence, en particulier des perturbations en tête d'installation clients sur 24h est étudiée. Les transformateurs entre les réseaux HTA et BT sont modélisés sous la forme d'un « modèle à constantes localisées » et d'un « modèle boite noire ». Les deux modèles sont appliqués sur un transformateur H61 100 kVA. Par la suite, une modélisation des câbles de distribution est proposée sous forme d'un « modèle cascadé ». Celle-ci est appliquée sur un câble souterrain BT. Chaque modèle est obtenu à l'aide de mesures d'impédances, et validé par des mesures de transmissions. Pour compléter, une étude préliminaire sur les communications radio mobile est réalisée pour la supervision des réseaux de distribution. / Establishing a supervisory infrastructure allows a better smart management than an expensive strengthening of distribution network to respond to new constraints at the energies control (Consumption, REN, EV ...). To transmit data, Power Line Communication (PLC) technologies present an advantage in this context. In fact, it enables a superposition of High Frequency (HF) signals on electrical signal 50/60 Hz. However, electric networks have not been developed to this application because of difficult propagation conditions. This research work makes a contribution to develop a simulation platform in objective to transmit data to 1 MHz. In first time, each network element is studied singly and in second time, together, to estimate "Outdoor PLC" transmission performance. The first element studied is the networks variation in function of frequency and time. Several 24h disturbance measurements on LV customers are presented. The second element is the transformers which established connection between Medium Voltage (MV) and Low Voltage (LV). The proposed modeling method is based on a "lumped model" and a "black box model". These models are applied to a 100 kVA H61 transformer most commonly used by French distribution system operator in rural and suburban networks. The third element is the power line used in MV and LV networks. The proposed modeling method is based on a "cascaded model" from the theory of transmission line. This model is applied to one power line used in LV underground network. Each model is obtained from various impedance measurements. To complete, an introductory study on mobile radio communication is performed to remote network distribution.

Page generated in 0.0579 seconds