141 |
Contribution à l'étude des courts-circuits interlaminaires dans les noyaux des transformateurs de puissance / A contribution to the study of interlaminar short circuits in power transformer coresSchulz, Carl 11 January 2010 (has links)
Le travail présenté dans cette thèse est centré sur l'étude des courts-circuits interlaminaires, dont la présence dans un noyau magnétique peut entraîner des pertes supplémentaires qui dégradent les performances du transformateur. L'étude suit deux axes principaux : premièrement, la détection des courts-circuits interlaminaires, et deuxièmement, leur modélisation. Le premier axe développe l'évaluation des possibilités de détection dans le but de fournir des outils qui permettent d'améliorer le processus de fabrication des transformateurs. Le deuxième axe concerne la modélisation du court-circuit, ayant pour l'objectif d'éclairer des mécanismes plus fondamentaux, ainsi que d'estimer les courants de court-circuit et les pertes associées dans les cas les plus défavorables. De nombreux courts-circuits artificiels ont été caractérisés de manière expérimentale. Une procédure a été mise en place qui permet de mesurer les courants de court-circuit à l’aide d’un enroulement de Rogowski miniaturisé, capable de faire la mesure du courant dans un contact interlaminaire en écartant très peu les tôles. Les expérimentations ont conduit à un modèle élémentaire du court-circuit basé sur un schéma équivalent de Thévenin. La variation de différents paramètres du court-circuit a permis de déduire des lois empiriques décrivant leur influence sur les éléments du schéma équivalent et ainsi d'observer l'impact de ces paramètres sur le courant de court-circuit et sur les pertes associées. / The research presented in this thesis focuses on the study of interlaminar short circuits, whose presence in a magnetic core can cause additional loss which will deteriorate the performance of the transformer. The study is carried out along two main axes: first, the detection of interlaminar short circuits, second, their modelling. The first axis evaluates the possibilities for detection, with the objective to provide tools which can help to optimise the manufacturing process of transformers. The second axis concerns the modelling of a short circuit, with a view to gain a deeper understanding of the mechanisms involved and also to enable an estimation of the worst-case short-circuit current and the worst-case power dissipation. Numerous artificial short circuits have been experimentally characterised. A procedure has been developed permitting the measurement of short-circuit currents by means of a miniaturised Rogowski coil, capable of measuring the current inside an interlaminar contact with a very small distance between the sheets. The experiments have led to an elementary model of the short circuit which is based on a Thévenin equivalent circuit. Variations of different parameters of the short circuit have permitted deducing empirical laws describing their influence on the elements of the equivalent circuit and thus to observe the impact of these parameters on the short-circuit current and the associated loss.
|
142 |
Dynamique de la qualité des masses d’eau dans le bassin Artois-Picardie : compréhension des mécanismes actuels et prévision des évolutions dans un contexte de changement climatique / Dynamics of river water quality in the Artois-Picardy basin : understanding of current mechanisms and forecasting changes in a context of climate changeBhurtun, Pratima 18 December 2018 (has links)
La Selle Rivière, cours d’eau non canalisé du bassin Artois-Picardie est considérée par l’Agence de l’Eau comme une masse d’eau prioritaire dont la qualité est à améliorer. L’objet de ce travail a été d’étudier le comportement spatio-temporel de plusieurs substances déclassantes ou non, avec des échelles de temps allant du prélèvement ponctuel à la mesure haute fréquence, en passant par des échantillonneurs passifs intégrateurs. Nous nous sommes intéressés à plusieurs traceurs de la contamination urbaine, agricole et industrielle, au travers des nitrates, des phosphates, des éléments traces métalliques, de certains produits phytosanitaires et pharmaceutiques, et de la matière organique dissoute. Dans un premier temps, nous avons confirmé que la Selle est principalement alimentée par les eaux souterraines riches en nitrates, avec des teneurs résiduelles en atrazine qui se retrouvent dans le cours d’eau à des concentrations similaires. Par ailleurs, le bassin versant étant très agricole dans sa partie amont et avec des ilots urbains plutôt localisé en aval, quelques pesticides et médicaments sont retrouvés à l’état d’ultra-traces par temps sec, et des teneurs en phosphates souvent supérieures à 0,2 mg L-1. Les métaux sont peu présents dans le cours d’eau malgré des teneurs pouvant être élevées en sortie de stations d’épuration (notamment Gd et Zn) car les débits des stations représentent des apports mineurs. La mesure haute fréquence a permis de préciser des problèmes de qualité d’eau par temps de pluie avec des lessivages de sols, et des pics importants mais limités dans le temps en phosphore et carbone organique alors que l’on observe une dilution des nitrates. La composition de la matière organique étudiée par spectroscopie de fluorescence a permis de caractériser la signature spectrale de différents types d’eau (souterraine, de surface et effluent de station d’épuration) et de différencier les apports allochtones des apports autochtones. Enfin, ces résultats permettent de discuter qualitativement les futurs effets du changement climatique à l’échelle régionale sur l’évolution de la qualité de la Selle Rivière. / The River Selle is a non-channelised stream in the Artois-Picardy basin and is considered as a priority waterbody by the Artois-Picardy Water Agency. The aim of this work was to study the spatio-temporal behaviour of several substances at different time scales, ranging from low-frequency (grab sampling, passive samplers) to high-frequency monitoring. More specifically, tracers of pollution reflecting urban, agricultural and industrial contamination (nitrates, phosphates, trace metal elements, pesticides, pharmaceutical residues, dissolved organic matter) were investigated. We confirmed that the River Selle is mainly fed by a nitrate-rich groundwater. Besides, the nitrates and atrazine concentrations in the river water were similar to those found in the groundwater. At the upstream of the river, the land-use is mainly dominated by agriculture whereas most of the urban islets are located at the downstream of the river. Consequently, during dry weather, ultra-trace concentrations of some pesticides and pharmaceutical residues were recorded and phosphate levels often exceeded 0.2 mg L-1. Due to the minor flow input of the wastewater treatment plants into the river, metallic contamination in the River Selle (particularly Gd and Zn) is quite low despite the high concentrations measured in wastewater effluents. Water quality issues during storm events were identified by high-frequency monitoring. Significant but time-limited peaks in phosphorus and organic carbon were observed, while nitrates were diluted. The composition of dissolved organic matter was studied by fluorescence spectroscopy. The spectral signature of different types of water (groundwater, surface water and wastewater effluents) was characterised as well as the origins of this organic matter (autochtonous vs allochthonous). Finally, these results enable to discuss qualitatively the future effects of climate change at a regional scale on the evolution of the water quality of the River Selle.
|
143 |
Acquisition multiparamétrique de signaux de décroissance radioactive pour la correction des défauts instrumentaux : application à la mesure de la durée de vie du 19Ne / Multiparametric acquisition of radioactive decay signals for instrumental defects correction. : application to the 19Ne lifetime measurementFontbonne, Cathy 01 February 2017 (has links)
L’objectif de cette thèse est de proposer une méthode de mesure précise d’une période radioactive de l’ordre de quelques secondes. L’acquisition numérique temps réel FASTER permet d’accéder aux caractéristiques physiques du signal induit par la détection de chaque désintégration lors de la décroissance radioactive. La sélection des données de comptage peut se faire par une analyse optimisée post-expérience. Ainsi, après avoir établi les facteurs d’influence de la mesure (variation d’empilements, de gain des tubes photomultiplicateurs, de la ligne de base électronique), il est possible, a posteriori, de calculer leur impact sur l’estimation de la période radioactive, et de choisir un seuil en énergie déposée, ainsi qu’un temps mort qui minimisent leurs influences. Cette thèse propose, par ailleurs, une méthode pour mesurer, puis compenser les variations de ses grandeurs. Cette méthode a été appliquée pour l’estimation de la période radioactive du 19Ne avec une incertitude relative de 1,2.10-4 : T1/2=17,2569(21) s. / The aim of this thesis is to propose a method for precise half-life measurements adapted to nuclides with half-lives of a few seconds. The FASTER real-time digital acquisition system gives access to the physical characteristics of the signal induced by the detection of each decay during the counting period following beam implantation. The selection of the counting data can be carried out by an optimized post-experimental offline analysis. Thus, after establishing the influence factors impacting the measurement (pile up, gain and base line fluctuations), we are able to estimate, a posteriori, their impact on the half-life estimation. This way, we can choose the deposited energy threshold and dead time in order to minimize their effect. This thesis also proposes a method for measuring and then compensating for influence factors variations. This method was applied to estimate the 19Ne half-life with a relative uncertainty of 1.2 10-4 leading to T1 / 2 = 17.2569 (21) s. This is the most precise measurement to date for this isotope.
|
144 |
De la précision dans la mesure du temps à la théorie de la gravitation universelle (1630-1740) / From time precision to the theory of universal gravitation (1630-1740)Morfouli, Meropi 12 December 2017 (has links)
La précision dans la mesure du temps est considérée par l’historiographie comme un élément qui a émergé simultanément avec la géométrisation des phénomènes naturels. Les savants du XVIIe siècle sont ainsi étudiés dans ce cadre comme des Philosophes Naturels qui considèrent comme seul argument fiable les résultats quantitatifs de mesure et de précision. Dans cette thèse nous avons étudié cette émergence, dans le cadre emblématique de la théorie gravitationnelle de Newton. Dans un premier temps nous avons défini la précision du temps comme un élément qui demande une amélioration constante par le biais des instruments. Nous avons ensuite découpé la connaissance scientifique en trois parties distinctes : la construction de la théorie, son application et la confirmation de cette dernière. Nous avons étudié la précision dans la mesure du temps et son rôle en tant qu’élément de validation dans les trois parties en mettant l’accent sur la première. Dans ce cadre d’étude nous avons démontré que la thèse couramment répandue dans l’historiographie jusqu’ici est problématique. La précision dans la mesure du temps n’a pas de relation de causalité directe avec la géométrisation de la nature. Son importance au sein des théories, au cas par cas, est évolutive et s’est pendant longtemps retrouvée cantonnée dans les aspects techniques du savoir avant de trouver en retour une place importante dans la théorie. L’étude des aspects techniques nous ont amené à l’exploration de documents liés à la détermination des longitudes en mer, et sa relation intrinsèque au développement du commerce entre continents. Dans ce cadre nous avons détaillé des aspects jusque là obscurs du « mesureur de temps » de Galilée, proposé par ce dernier comme un instrument de grande précision qui participe à la solution des longitudes. / Precision in time measurement is considered by historiography as an element that emerged simultaneously with the geometrization of natural phenomena. The scholars of the seventeenth century are therefore studied in this context as Natural Philosophers who consider as the only reliable argument the quantitative results of measurement and precision. In this thesis we have studied this emergence, in the emblematic framework of Newton's gravitational theory. At first we defined the accuracy of time as an element that requires constant improvement through the instruments. We then divided the scientific knowledge into three distinct parts: the construction of the theory, its application and the confirmation of the theory. We studied the accuracy (here as synonym of precision) in the measurement of time and its role as a validation element in all three parts with a focus on the former. In this framework of study we have shown that the thesis commonly used in historiography so far is problematic. Precision in the measurement of time has no direct causal relation with the geometrization of nature. Its importance in theories, on a case-by-case study, is evolutionary and has for a long time been confined to the technical aspects of knowledge before finding an important place in the theory. The study of technical aspects led us to explore documents related to the determination of longitudes at sea, and its intrinsic relationship to the development of trade between continents. In this context we have detailed previously unclear aspects of Galileo's "time measurer", proposed by the later as an instrument of great accuracy being part of the longitude solution.
|
145 |
Une approche pour l'estimation fiable des propriétés de la topologie de l'internet / An approach for a reliable estimation of the properties of the internet topologyRotenberg, Elie 08 January 2015 (has links)
Cette thèse propose une nouvelle approche pour estimer des propriétés de la topologie d’Internet. Contrairement aux approches historiques, qui se bases sur des données déclaratives très peu fiables, ou sur la lecture de cartes mesurées avec des outils de diagnostic, notre approche consiste à mettre au point des primitives de mesures très fiables, dont le fonctionnement, les hypothèses et les résultats sont bien définis formellement. Notre premier cas d’étude est celui de la distribution de degré de la topologie logique, ou L3. Nous utilisons l’outil traceroute dont nous étudions le fonctionnement, pour en déduire une primitive de mesure. Cette primitive de mesure, qui repose sur l’utilisation d’un ensemble de moniteurs distribué dans le réseau, permet d’obtenir une estimation du nombre de voisins dans la topologie logique, d’un routeur du cœur. Nous utilisons cette primitive vers un échantillon aléatoire de cibles, pour obtenir une estimation de la distribution de degré recherchée et établir les limites de cette approche. Notre deuxième cas d’étude est celui de la distribution de degré de la topologie physique, ou L2-L3. Nous utilisons l’outil UDP Ping, dont nous étudions le fonctionnement, pour en déduire une primitive de mesure. Elle est semblable à l’outil utilisé pour la topologie logique, mais repose sur des hypothèses bien plus clairement établies et vérifiées, et validée par des simulations très détaillées. Nous intégrons également au protocole de mesure, des garanties statistiques sur l’uniformité de l’échantillon de cibles, des routeurs du cœur, que nous mesurons. Nous obtenons une évaluation de la distribution de degré recherchée, d’une très grande fiabilité. Nous complétons ce cas d’étude par un travail complémentaire sur les tables de transmission des routeurs du cœur. Enfin, nous dressons un tableau assez large des perspectives qui s’ouvrent en se basant sur cette approche, par exemple en l’appliquant à d’autres types de réseaux (réseaux sociaux, etc.). / This thesis proposes a novel approach to reliably estimate properties of the Internet topology. Unlike historical approaches, based on declarative, hardly reliable data, or on readings from maps measured with diagnostic tools, our approach is to develop very reliable measure primitives, of which the operation, the hypotheses, and the results are well defined. Our first case study is the degree distribution of the logical topology, or L3. We use the traceroute tool, of which we study the operation, to derive a measurement primitive. This measurement primitive, which relies on using a distribution set of monitors over the network, allows us to get an estimation of the number of neighbors in L3 of a target core router. We use this primitive against a random sample of targets and obtain the sought distribution, and establish limits to this method. Our second case study is the degree distribution of the physical topology, or L2-L3. We use the UDP Ping tool, of which we study the operation, to derive a measurement primitive. It is alike the tool we used for the logical topology, but relies on much more clearly established and verified hypotheses, and is validated by very detailed simulations. We also include statistical guarantees of the sampling uniformity of the target core routers to the measurement protocol. We obtain an evaluation of the sought degree distribution, of an unprecedented reliability. We complete this case study by a complimentary study over the forwarding tables of the core routers. Finally, we picture the many perspectives opened by this approach, eg. By applying it to other types of networks (social networks, etc.).
|
146 |
Multimodal detection of stress : evaluation of the impact of several assessment strategies / Détection multimodale du stress : évaluation de l'impact de plusieurs stratégies de mesureAigrain, Jonathan 05 December 2016 (has links)
Il est maintenant largement accepté que le stress joue un rôle important dans les sociétés modernes. Le stress impacte en effet le corps et l'esprit à différents niveaux. De plus, le lien entre stress et maladie a été observé dans plusieurs études. Cependant, il n'y a pas encore de définition consensuelle du stress, et par conséquent il n'y a pas de manière consensuelle de le mesurer. Ainsi, bien que la qualité de la mesure joue un rôle majeur dans la réalisation de solutions robustes de détection du stress, les chercheurs doivent choisir une stratégie de mesure parmi un grand nombre de possibilités. Cette hétérogénéité impacte la validité des comparaisons faites entre les différentes solutions. Dans cette thèse, nous évaluons l'impact de plusieurs stratégies de mesure pour la détection du stress. Dans un premier temps, nous résumons comment différents domaines de recherche définissent et mesurent le stress. Nous décrivons ensuite comment nous avons collecté des données de sujets en situation stressante ainsi que plusieurs mesures du stress. Nous étudions également les liens entre ces différentes mesures. Par la suite, nous présentons les descripteurs comportementaux et physiologiques que nous avons extraits pour nos expériences. Enfin, nous présentons les résultats obtenus concernant l'impact des stratégies de mesure sur 1) la normalisation de données, 2) la performance des descripteurs pour la classification et 3) sur la conception d'algorithmes d'apprentissage automatique. De manière générale, nous défendons l'idée qu'il faut adopter une approche globale pour concevoir une solution de détection du stress. / It is now widely accepted that stress plays an important role in modern societies. It impacts the body and the mind at several levels and the association between stress and disease has been observed in several studies. However, there is no consensual definition of stress yet, and therefore there is no consensual way of assessing it either. Thus, although the quality of assessment is a key factor to build robust stress detection solutions, researchers have to choose among a wide variety of assessment strategies. This heterogeneity impacts the validity of comparing solutions among them. In this thesis, we evaluate the impact of several assessment strategies for stress detection. We first review how different fields of research define and assess stress. Then, we describe how we collected stress data along with multiple assessments. We also study the association between these assessments. We present the behavioural and physiological features that we extracted for our experiments. Finally, we present the results we obtained regarding the impact of assessment strategies on 1) data normalization, 2) feature classification performance and 3) on the design of machine learning algorithms. Overall, we argue that one has to take a global and comprehensive approach to design stress detection solutions.
|
147 |
Un environnement d'apprentissage technologique pour la compréhension du concept de mesure en sciences expérimentalesFournier, Frédéric January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
148 |
Prédiction du temps de réparation à la suite d'un accident automobile et optimisation en utilisant de l'information contextuellePhilippe, Florian 19 September 2022 (has links)
Ce mémoire a pour but d'explorer l'utilisation de données de contexte, notamment spatial, pour prédire de la durée que va prendre un garage pour effectuer les réparations à la suite d'un accident automobile. Le contexte réfère à l'environnement dans lequel évolue le garage. Il s'agit donc de développer une approche permettant de prédire une caractéristique précise en utilisant notamment de l'information historique. L'information historique comprend des composantes spatiales, comme des adresses, qui vont être exploitées afin de générer de nouvelles informations relatives à la localisation des garages automobiles. L'utilisation des données accumulées sur les réclamations automobiles va permettre d'établir un niveau initial de prédiction qu'il est possible d'atteindre avec de l'apprentissage supervisé. En ajoutant ensuite petit à petit de l'information de contexte spatial dans lequel évolue le garage responsable des réparations, de nouveaux niveaux de prédiction seront atteints. Il sera alors possible d'évaluer la pertinence de considérer le contexte spatial dans un problème de prédiction comme celui des temps de réparations des véhicules accidentés en comparant ces niveaux de prédiction précédemment cités. L'utilisation de données historiques pour prédire une nouvelle donnée se fait depuis plusieurs années à l'aide d'une branche de l'intelligence artificielle, à savoir : l'apprentissage machine. Couplées à cette méthode d'analyse et de production de données, des analyses spatiales vont être présentées et introduites pour essayer de modéliser le contexte spatial. Pour quantifier l'apport d'analyses spatiales et de données localisées dans un problème d'apprentissage machine, il sera question de comparer l'approche n'utilisant pas d'analyse spatiale pour produire de nouvelles données, avec une approche similaire considérant cette fois-ci les données de contexte spatial dans lequel évolue le garage. L'objectif est de voir l'impact que peut avoir une contextualisation spatiale sur la prédiction d'une variable quantitative. / The purpose of this paper is to explore the use of context data, particularly spatial context, to predict how long it will take a garage to complete repairs following an automobile accident. The context refers to the environment in which the garage evolves. It is therefore a question of developing an approach that makes it possible to predict a precise characteristic by using historical information in particular. The historical information includes spatial components, such as addresses, which will be exploited to generate new information about the location of car garages. The use of the accumulated data on car claims will allow to establish an initial level of prediction that can be reached with supervised learning. By then gradually adding information about the spatial context in which the garage responsible for the repairs evolves, new levels of prediction will be reached. It will then be possible to evaluate the relevance of considering the spatial context in a prediction problem such as that of the repair times of accidented vehicles by comparing these prediction levels previously mentioned. The use of historical data to predict new data has been done for several years with the help of a branch of artificial intelligence, namely: machine learning. Coupled with this method of data analysis and production, spatial analyses will be presented and introduced to try to model the spatial context. To quantify the contribution of spatial analysis and localized data in a machine learning problem, we will compare the approach that does not use spatial analysis to produce new data with a similar approach that considers the spatial context data in which the garage evolves. The objective is to see the impact that spatial contextualization can have on the prediction of a quantitative variable.
|
149 |
Simulation numérique du transport spatial et temporel des concentrations de CO₂ et de CH₄ atmosphériques et comparaisons avec les observationsSouley, Falama 17 April 2018 (has links)
L'effet de la pollution atmosphérique se fait de plus en plus ressentir de nos jours. Plusieurs études font valoir la nécessité de développer des techniques de mesures et de simulations pour la surveillance continue de son évolution dans l'atmosphère. La modélisation numérique est de plus en plus utilisée pour estimer la dispersion des nuages de polluants dans le temps et dans l'espace. Elle présente a priori des avantages certains par rapport aux techniques physiques que sont les essais in situ ou à échelle réduite. La présente étude consiste en une modélisation inverse des concentrations de CO₂ obtenues à l'été 2007 par la mesure en continu sur le site de Lethbridge, Alberta (Fluxnet Canada). Cette première étape dite de "calage de modèle" a permis ainsi d'optimiser les paramètres d'entrée du modèle de chimie-transport. Il a ainsi été possible de s'assurer de la qualité et de la reproductibilité des simulations par rapport aux observations. L'écart relatif maximal (de l'ordre de 12,3 %) entre simulations et observations sur le site (mai-août 2007) démontrent la bonne qualité des données d'entrée du modèle. Nos résultats ont montré également la grande influence des vents sur ce site dans la dispersion atmosphérique des polluants. Les vents de l'ordre de 44 km/h dispersent les polluants (ici le CO₂), tandis que ceux de l'ordre de 7 km/h favorisent l'accumulation des polluants sur le site de mesure. Dans une seconde étape, les concentrations de CO₂ et de CH₄ mesurées sur le champ expérimental de culture de l'Université Laval au cours de l'été 2005, grâce au dispositif conçu au LP AM (Laboratoire de physique atomique et moléculaire, Département de physique de génie physique et d'optique, Université Laval), ont été calculées grâce à nos codes (TRANSCHIM). Une erreur relative maximale de ~7 % pour le CH₄ et de ~2 % pour le CO₂ ont été observées entre les mesures et les simulations. Une fois de plus la grande influence du vent sur la dispersion atmosphérique des polluants a été mise en évidence. Les indicateurs statistiques, choisis pour déterminer la qualité des résultats dans cette deuxième étape, ont été généralement meilleurs malgré certaines données qui semblaient parfois physiquement irréalistes. Néanmoins le but de jeter les jalons d'une recherche combinée de mesures expérimentales et de simulations numériques conduisant à des résultats convergents a été atteint.
|
150 |
Adaptation de la procédure SSFR aux exigences industriellesCouture, Philippe 06 January 2025 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / La validité des modèles des générateurs est essentielle aux analyses de stabilité et de performance dynamique des réseaux électriques. Les producteurs d’énergie doivent fournir aux transporteurs d’électricité les paramètres électriques dynamiques du modèle de tous les générateurs mis en service après 1990. Les paramètres fournis doivent obligatoirement être validés par des mesures expérimentales. En Amérique du Nord, la procédure d’estimation des paramètres la plus acceptée est l’essai de courtcircuit brusque. Pour des cas de réfection, les risques élevés de bris peuvent devenir inacceptables. L’essai SSFR (« Standstill Frequency Response ») décrit dans la norme ANSI/IEEE Std 115-2009 comporte plusieurs avantages par rapport aux méthodes plus traditionnelles, notamment l’amélioration de la précision des modèles sur une bande passante plus large (> 200 Hz) et l’élimination des risques d’endommager le générateur. L’objectif du projet de recherche est de développer un système de mesure automatisé répondant à des contraintes industrielles afin d’assister la réalisation de l’essai SSFR sur de grands alternateurs hydrauliques. La solution proposée vise à maximiser la qualité des mesures tout en minimisant le nombre d’interventions manuelles et la complexité du montage expérimental. Le système a été utilisé pendant plus de deux mille heures afin de réaliser des essais de validation sur des générateurs de 5.4 kVA. Les essais ont permis de démontrer que le système est robuste et qu’il possède les spécifications requises pour effectuer des essais SSFR répondant aux exigences de la norme ANSI/IEEE Std 115- 2009. Les trois premiers chapitres du mémoire introduisent les bases théoriques liées à la modélisation dq0 d’un générateur synchrone, puis décrivent les principaux essais permettant l’identification des paramètres du modèle. La seconde partie du mémoire se concentre sur les divers aspects de conception du système de mesure automatisé. / Generator models validity is essential to analyze power grids stability and dynamic performance. Energy producers must provide power carriers with the model parameters of all generators commissioned after 1990. The parameters supplied must be validated by experimental measurements. In North America, the most accepted parameter estimation procedure is the short-circuit test. For repair cases, the high risk of damaging the alternator may become unacceptable. The SSFR (« Standstill Frequency Response ») test described in the ANSI / IEEE Std 115-2009 standard has several advantages over more traditional methods, namely an improvement of the models accuracy over a wider bandwidth (> 200 Hz) and the elimination of the risk of damaging the generator. The research project objective is to develop an automated measurement system meeting industrial constraints in order to assist the realization of the SSFR test on large hydraulic alternators. The proposed solution aims to maximize the quality of measurements while minimizing the number of manual interventions and the complexity of the experimental setup. The system has been used for more than two thousand hours to perform validation tests on 5.4 kVA generators. The tests demonstrated that the system is robust and has the required specifications to perform SSFR tests that meet the requirements of the ANSI / IEEE Std 115-2009 standard. The first three chapters of the thesis introduce the theoretical framework related to the dq0 modelisation of a synchronous generator, then describe the main tests allowing the identification of the model parameters. The second part of the thesis focuses on the various design considerations of the automated measurement system.
|
Page generated in 0.1568 seconds