• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1048
  • 284
  • 85
  • 3
  • 1
  • 1
  • Tagged with
  • 1419
  • 294
  • 279
  • 162
  • 156
  • 134
  • 123
  • 121
  • 92
  • 87
  • 85
  • 78
  • 74
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Mesures atraumatiques de débit sanguin : applications à la circulation cérébrale de l'Homme dans l'espace.

Braak, Laurent, January 1900 (has links)
Th. doct.-ing.--Autom.--Toulouse--I.N.P., 1980. N°: 120.
112

Les honoraires des chirurgiens-dentistes : au confluent du droit et du soin

Riffault, Amélie 07 December 2015 (has links)
Les chirurgiens-dentistes résument à eux seuls les difficultés de concilier argent et santé.Une réputation peu propice aux sourires, des ancêtres arracheurs de dents et le mythe du praticien voleur rendent complexe la relation de soin.Pourtant la profession s’est largement modernisée pour s’échapper de son image. Les nouvelles techniques, la meilleure prise en charge physique et psychique du patient tentent de réconcilier le grand public avec l’art dentaire.Parallèlement les plateaux techniques s’alourdissent, le taux de charge augmente, les honoraires progressent et le reste à charge des patients s’élève toujours plus, rappelant que la santé à un prix, surtout lorsqu’il s’agit de santé bucco-dentaire.Il convient de s’interroger sur les paramètres influant sur ces honoraires et sur les raisons d’une telle polémique.Il faut premièrement repréciser la justification des actes à honoraire libre.A l’origine, il s’agit d’une possibilité de compensation financière pour des actes de soins dont les tarifs fixés par la convention sont très bas. Cependant cette possibilité de compensation s’amenuise. Le tact et la mesure, maître mot de la détermination des honoraires ne suffit plus.Si l’Etat n’encadre pas directement les honoraires, les organismes complémentaires prennent de plus en plus de place dans l’échiquier des soins et mettent en place des réseaux de soins.Parallèlement les patients modifient leur comportement, en renonçant, reportant ou en choisissant des structures de soins dont l’offre est moins coûteuse, en France ou à l’étranger, ce qui pose de nouvelles questions médicales et juridiques. / Dental surgeons are a good example of the difficulty that health professionals face when trying to reconcile healthcare and money making. Their reputation doesn’t put a smile on anyone’s face: The fact that their ancestors used to pull teeth out without anesthetics or the popular sayings that dentists are overpriced make the ‘patient to healthcare provider’ relationship complicated.Nevertheless, the profession widely modernized itself to modify this picture: new techniques, better physical and psychological care are leverages that should help change people’s mind. But in the meantime, more and more technical capacity is needed, expenditures rise as well as fees and ultimately patient’s co-pay, reminding us that healthcare comes with a cost, especially within dentistry.The question of the parameters that influence dentistry fees and the resulting controversial debate is therefore a major issue to discuss.Also, the reason of the existence of the non-fixed fee system has to be recalled, since originally it was set up to compensate for care acts with very low fixed fee. However, with time, this compensation is getting less efficient and the ‘tact and moderation’ motto that should rule fees determination is not working anymore.Because the state doesn’t apply a new legal frame on fees determination, private health insurance companies are taking more and more space in our healthcare system with, for instance, the creation of healthcare provider networks. On the patients’ side, a growing number of people change their behavior towards dentistry by canceling or postponing cares or by choosing cheaper healthcare providers in France or abroad, which raises new legal and medical questions.
113

Block-constrained compressed sensing / Echantillonnage compressé avec acquisition structurée par blocs

Boyer, Claire 23 June 2015 (has links)
Dans cette thèse, nous visons à combiner les théories d'échantillonnage compressé (CS) avec une structure d'acquisition par blocs de mesures. D'une part, nous obtenons des résultats théoriques de CS avec contraintes d'acquisition par blocs, pour la reconstruction de tout vecteur s-parcimonieux et pour la reconstruction d'un vecteur x de support S fixé. Nous montrons que l'acquisition structurée peut donner de bons résultats de reconstruction théoriques, à condition que le signal à reconstruire présente une structure de parcimonie, adaptée aux contraintes d'échantillonnage. D'autre part, nous proposons des méthodes numériques pour générer des schémas d'échantillonnage efficaces reposant sur des blocs de mesures. Ces méthodes s'appuient sur des techniques de projection de mesure de probabilité. / This PhD. thesis is dedicated to combine compressed sensing with block structured acquisition. In the first part of this work, theoretical CS results are derived with blocks acquisition constraints, for the recovery of any s-sparse signal and for the recovery of a vector with a given support S.We show that structured acquisition can be successfully used in a CS framework, provided that the signal to reconstruct presents an additional structure in its sparsity, adapted to the sampling constraints.In the second part of this work, we propose numerical methods to generate efficient block sampling schemes. This approach relies on the measure projection on admissible measures.
114

Détection homodyne appliquée à la mesure de la vitesse du vent / Homodyne detection applied to wind speed measurement

Teysseyre, Raphaël 10 July 2013 (has links)
Dans cette thèse, nous étudions la détection homodyne (ou rétroinjection optique, ou self-mixing) appliquée à la mesure de la vitesse du vent. Il n’existe actuellement pas sur le marché de solution de mesure du vent par des moyens optiques à faible coût. L’objectif de cette thèse est de développer un tel prototype, en se basant sur le principe de la rétroinjection optique. Les différentes solutions d’anémométrie existant actuellement sont étudiées (anémométrie à coupelles, à ultrasons et à fil chaud, sondes de Pitot, PIV/PTV, sodars et lidars), avec un bref descriptif des avantages et inconvénients de chacune d’entre elles. Les équations de fonctionnement d’un laser soumis à rétroinjection optique sont redémontrées dans cette thèse. Les expressions résultantes sont des équations différentielles non linéaires et à retard, qui peuvent être réduites en un modèle statique couramment utilisé dans la littérature. Ce modèle prévoit une variation périodique de la puissance du laser pour un déplacement à vitesse constante de la cible responsable de la rétroinjection. Pour une puissance réinjectée suffisamment grande, ce modèle prévoit des discontinuités dans la puissance du laser. Nous développons un nouveau modèle issu des équations complètes linéarisées, qui permet de décrire le comportement dynamique du laser. Ce modèle prévoit notamment la présence d’oscillations amorties lors des discontinuités du modèle statique. Les caractéristiques de ces oscillations sont liées à la distance et au coefficient de réflexion de la cible. Les prédictions de ce modèle ont été vérifiées expérimentalement, et les résultats en ont été publiés dans la revue Optics Letters. Le corps de cette thèse se concentre sur l’acquisition et le traitement du signal de self-mixing, issu du passage de particules portées par le vent dans le faisceau de la diode laser utilisée. Comme la fréquence du signal est proportionnelle à la vitesse de la particule projetée sur l’axe optique du laser, nous avons mis en place un traitement dans le domaine fréquentiel par transformée de Fourier discrète. La ongueur de la transformée à utiliser est un compromis dicté par la recherche d’un rapport signal-sur-bruit optimal, le temps d’interaction de la particule avec le faisceau, et les ressources disponibles pour les calculs. Après avoir fixé ce compromis, nous calculons la fréquence de fausses détections qui en résulte. Nous étudions le biais qu’introduisent ces fausses détections sur la mesure de vitesse, ainsi qu’un algorithme permettant de compenser ce biais. Nous étudions ensuite les configurations optiques permettant de mesurer la vitesse du vent dans le plan horizontal (donnée qui intéresse les acheteurs potentiels du produit). Nous démontrons qu’il est nécessaire d’utiliser au moins quatre têtes optiques pour obtenir une acquisition fiable du signal. Des essais réalisés en soufflerie indiquent que le capteur mesure effectivement la vitesse du vent qui lui est présenté. Un démonstrateur autonome avec une unique voie de mesure a été monté sur un mât de prospection éolienne. Les mesures en résultant indiquent que le capteur est sensible à la température ambiante. Après correction par rapport à la température, la mesure effectuée est bien corrélée à une mesure de référence par un anémomètre et une girouette. Cette thèse a donc permis de développer un démonstrateur autonome permettant de mesurer la vitesse du vent en utilisant la rétroinjection optique, en conditions extérieures. / In this thesis, we study the homodyne detection (or self-mixing) applied to wind speed measurements. At the moment, there is no commercially available optical anemometer with a low price point. The objective of this thesis is to develop such a prototype, which will be using the self-mixing phenomenon. Existing anemometers are studied, with a short comparison of advantages and drawbacks of each solution (cup, ultra-sonic and hot-wire anemometers, Pitot probes, PIV/PTV, sodars and lidars). The equations describing the behavior of a self-mixing laser are demonstrated in this thesis. The resulting expressions are nonlinear delayed differential equations. These equations can be reduced to a static model that is commonly used in the relevant literature. This model predicts a periodic variation of the laser power for a linear displacement of the target responsible for self-mixing. If the reflection coefficient of the target is big enough, this model predicts discontinuities in the laser power. We develop a new model from the complete equations. This new model allows for the study of the dynamical behavior of the laser. It notably predicts damped oscillations where the static model presents discontinuities. The characteristics of these oscillations are related to the distance of the target and its reflectivity. The predictions of this new model were confirmed experimentally, and the corresponding results were published in the Optics Letters journal. The main part of this thesis is focused on the acquisition and processing of the self-mixing signal, which is produced by particles carried by the wind in the laser beam. The frequency of the resulting signal is proportional to the speed of the particle projected onto the optical axis. Therefore, we use a discrete Fourier transform to study the signal in the frequency domain. The length of the Fourier transform is a compromise between the necessity of an optimal signal-to-noise ratio that can trigger the detection, the interaction time between the particle and the beam, and the resources available for computing. After choosing the right compromise, we compute the resulting false detection frequency. We study the bias arising from these false detections, and we create an algorithm that can be used to compensate this bias. Finally, we study the optical configurations that allows for the measurement of wind speed in the horizontal plane (it is this data that is interesting for the potential clients). We demonstrate that at least four optical heads are necessary to obtain a reliable acquisition. The tests conducted in a wind tunnel show that the sensor actually measures the wind speed. An autonomous demonstrator with one measuring channel has been put on a measuring mast. The resulting measurements show that the sensor is temperature sensitive. When the measurements are corrected against the temperature, they are well correlated to a reference measurement made by a cup anemometer and a wind vane. This thesis has led to the development of an autonomous demonstrator that measures the wind speed by self-mixing in a laser diode, in outdoor conditions.
115

Clustering redshift : une nouvelle fenêtre sur l'univers / Clustering redshifts : a new window through the Universe

Scottez, Vivien 21 September 2015 (has links)
Les principaux objectifs de cette thèse sont de valider, consolider et développer une nouvelle méthode permettant de mesurer la distribution en redshift d'un échantillon de galaxies. Là où les méthodes actuelles - redshifts spectroscopiques et photométriques - sont toutes liées à l'étude de la distribution d'énergie spectrale des sources extragalactiques, l'approche ici présentée repose sur les propriétés d'agrégation des galaxies entre elles. En effet l'agrégation (clustering en anglais) des galaxies due à la gravité leur confère une distribution spatiale - et angulaire - particulière. La méthode des clustering redshifts utilise cette propriété particulière d'agrégation entre une population de galaxies dont le redshift est inconnu et un échantillon d'objets de référence afin de déprojeter l'information et de reconstruire la distribution en redshift de la population inconnue. On peut s'attendre à ce que les systématiques de cette approche soient différentes de celles des méthodes existantes qui elles s'intéressent à la distribution spectrale d'énergie (SED) des galaxies. Ce type d'approche répond à un réel besoin de la part de la communauté scientifique dans le cadre des grands projets d'observations tels que la mission Euclid de l'Agence Spatiale Européenne (ESA). Après avoir situé le contexte scientifique général et avoir mis en évidence le rôle crucial de la mesure des distances en astronomie, je présente les outils statistiques généralement utilisés dans le cadre de l'étude de la répartition de la matière dans l'Univers ainsi que leur modification afin de pouvoir mesurer des distributions en redshift. Après avoir validé cette approche sur un type d'objets extragalactiques particuliers, j'ai ensuite étendu son application à l'ensemble des galaxies existantes. J'ai ensuite exploré la précision et les systématiques affectant ces mesures dans un cas idéal. Puis, je m'en suis éloigné de façon à me trouver en situation réelle. J'ai également poussé plus loin cette analyse et montré que les objets de référence utilisés lors de la mesure n'ont pas besoin de constituer un échantillon dont la magnitude limite est représentative de la population de redshift inconnu. Cette propriété constitue un avantage considérable pour l'utilisation de cette approche dans le cadre des futurs grands projets observationnels comme la mission spatiale Euclid. Pour finir, je résume mes principaux résultats et présente certains de mes futurs projets. / The main goals of this thesis are to validate, consolidate and develop a new method to measure the redshift distribution of a sample of galaxies. Where current methods - spectroscopic and photometric redshifts - rely on the study of the spectral energy distribution of extragalactic sources, the approach presented here is based on the clustering properties of galaxies. Indeed clustering of galaxies caused by gravity gives them a particular spatial - and angular - distribution. In this clustering redshift approach, we use this particular property between a galaxies sample of unknown redshifts and a galaxies sample of reference to reconstruct the redshift distribution of the unknown population. Thus, possible systematics in this approach should be independent of those existing in other methods. This new method responds to a real need from the scientific community in the context of large dark imaging experiments such as the Euclid mission of the European Space Agency (ESA). After introducing the general scientific context and having highlighted the crucial role of distance measurements in astronomy, I present the statistical tools generally used to study the large scale structure of the Universe as well as their modification to infer redshift distributions. After validating this approach on a particular type of extragalactic objects, I generalized its application to all types of galaxies. Then, I explored the precision and some systematic effects by conducting an ideal case study. Thus, I performed a real case study. I also pushed further this analysis and found that the reference sample used in the measurement does not need to have the same limiting magnitude than the population of unknown redshift. This property is a great advantage for the use of this approach in the context of large imaging dark energy experiments like the Euclid space mission. Finally, I summarize my main results and present some of my future projects.
116

Contre l’amour courtois: 
Le vrai amour chez Marie de France et Chrétien de Troyes

Walley, Elizabeth 22 June 2017 (has links)
Marie de France and Chrétien de Troyes were two of the most influential French writers of the twelfth century. Both of these poets use different devices and themes of l’amour courtois, a model of how love was portrayed in literature at that time, to warn against the folie and the dangers to which adhering to the doctrines of this model could lead. They use narrative voice and commentary from characters to directly explain to readers why l’amour courtois is not an ideal example to follow, and they rely on the outcomes of their stories to portray potential outcomes for those who do or do not adhere to this code of courtly love. They also use their stories to express how important moderation and reason are in all aspects of life. In this thesis, I analyze in depth six of the twelve Lais of Marie de France (Guigemar, Yonec, Les Malheureux, Equitan, Le Frêne, and Eliduc) to show how her works favor unconditional love and punish selfish love. I explain how she uses narrative voice to directly support or condemn the actions of her characters. I also demonstrate how the end of each story can be a reward for selfless, sacrificial love or a punishment for self-interested love or for malicious intent toward an innocent character. I continue my analysis with three works of Chrétien de Troyes: Erec et Enide; Yvain, ou le Chevalier au Lion; and Lancelot, le chevalier de la Charrette. I explain how the first two stories exhibit a knight’s immoderation in either love or chivalry and how he must undergo a series of trials and battles to correct this imbalance in his life and strengthen his love for his wife. I also show how these stories promote the idea of a pure and ideal love within a mariage. The last of these stories is about an adulterous love, which does not seem to be condoned or condemned in the text, but the lovers are never given a happy reconciliation at the end. I also explain how this story is in particular exhibits the ridiculousness that can accompany courtly love. I specifically sought to compare the works of Marie de France and Chrétien de Troyes because they both seem to use different doctrines and devices of courtly love specifically to condemn its practice and its glorification and to instead demonstrate an alternative love one can seek that will be lasting and unconditional. I also wanted to underline how their portrayals of moderation (or immoderation) in love and chivalry were consistent throughout all of their works.
117

Raisonnement à partir de cas dynamique multi-agents : application à un système de tuteur intelligent / Multi-agent dynamic case-based reasoning : eapplication to intelligent tutoring system

Zouhair, Abdelhamid 20 October 2014 (has links)
Nos travaux de thèse se situent dans le domaine des Systèmes d'Aide à la Décision (SAD) pour les situations dynamiques fondées sur les expériences passées. Plusieurs approches telles que les Réseaux de Neurones, Réseau de Petri et les Modèles de Markov Cachés ont été utilisées dans ce contexte mais elles souffrent de limites dans la gestion automatique et en temps réel des paramètres dynamiques. Nous proposons une architecture multi-agent multicouche fondée sur le raisonnement à partir de cas dynamique et incrémentale (RàPCDI) capable d’étudier les situations dynamiques (reconnaissance, prédiction, et apprentissage de situations). Nous proposons une approche générique qui acquiert elle-même les connaissances du système dynamique étudié. En outre, les systèmes de RàPC statiques souffrent de limites dans la gestion des paramètres dynamiques et ils sont incapables de détecter automatiquement l’évolution de ses paramètres ainsi que de s’adapter aux changements de la situation en cours d’évolution. En se basant sur le raisonnement à partir de cas et sur le paradigme multi-agent, nous proposons une modification du cycle statique de RàPC dans le but d’introduire un processus dynamique de raisonnement à partir de cas fondé sur une mesure de similarité dynamique, capable d'évaluer en temps réel la similarité entre une situation dynamique en cours de progression (cas cible) et des expériences passées stockées dans la mémoire du système (des cas sources) afin de prédire la suite de la situation cible. Nous validons l’approche proposée par la mise en œuvre d'un prototype de Tuteur Intelligent. Dans notre approche Incremental Dynamic Case Based Reasoning-Multi-Agent System (IDCBR-MAS), les expériences passées sont modélisées sous la forme des traces. Elles comprennent les productions et les actions résultantes de l’interaction de l'apprenant avec la plateforme d'apprentissage. IDCBR-MAS a été modélisé suivant la méthodologie AUML. Ses agents ont été développés en se basant sur JAVA et la plateforme SMA/JADE. / AOur thesis works are related in the field of Decision Support System (DSS) for dynamic situations based on past experiences. Several approaches have been used in this area such as neural networks, Petri Nets and Hidden Markov Model but they suffer from some limitations in automated real-time management dynamic parameters. We propose a multi-agent multi-layer architecture based on Incremental Dynamic Case-Based Reasoning (IDCBR) able to study dynamic situations (recognition, prediction, and learning situations). We propose a generic approach able to learn automatically from their experiences in order to acquire the knowledge automatically. In addition, the static CBR systems suffer from some limitations such as the problem of the static management for dynamic parameters of the situation and they are unable to detect automatically the changes in its parameters in order to adapt the situation during their evolution. Based on the Case-Based Reasoning and multi-agent paradigm, we propose a modification of the static CBR cycle in order to introduce a dynamic process of Case-Based Reasoning based on a dynamic similarity measure able to evaluate in real time the similarity between a dynamic situation in current progress (target case) and past experiences stored in the memory (sources case) in order to predict the target case in the future. We validate the approach proposed by the implementation of an intelligent tutoring system prototype. In our approach Incremental Dynamic Case-Based Reasoning-Multi-Agent System (IDCBR-MAS), the past experiences are structured and modeled as traces. They include the interaction of the learner with the platform, which include history, chronology of interactions and productions left by the learner during his/her learning process. IDCBR-MAS designed and modeled with AUML language. Its agents have been implemented with JAVA and SMA / JADE platform.
118

Mesure et estimation de la température lors du perçage de l'alliage Ti6Al4V / Temperature measurement and estimation while drilling Ti6Al4V alloy

Marinescu, Mihai-Emil 13 November 2009 (has links)
Les alliages base titane sont des matériaux largement utilisés dans l'industrie aéronautique. Parmi ces alliages le Ti6Al4V est le plus répandu. Mais de nombreuses études ont montré que le titane et ses alliages ont une mauvaise usinabilité. Cet état de fait leur a été attribué en raison de leur faible conductivité thermique, qui concentre la chaleur dans la zone de coupe, de leur grande affinité chimique avec les matériaux des outils. Ce travail de thèse est séparé en deux parties, une expérimentale et une numérique qui ont comme finalité la mesure et l'estimation de la température pendant le perçage. Pour l'évaluation de la température 3 techniques de mesure sont utilisées : une première utilisant un thermocouple, placé au plus proche du bec de l'outil, une seconde mesurant la température à l'interface outil/copeau en utilisant l'effet Seebeck : un sandwich Ti/matériau isolant/constantan/matériau isolant/Ti est réalisé et la mesure est faite entre le constantan et l'arrête de l'outil et une dernière présentant des thermocouples montées dans la pièce, devant la pointe du foret, de manière à ce que le foret s'arrête à une distance de 0.1 mm des thermocouples. Pour toutes ces mesures, trois forets différents ont été utilisés. Pour la réalisation de la partie simulation, deux approches, analytique et numérique, ont été utilisées. L’approche analytique permet l'approximation des efforts de coupe pendant le perçage. L'approche par éléments finis, utilisant le logiciel "Advantedge", permet l'évaluation des efforts de coupe et la température en usinage. Le but étant de retrouver le même comportement que dans le cas des essais réalisés / The titanium-based alloys are materials widely used in the aviation industry. Among these alloys Ti6Al4V is the most common. But many studies have shown that titanium and its alloys have poor machinability. This is due to their low thermal conductivity, which concentrates heat from the cutting area, their high chemical affinity with the tool material. This thesis is separated into two parts, an experimental and numerical that are intended for measuring and estimating the temperature during drilling. For the evaluation of the 3 temperature measurement techniques are used: one using a thermocouple placed as close a possible to the corner the tool, a second measuring the temperature at the interface between tool/cutting edge using the Seebeck effect: sandwich Ti / insulation / constantan / insulation / Ti is achieved and the measurement is made between the constantan and the tool edges and a final technique with thermocouples mounted in the workpiece, ahead of the drill point, so that the drill stops at a distance of 0.1 mm from them. For all these measures, three different drills were used. To achieve the simulation part, two approaches, analytical and numerical, have been used. The analytical approach allows the approximation of cutting forces during drilling. The finite element approach, using the software "Advantedge", allows the evaluation of cutting forces and temperature in machining. The goal is to find the same behavior as in the case of measures
119

Contribution au recalage d'images de modalités différentes à travers la mise en correspondance de nuages de points : Application à la télédétection

Palmann, Christophe 23 June 2011 (has links)
L'utilisation d'images de modalités différentes est très répandue dans la résolution de problèmes liés aux applications de la télédétection. La raison principale est que chaque image d'une certaine modalité contient des informations spécifiques qui peuvent être intégrées en un modèle unique, afin d'améliorer notre connaissance à propos d'une scène spécifique. A cause du grand volume de données disponibles, ces intégrations doivent être réalisées de manière automatique. Cependant, un problème apparaît dès les premiers stades du processus : la recherche, dans des images de modalités différentes, de régions en correspondance. Ce problème est difficile à résoudre car la décision de regrouper des régions doit nécessairement reposer sur la part d'information commune aux images, même si les modalités sont différentes. Dans cette thèse, nous nous proposons donc d'apporter une contribution à la résolution de ce problème / The use of several images of various modalities has been proved to be quite useful for solving problems arising in many different applications of remote sensing. The main reason is that each image of a given modality conveys its own part of specific information, which can be integrated into a single model in order to improve our knowledge on a given area. With the large amount of available data, any task of integration must be performed automatically. At the very first stage of an automated integration process, a rather direct problem arises : given a region of interest within a first image, the question is to find out its equivalent within a second image acquired over the same scene but with a different modality. This problem is difficult because the decision to match two regions must rely on the common part of information supported by the two images, even if their modalities are quite different. This is the problem that we wish to address in this thesis
120

Contribution à l'étude des courts-circuits interlaminaires dans les noyaux des transformateurs de puissance / A contribution to the study of interlaminar short circuits in power transformer cores

Schulz, Carl 11 January 2010 (has links)
Le travail présenté dans cette thèse est centré sur l'étude des courts-circuits interlaminaires, dont la présence dans un noyau magnétique peut entraîner des pertes supplémentaires qui dégradent les performances du transformateur. L'étude suit deux axes principaux : premièrement, la détection des courts-circuits interlaminaires, et deuxièmement, leur modélisation. Le premier axe développe l'évaluation des possibilités de détection dans le but de fournir des outils qui permettent d'améliorer le processus de fabrication des transformateurs. Le deuxième axe concerne la modélisation du court-circuit, ayant pour l'objectif d'éclairer des mécanismes plus fondamentaux, ainsi que d'estimer les courants de court-circuit et les pertes associées dans les cas les plus défavorables. De nombreux courts-circuits artificiels ont été caractérisés de manière expérimentale. Une procédure a été mise en place qui permet de mesurer les courants de court-circuit à l’aide d’un enroulement de Rogowski miniaturisé, capable de faire la mesure du courant dans un contact interlaminaire en écartant très peu les tôles. Les expérimentations ont conduit à un modèle élémentaire du court-circuit basé sur un schéma équivalent de Thévenin. La variation de différents paramètres du court-circuit a permis de déduire des lois empiriques décrivant leur influence sur les éléments du schéma équivalent et ainsi d'observer l'impact de ces paramètres sur le courant de court-circuit et sur les pertes associées. / The research presented in this thesis focuses on the study of interlaminar short circuits, whose presence in a magnetic core can cause additional loss which will deteriorate the performance of the transformer. The study is carried out along two main axes: first, the detection of interlaminar short circuits, second, their modelling. The first axis evaluates the possibilities for detection, with the objective to provide tools which can help to optimise the manufacturing process of transformers. The second axis concerns the modelling of a short circuit, with a view to gain a deeper understanding of the mechanisms involved and also to enable an estimation of the worst-case short-circuit current and the worst-case power dissipation. Numerous artificial short circuits have been experimentally characterised. A procedure has been developed permitting the measurement of short-circuit currents by means of a miniaturised Rogowski coil, capable of measuring the current inside an interlaminar contact with a very small distance between the sheets. The experiments have led to an elementary model of the short circuit which is based on a Thévenin equivalent circuit. Variations of different parameters of the short circuit have permitted deducing empirical laws describing their influence on the elements of the equivalent circuit and thus to observe the impact of these parameters on the short-circuit current and the associated loss.

Page generated in 0.0452 seconds