• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 120
  • 13
  • Tagged with
  • 261
  • 174
  • 128
  • 89
  • 85
  • 84
  • 49
  • 39
  • 36
  • 35
  • 33
  • 32
  • 31
  • 29
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Importance du couplage des capteurs distribués à fibre optique dans le cadre des VSP / Significance of Coupling of Distributed Fibre Optic Sensor Systems for Vertical Seismic Profiling

Schilke, Sven 16 June 2017 (has links)
Les capteurs distribués à fibre optique (aussi nommés DAS) sont une nouvelle technologie d'acquisition sismique qui utilise des câbles traditionnels à fibre optique pour fournir une mesure de la déformation le long du câble. Ce système d'acquisition est largement utilisé dans les profils sismiques verticaux (PSV). Le couplage est un facteur clé qui a une grande influence sur la qualité des données. Alors que, pour les acquisitions PSV, les géophones sont attachés à la paroi du puits, le câble de fibre optique est soit cimenté derrière le tubage, soit attaché avec des pinces rigides au tubage ou simplement descendu dans le puits. Cette dernière stratégie de déploiement donne généralement le plus petit rapport signal sur bruit, mais est considérée comme la plus rentable en particulier pour les installations dans des puits existants. Cette thèse porte sur la problématique du couplage du DAS quand le câble est simplement descendu dans le puits. Nous développons des modèles numériques pour analyser les données réelles. L'interprétation de ces résultats nous permet de conclure qu'un contact immédiat du câble avec la paroi du puits avec une force de contact calculée est nécessaire pour fournir des bonnes conditions de couplage. Sur la base de ces résultats, nous proposons des solutions pour optimiser davantage les acquisitions avec le système DAS. Nous modifions numériquement la force de contact et les propriétés élastiques du câble DAS et démontrons comment ces modifications peuvent améliorer mais aussi détériorer la qualité des données. Enfin, nous proposons un algorithme de détection du couplage qui permet d'assurer l'acquisition de données réelles avec un rapport signal / bruit élevé. / Distributed Acoustic Sensing (DAS) is a new technology of seismic acquisition that relies on traditional fibre-optic cables to provide inline strain measurement. This acquisition system is largely used in vertical seismic profiling (VSP) surveys. Coupling is a key factor influencing data quality. While geophones and accelerometers are clamped to the borehole wall during VSP surveys, the fibre cable is either clamped and then cemented behind the casing, or attached with rigid clamps to the tubing, or loosely lowered into the borehole. The latter deployment strategy, also called wireline deployment, usually acquires the lowest level of signal but is regarded as the most cost-effective in particular for existing well installations. This PhD thesis addresses the problematic of coupling of DAS using wireline deployment. We develop numerical models that are used to analyse real data. The interpretation of these results allows us concluding that an immediate contact of the cable with the borehole wall with a computed contact force is required to provide good coupling conditions. Based on those findings, we propose solutions to further optimise DAS acquisitions. We numerically modify the contact force and the elastic properties of the DAS cable and show how these modifications can improve but also deteriorate data quality. Finally, we propose a coupling detection algorithm that is applied to real datasets and allows ensuring the acquisition of data with a high signal-to-noise ratio.
72

Gestion multisite de workflows scientifiques dans le cloud / Multisite management of scientific workflows in the cloud

Liu, Ji 03 November 2016 (has links)
Les in silico expérimentations scientifiques à grande échelle contiennent généralement plusieurs activités de calcule pour traiter big data. Workflows scientifiques (SWfs) permettent aux scientifiques de modéliser les activités de traitement de données. Puisque les SWfs moulinent grandes quantités de données, les SWfs orientés données deviennent un problème important. Dans un SWf orienté donnée, les activités sont liées par des dépendances de données ou de contrôle et une activité correspond à plusieurs tâches pour traiter les différentes parties de données. Afin d’exécuter automatiquement les SWfs orientés données, Système de management pour workflows scientifiques (SWfMSs) peut être utilisé en exploitant High Perfmance Comuting (HPC) fournisse par un cluster, grille ou cloud. En outre, SWfMSs génèrent des données de provenance pour tracer l’exécution des SWfs.Puisque le cloud fournit des services stables, diverses ressources, la capacité de calcul et de stockage virtuellement infinie, il devient une infrastructure intéressante pour l’exécution de SWf. Le cloud données essentiellement trois types de services, i.e. Infrastructure en tant que Service (IaaS), Plateforme en tant que Service (PaaS) et Logiciel en tant que Service (SaaS). SWfMSs peuvent être déployés dans le cloud en utilisant des Machines Virtuelles (VMs) pour exécuter les SWfs orientés données. Avec la méthode de pay-as-you-go, les utilisateurs de cloud n’ont pas besoin d’acheter des machines physiques et la maintenance des machines sont assurée par les fournisseurs de cloud. Actuellement, le cloud généralement se compose de plusieurs sites (ou centres de données), chacun avec ses propres ressources et données. Du fait qu’un SWf orienté donnée peut-être traite les données distribuées dans différents sites, l’exécution de SWf orienté donnée doit être adaptée aux multisite cloud en utilisant des ressources de calcul et de stockage distribuées.Dans cette thèse, nous étudions les méthodes pour exécuter SWfs orientés données dans un environnement de multisite cloud. Certains SWfMSs existent déjà alors que la plupart d’entre eux sont conçus pour des grappes d’ordinateurs, grille ou cloud d’un site. En outre, les approches existantes sont limitées aux ressources de calcul statique ou à l’exécution d’un seul site. Nous vous proposons des algorithmes pour partitionner SWfs et d’un algorithme d’ordonnancement des tâches pour l’exécution des SWfs dans un multisite cloud. Nos algorithmes proposés peuvent réduire considérablement le temps global d’exécution d’un SWf dans un multisite cloud.En particulier, nous proposons une solution générale basée sur l’ordonnancement multi-objectif afin d’exécuter SWfs dans un multisite cloud. La solution se compose d’un modèle de coût, un algorithme de provisionnement de VMs et un algorithme d’ordonnancement des activités. L’algorithme de provisionnement de VMs est basé sur notre modèle de coût pour générer les plans à provisionner VMs pour exécuter SWfs dans un cloud d’un site. L’algorithme d’ordonnancement des activités permet l’exécution de SWf avec le coût minimum, composé de temps d’exécution et le coût monétaire, dans un multisite cloud. Nous avons effectué beaucoup d’expérimentations et les résultats montrent que nos algorithmes peuvent réduire considérablement le coût global pour l’exécution de SWf dans un multisite cloud. / Large-scale in silico scientific experiments generally contain multiple computational activities to process big data. Scientific Workflows (SWfs) enable scientists to model the data processing activities. Since SWfs deal with large amounts of data, data-intensive SWfs is an important issue. In a data-intensive SWf, the activities are related by data or control dependencies and one activity may consist of multiple tasks to process different parts of experimental data. In order to automatically execute data-intensive SWfs, Scientific Work- flow Management Systems (SWfMSs) can be used to exploit High Performance Computing (HPC) environments provided by a cluster, grid or cloud. In addition, SWfMSs generate provenance data for tracing the execution of SWfs.Since a cloud offers stable services, diverse resources, virtually infinite computing and storage capacity, it becomes an interesting infrastructure for SWf execution. Clouds basically provide three types of services, i.e. Infrastructure-as-a-Service (IaaS), Platform- as-a-Service (PaaS) and Software-as-a-Service (SaaS). SWfMSs can be deployed in the cloud using Virtual Machines (VMs) to execute data-intensive SWfs. With a pay-as-you- go method, the users of clouds do not need to buy physical machines and the maintenance of the machines are ensured by the cloud providers. Nowadays, a cloud is typically made of several sites (or data centers), each with its own resources and data. Since a data- intensive SWf may process distributed data at different sites, the SWf execution should be adapted to multisite clouds while using distributed computing or storage resources.In this thesis, we study the methods to execute data-intensive SWfs in a multisite cloud environment. Some SWfMSs already exist while most of them are designed for computer clusters, grid or single cloud site. In addition, the existing approaches are limited to static computing resources or single site execution. We propose SWf partitioning algorithms and a task scheduling algorithm for SWf execution in a multisite cloud. Our proposed algorithms can significantly reduce the overall SWf execution time in a multisite cloud.In particular, we propose a general solution based on multi-objective scheduling in order to execute SWfs in a multisite cloud. The general solution is composed of a cost model, a VM provisioning algorithm, and an activity scheduling algorithm. The VM provisioning algorithm is based on our proposed cost model to generate VM provisioning plans to execute SWfs at a single cloud site. The activity scheduling algorithm enables SWf execution with the minimum cost, composed of execution time and monetary cost, in a multisite cloud. We made extensive experiments and the results show that our algorithms can reduce considerably the overall cost of the SWf execution in a multisite cloud.
73

Toward an autonomic engine for scientific workflows and elastic Cloud infrastructure / Etude et conception d’un système de gestion de workflow autonomique

Croubois, Hadrien 16 October 2018 (has links)
Les infrastructures de calcul scientifique sont en constante évolution, et l’émergence de nouvelles technologies nécessite l’évolution des mécanismes d’ordonnancement qui leur sont associé. Durant la dernière décennie, l’apparition du modèle Cloud a suscité de nombreux espoirs, mais l’idée d’un déploiement et d’une gestion entièrement automatique des plates-formes de calcul est jusque la resté un voeu pieu. Les travaux entrepris dans le cadre de ce doctorat visent a concevoir un moteur de gestion de workflow qui intègre les logiques d’ordonnancement ainsi que le déploiement automatique d’une infrastructure Cloud. Plus particulièrement, nous nous intéressons aux plates-formes Clouds disposant de système de gestion de données de type DaaS (Data as a Service). L’objectif est d’automatiser l’exécution de workflows arbitrairement complexe, soumis de manière indépendante par de nombreux utilisateurs, sur une plate-forme Cloud entièrement élastique. Ces travaux proposent une infrastructure globale, et décrivent en détail les différents composants nécessaires à la réalisation de cette infrastructure :• Un mécanisme de clustering des tâches qui prend en compte les spécificités des communications via un DaaS ;• Un moteur décentralisé permettant l’exécution des workflows découpés en clusters de tâches ;• Un système permettant l’analyse des besoins et le déploiement automatique. Ces différents composants ont fait l’objet d’un simulateur qui a permis de tester leur comportement sur des workflows synthétiques ainsi que sur des workflows scientifiques réels issues du LBMC (Laboratoire de Biologie et Modélisation de la Cellule). Ils ont ensuite été implémentés dans l’intergiciel Diet. Les travaux théoriques décrivant la conception des composants, et les résultats de simulations qui les valident, ont été publié dans des workshops et conférences de portée internationale. / The constant development of scientific and industrial computation infrastructures requires the concurrent development of scheduling and deployment mechanisms to manage such infrastructures. Throughout the last decade, the emergence of the Cloud paradigm raised many hopes, but achieving full platformautonomicity is still an ongoing challenge. Work undertaken during this PhD aimed at building a workflow engine that integrated the logic needed to manage workflow execution and Cloud deployment on its own. More precisely, we focus on Cloud solutions with a dedicated Data as a Service (DaaS) data management component. Our objective was to automate the execution of workflows submitted by many users on elastic Cloud resources.This contribution proposes a modular middleware infrastructure and details the implementation of the underlying modules:• A workflow clustering algorithm that optimises data locality in the context of DaaS-centeredcommunications;• A dynamic scheduler that executes clustered workflows on Cloud resources;• A deployment manager that handles the allocation and deallocation of Cloud resources accordingto the workload characteristics and users’ requirements. All these modules have been implemented in a simulator to analyse their behaviour and measure their effectiveness when running both synthetic and real scientific workflows. We also implemented these modules in the Diet middleware to give it new features and prove the versatility of this approach.Simulation running the WASABI workflow (waves analysis based inference, a framework for the reconstruction of gene regulatory networks) showed that our approach can decrease the deployment cost byup to 44% while meeting the required deadlines.
74

Un modèle de comportement temporisé pour les systèmes distribués communicants / A timed communication behaviour model for distributed systems

Chen, Yanwen 30 November 2014 (has links)
Cette thèse présente un nouveau modèle temporisé appelé timed-pNets pour la modélisation et la vérification des comportements des systèmes distribués hétérogènes. Un défi essentiel de ces systèmes est de spécifier correctement les contraintes de temps du système, dans la mesure où les nœuds dans les systèmes distribués n'ont pas l'horloge physique commune. Timed-pNets utilise un modèle de temps basé sur des horloges logiques, de manière à ce que les mesures de temps dans ce modèle ne reposent pas sur une horloge physique commune. Les timed-pNets ont une structure hiérarchique en arbre: les feuilles de cet arbre sont des Systèmes de Transition Étiquetés paramétrés temporisés (timed-LTSs), et les autres nœuds sont des dispositifs de synchronisation qui permettent de composer les comportements de leurs sous-réseaux. A chaque nœud d'un timed-pNet peut être associée une spécification temporisée, qui consiste en un ensemble d’horloges logiques et de relations sur ces horloges. Les spécifications temporisées sont utilisées pour spécifier les comportements du système, y compris les communications synchrones et asynchrones. Grâce à la spécification temporisée, les timed-pNets peuvent modéliser des systèmes de manière flexible. Les analyses des limites de temps, de la sûreté et de la latence sont discutées par l'étude des conflits de relations entre les horloges logiques du système. Nous utilisons un scénario d'insertion de voitures dans les systèmes de transport intelligents (ITS) comme un exemple pour illustrer l'utilisation de notre modèle timed-pNets. Finalement, l'outil TimeSquare est utilisé pour effectuer une simulation logique et vérifier la validité de notre modèle. / This thesis presents a novel timed model called timed-pNets for modeling and verifying the communication behaviours of heterogeneous distributed systems. Since the nodes in distributed systems have no common physical clock, it brings the challenges of correctly specifying the system time constraints. Timed-pNets build the time model on top of logical clocks such that the time of this model does not rely on a common physical clock. Timed-pNets are tree style hierarchical structures. Each node is associated with a timed specification which consists of a set of logical clocks and some relations on these clocks. The leaves are represented by timed Parametrized Label Transition Systems (timed-pLTSs). Non-leaf nodes (called timed-pNets nodes) are synchronisation devices that synchronize the behaviours of subnets (these subnets can be leaves or non-leaf nodes). Both timed-pLTSs and timed-pNets nodes can be translated to timed specifications. Timed specifications are designed to specify the system behaviours including synchronous and asynchronous communications. Thanks to the timed specification, timed-pNets are able to model systems in a flexible way. Time bound analysis, safety and latency properties are discussed by investigating the relations conflicts between system logical clocks. We take a simple case of car insertion from the area of Intelligent Transportation Systems (ITS) as an example to demonstrate the use of the timed-pNets model. In the end, the TimeSquare tool is used to perform a logical simulation and check the validity of our model.
75

Routage intradomaine et interdomaine dans les réseaux de coeur

Buob, Marc-Olivier 10 October 2008 (has links) (PDF)
Le routage Internet repose sur le partage d'informations entre les différents équipements constituant le coeur du réseau. Ces équipements communiquent grâce au protocole BGP afin de réagir en cas de modifications du réseau (modification de la structure du réseau, pannes. . . ). Dès lors, il est possible de router le trafic vers n'importe quelle destination de l'Internet. Aujourd'hui le protocole BGP posent un certain nombre de problèmes au sein des réseaux d'opérateurs. Ces problèmes sont généralement dus à une mauvaise diffusion des informations de routages dans le réseau. Dans ce genre de situation le trafic peut être amené à suivre des chemins sous-optimaux ou inconsistants. Qui plus est, ces comportements inattendus peuvent être particulièrement difficiles à détecter ou à anticiper. Pour répondre à cette problématique, on se propose d'aborder le protocole BGP comme suit. – Quels problèmes pose aujourd'hui le protocole BGP? Comment modéliser la diffusion des informations de routage ? – Comment valider la structure BGP d'un réseau ? Comment prévoir le comportement d'un réseau ? – Comment concevoir une structure BGP permettant de garantir que le comportement du réseau est valide, y compris en cas de panne ? – Comment modifier le protocole BGP afin d'avoir un réseau ayant toujours le comportement attendu ? Ce mémoire met en évidence les limites du protocole actuel. Il propose des outils de validation, de simulation et de conception BGP dans ce contexte. Il propose enfin une évolution simple et réalisable du protocole BGP permettant d'aboutir à un réseau fiable, efficace et simple à configurer.
76

Une architecture de communication pour environnements virtuels distribués à grande-echelle sur l'internet

Léty, Emmanuel 04 December 2000 (has links) (PDF)
Le modèle IP multipoint actuel rend particulièrement difficile le déploiement à grande-échelle d'Environnements Virtuels Partagés (EVPs) sur l'Internet. Cependant les concepteurs de ce type d'applications désirent permettre la connexion simultanée d'un nombre toujours plus important d'utilisateurs. Nous avons défini SCORE, une architecture de communication permettant d'améliorer la scalabilité et de déployer à grande-échelle des EVPs. Dans cette architecture, nous avons élaboré des mécanismes de filtrage et des protocoles au niveau de la couche transport, s'appuyant sur plusieurs agents et sur un ensemble de groupes multipoints. Afin d'évaluer les coûts introduits par SCORE ainsi que sa capacité à améliorer les performances, nous avons réalisé plusieurs séries d'expérimentations. Nos résultats montrent les situations dans lesquelles notre architecture de communication permet d'offrir un haut degré de scalabilité.
77

La diffusion Brillouin dans les fibres à cristaux photoniques: fondements et applications aux capteurs optiques

Stiller, Birgit 12 December 2011 (has links) (PDF)
Le cadre général dans lequel s'insère ce travail de thèse est celui de l'étude de la diffusion Brillouin dans une nouvelle génération de fibres optiques à cristaux photoniques (PCFs). Ces fibres, qui présentent un arrangement périodique de micro-canaux d'air parallèles le long de la fibre, possèdent en effet des propriétés optiques et acoustiques remarquables et inédites par rapport aux fibres conventionnelles. De fa¸con plus précise, nous montrons dans ce travail, par le biais de simulations numériques et de données expérimentales, que les fibres à cristaux photoniques offrent la possibilité de supprimer ou, à contrario, augmenter les interactions entre les photons et les phonons. Dans une première partie, nous présentons une méthode de cartographie des fluctuations longitudinales de la microstructure des fibres PCFs 'a l'aide d'un capteur distribué basé sur une méthode innovante d'écho Brillouin. Cette méthode, très sensible et à haute résolution, est directement intéressante pour caractériser et améliorer l'uniformité des PCFs lors de leur fabrication et également pour la détection des différentes contraintes de température et étirement induites le long des fibres. Sur le plan fondamental, notre système de mesure distribuée à haute résolution nous a également permis d'observer, pour la première fois à notre connaissance, le temps de vie des ondes acoustiques dans les fibres à cristaux photoniques et les fibres standard. Par ailleurs, sur le plan technique, nous avons développé une architecture simplifiée de capteur distribué combinant la technique des échos Brillouin et celle de la modulation différentielle par déplacement de phase avec un seul modulateur d'intensité. Nos résultats montrent une résolution centimétrique dans la zone de soudure entre deux fibres optiques 'a l'aide d'une impulsion de phase de 500 ps. Nous démontrons dans une deuxième partie la suppression directe et passive de la rétro-diffusion Brillouin stimulée dans une fibre optique microstructurée en faisant varier périodiquement le diamètre de la microstructure. Une augmentation de 4 dB du seuil de puissance Brillouin a été obtenue avec une variation de seulement 7% sur une période de 30m. Ce résultat est très intéressant car la diffusion Brillouin est un facteur limitant dans les systèmes de télécommunications par fibre optique et les laser à fibre. La troisième et dernière partie est consacrée 'a l'étude numérique et expérimentale de la diffusion Brillouin en avant dans les fibres à cristaux photoniques. En plus de la suppression de la plupart des modes acoustiques transverses, nous montrons que cette diffusion Brillouin est fortement augmentée pour certains modes acoustiques à haute fréquence qui sont piégés au coeur de la microstructure. Nous avons également étudié une fibre à structure multi-échelle qui révèle l'excitation sélective de plusieurs phonons acoustiques à des fréquences allant jusqu'a 2GHz. Ces mesures ont été confirmées par des simulations numériques basées sur une méthode vectorielle aux éléments finis. L'impact des irrégularités de la microstructure a aussi été mise en évidence.
78

Réplication de contenu dans les réseaux sans fil mobiles

La, Chi-Anh 11 October 2010 (has links) (PDF)
La croissance des terminaux et des services de réseau mobile pose aujourd'hui une question sur la méthode de distribuer efficacement des données aux utilisateurs. Plusieurs applications de réseau ont besoin de télécharger des données afin de fournir des informations aux utilisateurs. En conséquence, l'explosion du trafic de données exercé par les clients qui cherchent des contenus en ligne provoque la saturation du réseau cellulaire des opérateurs mobiles. Similaire aux problèmes du réseau Internet, les utilisateurs mobiles ont désormais fait face à la congestion au niveau des passerelles de réseau. En raison de l'imprévisibilité de la mobilité humaine, les fournisseurs de services mobiles ne peuvent pas installer suffisamment des infrastructures pour leurs clients. La réplication de contenu dans ce contexte a été prouvée comme une bonne solution pour améliorer la performance et l'extensibilité du réseau. Dans cette thèse, nous abordons les problèmes de la réplication du contenu dans des réseaux hétérogènes mobiles. Nous étudions deux questions fondamentales: où et combien de répliques doivent être placées dans le système. Nous modélisons le problème à l'aide de la théorie de "facility location" et nous concevons un mécanisme distribué qui est capable de réduire la latence d'accès au contenu et d'éviter la congestion au niveau des passerelles mobiles. En outre, nous examinons les contraintes de ressources des équipements mobiles et proposons des mécanismes P2P pour transférer les répliques afin de parvenir l'équilibrage de charge parmi les utilisateurs. Nous évaluons nos mécanismes en utilisant des modèles de mobilité humaine. Enfin, pour résoudre le problème causé par les utilisateurs rationnels qui se comportent égoïstement lors de la réplication du contenu dans les réseaux hétérogènes mobiles, nous dérivons un modèle de coût et utilisons la théorie des jeux pour étudier les équilibres du système. Particulièrement, nous étudions le facteur de réplication dans un scénario "flash-crowd" avec de différents débits de réseau sans fil. A partir des résultats théoriques, nos futurs travaux sont d'élaborer des stratégies à mettre en œuvre dans les réseaux en pratique.
79

Environnements d'exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calcul

Coti, Camille 10 November 2009 (has links) (PDF)
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances.
80

Localisation de défaut dans les lignes de transmission d'énergie

Sadeh, Javad 02 June 2001 (has links) (PDF)
Cette thèse présent quelques nouveaux algorithmes de localisation de défaut pour des lignes de transport d'énergie. Ces algorithmes sont basés sur un modèle de ligne avec des paramètres distribués, qui explique en soi la capacité de shunt et la nature distribuée des pertes de ligne. Dans quelques parties de cette thèse, la dépendance des paramètres de la ligne de la fréquence est prise en compte et un nouvel algorithme de localisation de défaut est proposé selon un tel modèle de ligne. Récemment, quelques efforts de recherches ont été concentrés sur des techniques de localisation de défaut dans les lignes de transmission compensées série. Dans cette thèse on propose deux nouveaux et précis algorithmes de localisation de défaut pour de tels systèmes. L'algorithme se sert de deux routines pour l'évaluation de la distance de défaut, 1' un pour le défaut en aval du condensateur série et l'autre pour le défaut en amont du condensateur série. Puis un procédé spécial pour choisir la solution correcte est utilisé. Des échantillons de tensions et de courants aux deux extrémités de la ligne sont pris synchroniquement et employés pour calculer le point du défaut. L'exactitude des algorithmes proposés n'est pas sensiblement affectée par résistance de défaut et angle de commencement de défaut et n'exige aucune connaissance des impédances de source. Dans la dernière partie de cette thèse nous présentons un nouvel algorithme de localisation de défaut utilisant la logique floue de type de Takagi-Sugeno pour fournir une bonne estimation du point de défaut. Les résultats de simulation confirment que l'approche logique floue peut être utilisée comme une alternative efficace pour la localisation précise du défaut dans les lignes de transmission.

Page generated in 0.063 seconds