• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 45
  • 17
  • Tagged with
  • 181
  • 181
  • 78
  • 76
  • 48
  • 44
  • 44
  • 44
  • 38
  • 34
  • 33
  • 32
  • 31
  • 28
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Un Serveur d'Archivage de Messages

You, Yi Zhi 19 December 1989 (has links) (PDF)
La messagerie électronique fournit un nouveau moyen de communication entre individus. Les applications de communication de groupe en mode messagerie permettent aux utilisateurs d'effectuer des travaux coopératifs. Dans ces applications, un outil général est nécessaire pour stocker et gérer les messages d'une façon distribuée dans un environnement multi-utilisateurs distribue. Cette thèse présente la conception et la réalisation d'un tel outil: SAM (serveur d'archivage de messages). Sam peut être caractérisé par trois modelés et un protocole d'accès. Le modèle architectural décompose SAM en deux parties: un noyau (MAP) qui stocke et gère les messages et fournit des fonctions de base, et un ensemble de composants (FE) qui adaptent SAM à différentes applications. Le modèle conceptuel définit d'une façon abstraite des objets que SAM doit gérer du point de vue des applications. Le modèle de MAP spécifie les objets à stocker et gérer, leurs relations et leur représentation, ainsi que le service fourni par MAP pour manipuler ces objets. Le protocole d'accès PSAM définit de façon formelle l'interface d'accès entre MAP et les FE, en utilisant le langage de description ASN.1 recommandé par le CCITT et l'ISO. Quelques exemples d'utilisation de SAM sont également présentés afin de valider notre conception de cet outil.
32

Un modèle de fonctionnement d'une couche d'une architecture de communication

Nguyen Ba, Thu 06 December 1983 (has links) (PDF)
Les réseaux informatiques connaissent une expansion rapide à l'heure actuelle. Il devenait nécessaire de faire évoluer l'informatique centralisée vers une informatique distribuée car les systèmes d'informations sont par nature répartis. Mais cette évolution n'a été possible que grâce à des progrès réalisés dans plusieurs domaines : la technologie (micro-électronique, transmission) et les techniques informatiques avancées nécessaires au développement des réseaux (commutation de paquets, architecture de réseaux). La définition d'une architecture est de première importance car les réseaux sont des systèmes complexes. Déjà, des constructeurs informatiques proposent des architectures qui leur sont propres : SNA chez IBM, DSA chez Bull, DECNET chez DEC, BNA chez Burrough, etc ... Toutes ces architectures sont basées sur une technique de structuration habituellement utilisée à l'heure actuelle : la structuration en couches. Cette technique permet de séparer nettement les fonctions réseaux et donc de faciliter la conception, la réalisation, l'évolution d'un réseau.
33

Prospective Territoriale par Simulation Orientée Agent.

David, Daniel 04 December 2010 (has links) (PDF)
L'île de La Réunion, inscrite au patrimoine mondial de l'UNESCO pour la beauté de ses paysages et pour sa biodiversité exceptionnelle, va accueillir dans les prochaines années une population de plus en plus importante. Les documents de planification réglementant l'évolution de l'urbanisation dans l'île doivent donc en tenir compte afin de gérer au mieux l'évolution et la structuration du foncier local. Dans un contexte de recherche pluridisciplinaire, l'enjeu de nos travaux est donc de proposer des méthodes et outils facilitant les interactions entre les informaticiens et les thématiciens qui apportent leur expertise à la construction de modèles de simulation dédiés à la prospective territoriale et de faire en sorte que ces modèles puissent fournir des pistes de réflexions aux décideurs confrontés aux choix de demain afin d'aider à mettre en place une organisation des territoires qui soit la plus cohérente possible. Après avoir participé à la réalisation de DS, un modèle qui permet de simuler conjointement l'évolution de la population et celle du Mode d'Occupation des Sols à La Réunion, nous nous sommes focalisés sur l'étude de l'émergence, une notion qui apparaît dans nos simulations en environnement spatialisé, mais pour laquelle il n'existe pas d'outils génériques permettant de la manipuler. Nous l'avons définie comme étant une méta-connaissance, ce qui nous a permis de proposer une méthodologie de conception de simulations et un cadre formel qui ont abouti à la mise en place de structures émergentes dans la plateforme de simulation GEAMAS-NG. Celle-ci, ou les entités de la SOA elles-mêmes, peuvent ainsi prendre conscience de l'émergence de phénomènes et les matérialiser en ayant recours à la connaissance des thématiciens. Nous avons alors montré l'intérêt de ces propositions en expérimentant la réification de phénomènes émergents observés dans DS.
34

Le modèle trifocal : une approche communicationnelle des interfaces numériques : Contributions à la conception d'interfaces accessibles / The trifocal model : a communicative approach to digital interfaces : contributions to accessible interface design

Laitano, María Inés 13 October 2015 (has links)
: Objet d'étude pour plusieurs disciplines, l'interface numérique se présente comme un objet hétérogène : un dialogue humain-ordinateur, le reflet d’un modèle mental, un instrument, un ensemble de signes sémiotiques… Toutes ces dimensions, traitées individuellement par les approches disciplinaires, n’ont jamais été rassemblées dans un cadre paradigmatique commun. Cette thèse soutient que l’interface, en tant qu’objet d’étude complexe, doit être abordée dans un cadre capable de traiter cette complexité. Elle propose de le faire par la systémique communicationnelle et de poser la réflexion, non pas en termes d’attributs de qualité de l’interface (utilisabilité, communicabilité, convivialité…), mais en termes de significations. Cela implique de centrer le modèle sur l’humain et fournit une vision intégrée, non parcellisée, de l’interface permettant de concevoir de nouvelles interfaces, de les implémenter dans des contextes et des modalités sensorielles diverses.Le modèle trifocal est ainsi une approche systémique de la communication via l’interface. Il étudie les rapports de l’usager à la machine, à l’objet de son activité et au concepteur, ainsi que les propriétés émergentes de ce système. Le modèle trifocal fournit une description de l’interface transposable d'une modalité à une autre. Il permet, d’une part, l’étude de la signification d’interfaces non visuelles et, d’autre part, la traduction d’interfaces d’une modalité dans une autre. Le modèle trifocal jette un regard nouveau sur la conception d’interfaces accessibles puisqu’il complète les méthodes existantes avec des nouvelles dimensions d’analyse. / Object of study for several disciplines, digital interfaces appear as a heterogeneous object: a human-computer dialogue, a reflection of a mental model, an instrument, a set of semiotic signs ... All these dimensions, addressed individually by disciplinary approaches, have never been gathered in a common paradigmatic framework. This thesis argues that interfaces, as a complex object of study, must be addressed in a framework capable of dealing with this complexity. It proposes to do so by the Systemic Communication Theory and to think about not in terms of interface quality attributes (usability, communicability, conviviality...) but in terms of meanings. This implies a human-centered model and provides an integrated point of view enabling the design of new interfaces as well as their implementation in numerous contexts and sensory modalities.The trifocal model is thus a systemic approach to communication via the interface. It studies the relationships between user and machine, between user and object of his activity and between user and designer, as well as emergent properties of the system. The trifocal model provides an interface description transposable from one modality to another. It allows, on one hand, to study the meaning of non-visual interfaces and, on the other, to translate interfaces from one modality to another. The trifocal model takes a fresh look on designing accessible interfaces since it complements existing methods with new analytical dimensions.
35

Modeling the lean organization as a complex system / Modélisation de l’organisation lean en tant que système complexe

Masai, Pierre 29 September 2017 (has links)
Dans cette thèse, après avoir expliqué l'historique et les concepts principaux de l’organisation lean dans différents contextes, le monde des systèmes complexes est exploré, puis il est montré pourquoi le lean est lui-même un système complexe. Un modèle novateur du lean est proposé sous forme d'ontologie, le Lean Organization Framework (LOF), qui peut être appliqué à toutes les formes d’organisations. Le LOF est testé avec celles qui ont déjà été explorées, proposant ainsi des pistes d’amélioration (lean pour la fabrication, pour l’IT, pour les soins de santé, pour la fonction publique, pour les organisations non gouvernementales, pour les start-ups et pour l’éducation). Il peut également être appliqué à de nouveaux domaines d’activités avec l’aide d’experts dans ces domaines, une approche montrée avec les exemples nouveaux d’une fondation lean et de l’architecture d’entreprise lean (Lean EA) mais aussi en comparant l’organisation lean au système immunitaire, un exemple bien connu de système complexe. Ensuite, un modèle de processus lean est proposé, présentant les propriétés émergentes d’un système complexe, le hoshin kanri (gestion des objectifs de l’organisation), y compris dans sa dimension culturelle. Les résultats de son expérimentation pratique avec l’application eHoshin sont discutés et un premier prototype en open source est présenté, déjà utilisé à ce jour par une centaine d’organisations dans le monde. Une seconde expérimentation plus robuste dans l’industrie (Toyota, dans plusieurs fonctions et entités juridiques) est exposée. Le modèle théorique est enfin amélioré sur base des résultats obtenus. En annexe, les concepts du lean sont expliqués avec leur application à six domaines de connaissance différents et les programmes de simulations sont listés. / In this thesis, after explaining the history and main concepts of the lean organization in various contexts, the world of complex systems is explored, then it is shown why the lean organization is itself a Complex System. A novel model of lean is proposed as an ontology, the Lean Organization Framework (LOF), which can be applied to all forms of organizations. The LOF is tested with those already explored (Lean Manufacturing, Lean IT, Lean Healthcare, Lean Government, Lean NGO, Lean Start-Up, Lean Education) and proposes ways to enhance them. It can also be applied to new domains with the help of subject matter experts, an approach that is checked with the novel cases of a Lean Foundation and Lean Enterprise Architecture (Lean EA), but also with the comparison of the lean organization with the immune system, a well-known Complex System example. Then, a model of lean process presenting the emergent properties of a Complex System is proposed: the hoshin kanri, or management of the organization objectives, including in its cultural dimension. The results of its practical implementation with the eHoshin application are discussed and a first open source prototype already used by around one hundred organizations in the world is explained. A second, more robust implementation in the industry is presented (at Toyota, extended to several departments and legal entities). Finally, the theoretical model is improved based on the experimentation results. In the appendices, the lean concepts are explained together with their application to six domains of knowledge and the simulation programs are listed.
36

Towards decision support for complex system architecture design with innovation integration in early design stages / Vers une méthode d’aide à la décision pour l’intégration d’innovations dès la conception préliminaire des architectures de systèmes complexes

Moullec, Marie-Lise 24 January 2014 (has links)
L’objectif de ce travail de recherche est de proposer une méthode d’aide à l’intégration d’innovations dès la conception préliminaire des systèmes complexes. Cette étape de la conception a en effet de forts impacts sur le reste de cycle de vie du produit. En se focalisant sur l’aide à la génération d’architectures de système complexe, cette méthode utilise un réseau Bayésien combiné à un problème de satisfaction de contraintes (CSP) pour générer et évaluer automatiquement des architectures de systèmes complexes. Le modèle de réseau Bayésien proposé est utilisé pour représenter le problème de conception de l’architecture en termes de variables de décision, de contraintes et de performances. Un algorithme parcourt le graphe ainsi défini afin de générer les solutions d’architecture qui sont considérées comme faisables et qui présentent un niveau de confiance acceptable. Ce niveau de confiance estime l’incertitude associée à chaque architecture générée. Les performances des architectures sont aussi calculées grâce au réseau bayésien. Une fois les architectures générées, un modèle de problème de satisfaction de contraintes permet d’optimiser le placement des composants au vu des contraintes de placement et des objectifs d’optimisation préalablement définis par les concepteurs. Un logiciel a été développé pour faciliter la modélisation du problème et la visualisation des solutions. Deux cas industriels ont permis de tester la méthode et de nombreuses solutions d’architecture ont été générées. Afin de tester la faisabilité de l’étape de sélection d’architectures dans un cadre industriel, un atelier de sélection d’architectures a été organisé afin d’être par la suite analysé. Il a impliqué quatre concepteurs de Thales et portait sur un des cas industriels précédents. Cette dernière étude a souligné des difficultés dans la définition des critères de sélection des architectures et propose des recommandations pour un futur support à la sélection d’architecture système. / The aim of this research work is to propose a method allowing innovation integration in early design stages and supporting architecture design of complex systems that have significant implications for the rest of overall system life-cycle. Focusing on system architectures generation support, this method proposes to use Bayesian networks combined with Constraint Satisfaction Problem (CSP) techniques in order to semi-automatically generate and evaluate complex systems architectures. Bayesian network model is used to represent the design problem in terms of decision variables, constraints and performances. Furthermore, an architecture generation algorithm is proposed to generate feasible solutions and to cluster them with regard to a given confidence level threshold. This confidence level is representing the estimation of the uncertainty on the overall system. Estimation of architecture performances are also calculated within the Bayesian network. Once the system architectures are generated, a CSP model optimises the component placement regarding placement constraints and optimisation objectives defined by designers. Software has been developed for the purpose of problem modelling and solutions visualisation. Two industrial implementations yielded in a generation of a high number of architecture solutions. In order to test the feasibility of architecture selection in an industrial environment, a study was conducted integrating four system designers. This study underlined the difficulties in defining architecture selection criteria and provides recommendations for the future system architecture selection support.
37

Integrated decision support for architecture & supplier identification in early complex system design / Aide à la décision pour l’identification d’architecture et des fournisseurs en phase préliminaire de conception de système complexe

Ye, Yun 22 October 2014 (has links)
Afin de combiner les avantages de la normalisation et de la personnalisation, «la conception modulaire » est utilisée de plus en plus par les OEMs (Original Equipment Manufacturers) dans le développement de systèmes complexes. Différente de la conception traditionnelle, la conception modulaire confie l’entière responsabilité d’un module aux fournisseurs principaux. Dans ce cas, les fournisseurs commencent à collaborer avec les OEMs beaucoup plus tôt dans le processus de conception, et participent à la conception des systèmes depuis la phase de la conception conceptuelle. Avec une approche « conception modulaire», il n’est plus possible de définir le concept produit avant le choix de leurs fournisseurs, comme on le fait en conception traditionnelle. Par contre, les concepts produits et leurs fournisseurs doivent être examinés simultanément au début de la conception conceptuelle. Cependant, le lien incassable entre un module et son fournisseur est rarement pris en compte dans les méthodes de support de la conception. La plupart des méthodes existantes traitent le choix d’architecture et le choix de(s) fournisseur(s) comme deux sujets d’aide au choix séparés. Dans notre travail, nous proposons une méthode et un outil appelé«Architecture & Supplier Identification Tool (ASIT)», qui considère conjointement les performances des fournisseurs et celles de leurs modules. L’ASIT est capable de générer toutes les architectures possibles(toutes les combinaisons à modules donnés) en fonction des besoins client, en tenant compte des nouvelles technologies et des nouveaux fournisseurs. La performance globale de chaque architecture tient compte à la fois l’architecture et de ses fournisseurs, elle est estimée à partir de données de produits existants et de connaissances expertes. Les candidats appropriés (binômes architectures/fournisseurs) sont identifiés (en tenant compte de leur degré de satisfaction clients, de l’incertitude globale, et de l’impact environnemental) pour être considéré dans la conception conceptuelle. L’utilisation d’ASIT est illustré par une étude de cas de conception du groupe motopropulseur. La comparaison des résultats à d’autres méthodes montre que l’approche ASIT constitue un outil d’aide à la décision intéressant pour les OEMs,elle permet l’identification simultanée des fournisseurs et des architectures qui garantissent une performance globale. / In order to combine the advantage of standardization with those of customization, modular design has been increasingly used by OEMs (Original Equipment Manufacturers) in complex system development. Different from traditional design, modular design advocates entrusting lead suppliers with full responsibility of a module. In this case, suppliers are involved much earlier in design, and start collaborating with OEMs from the conceptual design phase. This characteristic of modular design makes it impossible to define the product concept before choosing suppliers, as is normally done in the traditional way. Instead, the product concepts and supplier possibilities need to be considered simultaneously. However, this unbreakable link between a module and its supplier is rarely considered indesign support methods. Most existing methods treat architecture and supplier as two separate issues. In this work, we propose the Architecture & Supplier Identification Tool (ASIT), which considers performance of both suppliers and their modules. The ASIT is capable of generating all possible product/system architectures based on customer requirements with consideration of new technologies and new suppliers. The overall performance of each architecture is estimated using data of existing products and expert knowledge. Appropriate candidates are identified, taking into account their customer requirements satisfaction, overall uncertainty, and environmental impact, to be considered in conceptual design. The utilization of ASIT is illustrated in a powertrain design case study. Comparing the results from different methods shows that ASIT is an interesting decision support tool for OEMs to identify suppliers and architectures regarding their overall performance.
38

Complexité et changement climatique : une étude épistémologique des théories de la complexité transdisciplinaires et leur apport aux phénomènes socio-écologiques / Complexity and Climate Change? : an epistemological study of transdisciplinary complexity theories and their contribution to socio-ecological phenomena

Wells, Jennifer 23 June 2009 (has links)
Cette thèse propose une analyse épistémologique des théories de la complexité, une évaluation de leur portée générale et de leur utilité dans des domaines particuliers, et la mise au jour de leur contribution décisive à la question centrale du changement climatique. L’objectif est de cerner la nature de la complexité à travers tout l’éventail des disciplines, car les théories de la complexité ne cessent de s’éteindre et la liste des bénéfices qu’on leur attribue de s’allonger. L’étude de cas du changement climatique est riche, y sont impliqués de nombreux systèmes complexes d’importance décisive pour le genre humain, parmi lesquels l’agriculture, l’énergie, l’eau et l’économie. Le présent travail propose d’abord une définition de la complexité généralisée, comprise comme cadre général de la pensée fondé sur six grandes catégories. Il procède ensuite à l’analyse à travers ce cadre, des dimensions scientifiques, politiques et éthiques du changement climatique. Notre point de départ est constitué par un examen attentif du trois corpus importants : le rapport du GEIC « Climate Change 2007, » « le Millennium Ecosystem Assessment, » et l’éthique du changement climatique. Il s’avère que la mise en œuvre des théories de la complexité est nécessaire pour mesurer de manière rigoureuse la portée non seulement des aspects multiples des différents systèmes complexes impliqués, mais aussi de l’ensemble dans toutes sa signification polyvalente. En s’interrogeant sur le rôle et l’utilité des théories de la complexité dans des domaines et à des échelles multiples, nous mettons en lumière une série de principes-clés sur la nature et l’usage de ces théories. / This dissertation presents an epistemological analysis of complexity theories, an evaluation of their contribution, both generally and to specific domains, and a demonstration of their important contribution to climate change. The objective is to provide a description of complexity theories across the whole range of disciplines, as complexity theories continue to expand and the list of their proposed benefits continue to grow. The case study of climate change is rich, as it touches on a number of complex systems of primary significance to humanity, such as agriculture, energy, water, and the economy. The present work proposes first a definition of generalized complexity, comprised of a general framework of the field based upon six major categories. It proceeds to analyze, in light of this framework, the scientific, ethical and political dimensions of climate change. Our point of departure consists in a thorough examination of three important bodies of literature: the IPCC report “Climate Change 2007,” the “Millennium Ecosystem Assessment,” and the ethics of climate change. The dissertation shows that the use of complexity theories is necessary in order to measure in a rigorous manner the contribution, not only of the multiple aspects of different complex systems involved, but also of the framework as an ensemble, with its polyvalent signification. By examining the role and the utility of complexity theories in multiple fields at multiple scales, we reveal a series of key principles regarding the nature and usage of these theories.
39

Etudes d'interactions moléculaires par RMN dans les systèmes complexes : utilisation de la technologie HR-MAS pour l'étude de l'interaction protéine ligand / Molecular interactions study in complex systems by NMR

Viéville, Justine 14 March 2014 (has links)
La RMN est un outil analytique extrêmement puissant pour l’analyse quantitative et structurale, et est très utilisée en biologie structurale. C’est dans ce contexte que nous avons choisi d’étudier les interactions par RMN. Le premier système choisi est un système de polymères, les PEO. Ils sont caractérisés par plusieurs grandeurs physiques dont l’indice de polydispersité. Cet indice représente la distribution de taille d’une population de polymères. Nous avons développé une nouvelle méthode de diffusion par RMN, la DOSY afin d’accéder à cet indice : J. Viéville et al. / Journal of Magnetic Resonance 212 (2011)169–173 Le deuxième système complexe étudié est un type de molécules chimiques mimétiques de l’ADN, les PNA, acides nucléiques peptidiques. Les PNA possèdent des bases nucléiques leur permettant de former des liaisons avec l’ADN ou l’ARN. Nous avons montré par des analyses de RMN que les PNA en solution peuvent former des complexes très stables avec des températures de fusion élevées. Ces analyses RMN sont complétées par des analyses de dichroïsme circulaire.Afin de compléter notre panel d’études sur les interactions moléculaires par RMN, nous avons étudié les interactions protéine-ligand avec greffage de la protéine sur phase solide : J.M.P. Viéville et al. / Journal of Pharmaceutical and Biomedical Analysis 89 (2014) 18–23 / NMR is a powerfull technique we decided to extend to follow interactions in complex mixtures. First part is about polydispersity index of polymer which is an important physical parameter when working with polymers. We developed here a new method, based on PEO analysis, using diffusion experiments (DOSY) by NMR to assess the polydispersity index: J. Viéville et al. / Journal of Magnetic Resonance 212 (2011) 169–173. In a second time, we worked on peptidic nucleic acids, PNA. These chemicals molecules are designed to bind DNA or RNA for clinical studies. We studied PNA in solution, by NMR to showwhich kind of interactions they form on themselves. We found very stable complexes with high fusion temperatures. Circular dichroism measurements were helpful for fusion temperature determination and structural studies. To complete this panel, we were interested in the study of protein-ligand interaction. We developed a new way to follow them, using a grafted protein on a solid phase based on HR-MAS NMR technology: J.M.P. Viéville et al. / Journal of Pharmaceutical and Biomedical Analysis 89 (2014) 18–23
40

A novel method for the Approximation of risk of Blackout in operational conditions / Une nouvelle méthode pour le rapprochement des risques de "Blackout" dans des conditions opérationnelles

Urrego Agudelo, Lilliam 04 November 2016 (has links)
L'industrie de l'électricité peut être caractérisée par plusieurs risques: la réglementation, la capacité, l'erreur humaine, etc. L'un des aspects les plus remarquables, en raison de leur impact, est lié à ne pas répondre à la demande (DNS).Pour éviter les défaillances en cascade, des critères déterministes comme la N-1 ont été appliquées, ce qui permet d'éviter la défaillance initial. Après une défaillance en cascade, des efforts considérables doivent être faits pour analyser les défauts afin de minimiser la possibilité d'un événement similaire.En dépit de tous ces efforts, des blackouts peuvent encore se produire. En effet, il est un défi, en raison du grand nombre d'interactions possibles et de leur diversité et complexité, pour obtenir une bonne prédiction d'une situation.Dans notre travail, une nouvelle méthodologie est proposée pour estimer le risque de blackout en utilisant des modèles de systèmes complexes. Cette approche est basée sur l'utilisation de variables qui peuvent être des précurseurs d'un événement DNS. Il est basé sur l'étude de la dépendance ou de corrélation entre les variables impliquées dans le risque de blackout, et la caractéristique d’auto-organisation critique (SOC) des systèmes complexes.La VaR est calculé en utilisant les données du système colombien et le coût du rationnement, y compris les variables économiques dans les variables techniques. Traditionnellement le risque augmente avec la racine carrée du temps, mais avec des séries de données que présente un comportement complexe, le taux de croissance est plus élevé.Une fois que les conditions de SOC sont déterminées, un Model de Flux de Puissance Statistique SPFM a été exécuté pour simuler le comportement du système et de ses variables pour les performances du système électrique. Les simulations ont été comparées aux résultats du comportement de fonctionnement réel du système de puissance électrique.Le flux de puissance DC est un modèle simplifié, ce qui représente le phénomène complexe de façon simple, néglige cependant certains aspects des événements de fonctionnement du système qui peut se produire dans les blackouts. La représentation des défaillances en cascade et de l'évolution du réseau électrique dans un modèle simple, permet l'analyse des relations temporaires dans l'exploitation des réseaux électriques, en plus de l'interaction entre la fiabilité à court terme et à long terme (avec un réseau d'amélioration). Cette méthodologie est axée sur la planification opérationnelle du lendemain (jour d'avance sur le marché), mais il peut être appliqué à d'autres échelles de temps.Les résultats montrent que le comportement complexe avec une loi de puissance et l'indice de Hurst est supérieur à 0,5. Les simulations basées sur notre modèle ont le même comportement que le comportement réel du système.En utilisant la théorie de la complexité, les conditions SOC doivent être mis en place pour le marché analysé du lendemain. Ensuite, une simulation inverse est exécutée, où le point final de la simulation est la situation actuelle du système, et permet au système d'évoluer et de répondre aux conditions requises par la caractéristique d’auto-organisation critique en un point de fonctionnement souhaité.Après avoir simulé le critère de fiabilité utilisé dans l’exploitation du système électrique pour les défaillances en cascade, ils sont validés par des défaillances historiques obtenues à partir du système électrique. Ces résultats, permettent l'identification des lignes avec la plus grande probabilité de défaillance, la séquence des événements associés, et quelles simulations d'actions d’exploitation ou d'expansion, peuvent réduire le risque de défaillance du réseau de transmission.Les possibles avantages attendus pour le réseau électrique sont l'évaluation appropriée du risque du réseau, l'augmentation de la fiabilité du système, et un progrès de la planification du risque du lendemain et connaissance de la situation / The electricity industry can be characterized by several risks: regulatory, adequacy, human error, etc. One of the most outstanding aspects, because of their impact, is related to not supply demand (DNS).To prevent cascading failures, particularly in reliability studies, determinist criteria were applied, such as N-1, which allows to avoid the initial event of failure in the planning and operation of the system. In general, analysis tools for these preventive actions are applied separately for the planning and for the system operation of an electric power. After a cascading failure, considerable efforts must be done to analyze faults to minimize the possibility of a similar event.In spite of all these efforts, blackouts or large cascading failures still happen, although events are considered to be rare due to the efforts of the industry. Indeed, it is a challenge from the point of view of analysis and simulation, due to the large number of possible interactions and their diversity and complexity, to obtain a good prediction of a situation.In our work, a new methodology is proposed to estimate the blackout risk using complex systems models. This approach is based on the use of variables that can be precursors of a DNS event. In other terms, it is based on the study of the dependence or correlation between the variables involved in the blackout risk, and the self organized critically (SOC) property of complex systems.VaR is calculate using the data from the Colombian system and the cost of rationing, for estimate the cost of blackout including economic variables into the technical variables. In addition, traditionally the risk grows with the root square of the time, but with data series than has complex behavior, the rate of growing is higher.Once the SOC conditions are determined, a Statistical Power Flow Model SPFM was executed to simulate the behavior of the system and its variables for the performance of the electrical system. Simulations results were compared to the real operation behavior of the electrical power system.The DC power flow is a simplified model, which represents the complex phenomenon in a simple way, however neglects some aspects of the events of operation of the system that can happen in blackouts. The representation of cascading failures and evolution of the network in a simple model allows the analysis of the temporary relations in the operation of electrical networks, besides the interaction between reliability of short-term and long-term (with improvements network).. This methodology is focused on the operational planning of the following day (day ahead market), but it can be applied to other time scales.The results show that the complex behavior with a power law and the Hurst index is greater than 0.5. The simulations based on our model have the same behavior as the real behavior of the system.For using the complexity theory, the SOC conditions must be established for the day ahead analyzed market. Then an inverse simulation is executed, where the endpoint of the simulation is the current situation of the system, and allows the system to evolve and meet the requisites of criticality auto-organized in a desired point of operation.After simulating the criterion of reliability used in the operation of the electrical system for cascading failures, they are validated by historical failures obtained from the electrical system. These results, allow the identification of lines with the biggest probability to fail, the sequence of associate events, and what simulations of actions of operation or expansion, can reduce the risk of failures of the transmission network.The possible advantage expected for the electrical network are the appropriate evaluation of the risk of the network, the increase the reliability of the system (probabilistic analysis), and a progress of the planning of the risk of the day ahead (holistic analysis) and situational awareness

Page generated in 0.1115 seconds