Spelling suggestions: "subject:"automated"" "subject:"automate""
101 |
Algèbres de Kleene, réécriture modulo AC et circuits en coqBraibant, Thomas 17 February 2012 (has links) (PDF)
Cette thèse décrit trois travaux de formalisation en Coq. Le premier chapitre s'intéresse à l'implémentation d'une procédure de décision efficace pour les algèbres de Kleene, pour lesquelles le modèle des langages réguliers est initial : il est possible de décider la théorie équationelle des algèbres de Kleene via la construction et la comparaison d'automates finis. Le second chapitre est consacré à la définition de tactiques pour la réécriture modulo associativité et commutativité en utilisant deux composants : une procédure de décision réflexive pour l'égalité modulo AC, ainsi qu'un greffon OCaml implémentant le filtrage modulo AC. Le dernier chapitre esquisse une formalisation des circuits digitaux via un plongement profond utilisant les types dépendants de Coq ; on s'intéresse ensuite à prouver la correction totale de circuits paramétriques.
|
102 |
Commande d'une classe de systèmes hybrides par automates hybrides rectangulairesBatis, Sonia, Batis, Sonia 18 September 2013 (has links) (PDF)
Notre travail de recherche concerne l'étude de la commande à base de modèles pour une sous-classe de systèmes dynamiques hybrides (SDH). L'outil de modélisation choisi est l'automate hybride rectangulaire (AHR) pour sa puissance d'analyse. Nous proposons ainsi une méthode pour la synthèse de la commande des SDH modélisés par des AHR. Cette méthode repose sur l'application d'une procédure amont/aval de commande hors-ligne qui détermine d'une façon maximale permissive les nouvelles gardes de transition de l'automate respectant des spécifications de commande imposées par l'utilisateur. Tous les calculs réalisés reposent sur la détermination de la durée de séjour, valeur contrainte par l'espace atteignable du sommet correspondant. La garde portant à la fois sur l'état continu et sur l'événement discret, la commande se fait par ce dernier car il s'agit du seul élément contrôlable. Nous nous intéressons alors à la construction du contrôleur temporisé autorisant l'occurrence des événements contrôlables du système dans un intervalle d'horloge défini au sens de la maximale permissivité.
|
103 |
Les automates cellulaires en tant que modèle de complexités parallèlesMeunier, Pierre-etienne 26 October 2012 (has links) (PDF)
The intended goal of this manuscript is to build bridges between two definitions of complexity. One of them, called the algorithmic complexity is well-known to any computer scientist as the difficulty of performing some task such as sorting or optimizing the outcome of some system. The other one, etymologically closer from the word "complexity" is about what happens when many parts of a system are interacting together. Just as cells in a living body, producers and consumers in some non-planned economies or mathematicians exchanging ideas to prove theorems. On the algorithmic side, the main objects that we are going to use are two models of computations, one called communication protocols, and the other one circuits. Communication protocols are found everywhere in our world, they are the basic stone of almost any human collaboration and achievement. The definition we are going to use of communication reflects exactly this idea of collaboration. Our other model, circuits, are basically combinations of logical gates put together with electrical wires carrying binary values, They are ubiquitous in our everyday life, they are how computers compute, how cell phones make calls, yet the most basic questions about them remain widely open, how to build the most efficient circuits computing a given function, How to prove that some function does not have a circuit of a given size, For all but the most basic computations, the question of whether they can be computed by a very small circuit is still open. On the other hand, our main object of study, cellular automata, is a prototype of our second definition of complexity. What "does" a cellular automaton is exactly this definition, making simple agents evolve with interaction with a small neighborhood. The theory of cellular automata is related to other fields of mathematics, such as dynamical systems, symbolic dynamics, and topology. Several uses of cellular automata have been suggested, ranging from the simple application of them as a model of other biological or physical phenomena, to the more general study in the theory of computation.
|
104 |
Compositional verification of component-based real-time systems and applications / Vérification compositionnelle des systèmes temps-réel à base de composants et applicationsBen Rayana - Tekaya, Souha 04 November 2016 (has links)
Dans le cas des systèmes temps-réels, une difficulté majeure pour le développement d’une approche compositionnelle consiste au modèle synchrone du temps où les horloges des différents composants avancent simultanément.Cet aspect est, pourtant, difficile à considérer dans un cadre compositionnel.Nous proposons une méthode basée sur l’approche déductive et consistant à calculer d’une manière purement compositionnelle une sur-approximation de l’ensemble des états atteignables du système à travers un invariant.Ce dernier se compose d’invariants locaux propres aux composants, un invariantd’interaction caractérisant les interactions entre les composants. En plus, afin de considérer le modèle synchrone du temps, nous introduisons des horloges auxiliaires appelées « Horloges d’Histoire ». Elles permettent de générer des invariants supplémentaires permettant de détecter des relations induites par les synchronisations temporelles des différents composants. Appliqué à plusieurs exemples de systèmes, l’invariant s’est avéré souvent suffisamment fort avec une réduction importante de la complexité de vérification.Toutefois, puisque la méthode est basée sur une sur-approximation, des faux contre-exemples peuvent être générés. Nous avons complété la méthode avec un module destiné pour leur analyse.Au delà de son passage à l’échelle, la méthode est étendue pour la vérification uniforme des systèmes paramétrés, où certains composants sont identiques. La validité de la propriété peut être affirmée indépendamment de leur nombre.Cette méthode compositionnelle est implémentée dans l’outil RTD-Finder conçu pour la vérification des systèmes modélisés au langage BIP (Behavior-Interaction-Priority).Les résultats d’expérimentation montrent la réduction de la complexité de vérification en comparaison avec l’approche monolithique, surtout quand l’invariant global est en mesure de détecter la propriété d’intérêt. / The compositional Verification aims at breaking down the complexity of the verification task by relying on the separate analysis of the sub-components and inferring global properties of the system from their local properties.In the framework of real-time systems, one main obstacle for developing fully compositional methods is the synchronous model of time.We propose a verification method based on the deductive approach where the setof reachable states of the system is over-approximated by an invariant computedin a fully compositional manner. It comprises local component invariants andan interaction invariant characterizing the interactions between the components.In addition, we introduce auxiliary clocks, called history clocks which allow toautomatically generate new invariants capturing the constraints induced by thetime-synchronizations between the different components. We completed this com-positional invariant generation approach with a counterexample-based invariantenforcement module analyzing iteratively the generated counterexamples.Besides its scalability, the method can be extended to the uniform verification of parameterized timed systems.Our compositional verification method was implemented in the RTD-Finder tool.The experimental results show that the verification time for large systems is drastically reduced in comparison with exploration techniques, especially when the global invariant catches the safety property of interest.
|
105 |
Modélisation de l'interopérabilité d'objets communicants et de leur coopération : application à la domotique / Modeling of interoperability of communicating object their cooperation : implementation to home automationSartor, Fabien 05 July 2012 (has links)
Dans le cadre des évolutions du bâtiment, il est de plus en plus nécessaire d'interconnecter des objets communicants. Cette démarche est cependant freinée du fait de l'absence d'un protocole de communication standard. La maison intelligente n'est pas un nouveau concept, et l'automatisation de la maison est devenue un sujet de recherche à la mode ces dernières années. La problématique de cette thèse se focalise sur l'interopérabilité de systèmes communicants. Plus précisément, nous nous intéressons à la manière de créer une coopération entre différents dispositifs d'un environnement, afin de masquer la complexité à l'usager. Dans un premier temps, l'interopérabilité entre ces objets est réalisée par la mise en place d'un écosystème virtuel où les dispositifs peuvent communiquer leurs états ou l'état de l'environnement. C'est l'abstraction des systèmes. Dans ce mémoire, nous abordons comment et pourquoi les systèmes sont nécessairement abstraits lorsque l'on s'intéresse à la prise en compte du contexte de l'installation. L'étude de la prise en compte du contexte à permis de procurer les données scientifiques à l'entreprise Overkiz afin qu'elle puisse réaliser l'abstraction des dispositifs domotiques. Ensuite, la coopération entre les objets communicants est mise en œuvre par un outil mathématique permettant de modéliser le comportement d'un environnement composé d'actionneurs, de capteurs et d'interfaces utilisateurs. Le comportement est formalisé au moyen de la théorie des automates étendus et plus particulièrement par la théorie des systèmes de transitions symboliques à entrées/sorties (IOSTS). Nous synthétisons alors le pilotage par un "contrôleur" du comportement global d'une installation, à partir de règles de contraintes ou de règles d'action. / In the context of the building developments, it is increasing necessary to interconnect communicating objects. This approach is slow down because of the lack of a standard communication protocol. The smart home is not a new concept, and home automation has become a fashion research topic in recent years. The problem of this thesis focuses on the interoperability of communicating systems. Specifically, we focus on how to establish cooperation between different devices of an environment in order to hide the complexity to a user. Initially, interoperability between these objects is achieved by the establishment of a virtual ecosystem where devices can communicate their states or the state of the environment. It is the abstraction of systems. In this paper, we discuss how and why systems are necessarily abstract when we are interested in taking into consideration the context of the installation. The study of consideration of context allowed to provide scientific data to the company Overkiz in order to realize abstraction of home automation devices. Second, cooperation among communicating objects is implemented by a mathematical tool to model the behavior of an environment cibsustubg of actuators, sensors and user interfaces. The behavior is formalized using the automata theory and more specificaly the automaton theory of Input/Output Symbolic Transition Systems (IOSTS). We synthesize then how to synthetise a "controller" of a global behavior of an installation, from constraint rules or rules of action.
|
106 |
Gestion autonomique d'objets communicants dans le cadre des réseaux machine à machine sous des contraintes temporelles / Autonomic management of communicating objects in machine-to-machine systems operating under temporal constraintsGharbi, Ghada 08 November 2016 (has links)
La baisse des coûts de communication, l'amélioration de la performance des réseaux et l'évolution des plateformes de services dédiées permettant de gérer une multitude d'objets, a conduit à l'apparition de nouveaux usages et de nouvelles applications rassemblées sous l'appellation "Machine-à-Machine'' abrégée en M2M. Ce travail de thèse propose de répondre aux défis d'autogestion caractérisés par les récentes études de l'informatique autonomique. Il traite de la modélisation et de la validation des systèmes M2M opérant dans un contexte dynamique et sous un ensemble de propriétés structurelles et temporisées. Pour ce faire, nous proposons de nous appuyer sur les grammaires de graphes et des techniques de model checking. Dans un premier temps, nous nous sommes intéressés à la vérification au moment de la conception des communications M2M opérant sous des contraintes temporisées. Pour ce faire, nous avons proposé une approche de vérification formelle basée sur les techniques de model checking. Pour caractériser les entités M2M ainsi que leurs propriétés temporisées, un modèle formel basé sur les automates temporisés a été introduit. Étant donné que les systèmes M2M impliquent un grand nombre d'éléments, une approche de vérification partielle du système a été adoptée. La vérification au moment de la conception est une étape très importante, cependant elle n'est pas suffisante. En effet, les systèmes M2M sont hautement dynamiques et leur adaptation au moment de l'exécution est cruciale pour garantir leur bon fonctionnement. Dans un premier temps, nous nous sommes intéressés à la gestion des propriétés structurelles des systèmes M2M. Pour ce faire, nous nous sommes référés au standard européen smartM2M pour définir un style architectural décrivant les organisations acceptables du système. Afin de conduire des actions de reconfiguration dynamiques, nous nous sommes basés sur les grammaires de graphes et des règles de transformation de graphes. L'approche de reconfiguration proposée a été ensuite étendue pour prendre en compte les contraintes temporisées lors de la reconfiguration des systèmes M2M. Pour ce faire, nous avons caractérisé les systèmes M2M en trois couches : une couche application qui exprime les propriétés temporisées entre les applications M2M, une couche service pour décrire les composants nécessaires à l'exécution des applications et une couche infrastructure décrivant le déploiement de ces derniers sur une infrastructure physique. Des mécanismes de reconfiguration dynamique guidés par les contraintes temporisées ont été proposés et implémentés dans un gestionnaire autonomique qui interagit avec ces différentes couches. Son rôle est de superviser, de contrôler, et de garantir le comportement temporisé du système. / The decrease in communication costs, the improvement of networks performance and the evolution of the dedicated services platforms managing multiple objects, led to the appearance of new practices and applications gathered under the designation of Machine-to-Machine communications (M2M). M2M systems have to integrate in a coordinated way various devices and software modules such as sensors, actuators, displays, middleware, etc. M2M expansion gives rise to extensive data exploitation, effective routing and reasoning mechanisms for an appropriate decision making and a coordinated control in a predictive and reactive way. This work aims to meet self-management challenges characterized by recent studies of autonomic computing. It deals with the modeling and the validation of M2M systems operating in a dynamic context and under a set of functional and non-functional properties, specifically temporal ones. To do so, we propose to rely on graph grammars and model checking related techniques. This allows to configure and to reconfigure a set of communicating objects by considering a set of constraints. First, we were interested in the validation at design time of M2M communications operating under temporal constraints. A verification and validation approach based on timed automata was proposed. A smart grid scenario was developed to validate the proposed model. This step is necessary, however it is not sufficient. Indeed, M2M systems are dynamic and verification at run time is important. To validate the execution of an M2M system, we focused on in its functional and temporal aspects. We referred to the European standard smartM2M to define an architectural style for M2M systems. This standard was selected for the following reasons: (1) its independence of the application domain and the objects' communication technology, (2) its broad scope and (3) its deployment on industrial systems. To validate the M2M system' functionalities, a multi-model approach was proposed: a first model, named functional, representing a real-time view of M2M system and a second model, named formal, based on a graph grammar incorporating the concepts of the functional layer. To conduct dynamic reconfiguration actions, graph transformation rules have been defined. Bi-directional communication mechanisms have been set up to maintain coherence between the real system and its models. A smart metering use case was developed to validate the proposed approach. With the aim of validating temporal properties of an M2M system during its execution, this approach has been extended with new concepts. We have defined a three-layers based approach to describe the features and temporal properties of an M2M system: an application layer which incorporates the concepts defined in the formal layer of the previous approach with extensions to express temporal properties between applications M2M, a service layer to describe the necessary components to meet the specification of the upper layer and infrastructure layer describing their deployment. An autonomic manager interacts with these layers to supervise and control the temporal behavior of the system. These layers are part of the autonomic manager knowledge base. The autonomic manager architecture and dynamic reconfiguration mechanisms were detailed. An eHealth scenario has been designed to illustrate the proposed approach.
|
107 |
Parallélisation et optimisation d'un simulateur de morphogénèse d'organes. Application aux éléments du rein / Parallelization and optimization of an organ morphogenesis simulator. Application to the elements of the kidneyCaux, Jonathan 30 November 2012 (has links)
Depuis plusieurs dizaines d’années, la modélisation du vivant est un enjeu majeur qui nécessite de plus en plus de travaux dans le domaine de la simulation. En effet, elle ouvre la porte à toute une palette d’applications : l’aide à la décision en environnement et en écologie, l’aide à l’enseignement, l’aide à la décision pour les médecins, l’aide à la recherche de nouveaux traitements pharmaceutiques et la biologie dite « prédictive », etc. Avant de pouvoir aborder un problème, il est nécessaire de pouvoir modéliser de façon précise le système biologique concerné en précisant bien les questions auxquelles devra répondre le modèle. La manipulation et l’étude de systèmes complexes, les systèmes biologiques en étant l’archétype, pose, de façon générale, des problèmes de modélisation et de simulation. C’est dans ce contexte que la société Integrative BioComputing (IBC) développe depuis le début des années 2000 un prototype d’une Plateforme Générique de Modélisation et de Simulation (la PGMS) dont le but est de fournir un environnement pour modéliser et simuler plus simplement les processus et les fonctions biologiques d’un organisme complet avec les organes le composant. La PGMS étant une plateforme générique encore en phase de développement, elle ne possédait pas les performances nécessaires pour permettre de réaliser la modélisation et la simulation d’éléments importants dans des temps suffisamment courts. Il a donc été décidé, afin d’améliorer drastiquement les performances de la PGMS, de paralléliser et d’optimiser l’implémentation de celle-ci ; le but étant de permettre la modélisation et la simulation d’organes complets dans des temps acceptables. Le travail réalisé au cours de cette thèse a donc consisté à traiter différents aspects de la modélisation et de la simulation de systèmes biologiques afin d’accélérer les traitements de ceux-ci. Le traitement le plus gourmand en termes de temps de calcul lors de l’exécution de la PGMS, le calcul des champs physicochimiques, a ainsi fait l’objet d’une étude de faisabilité de sa parallélisation. Parmi les différentes architectures disponibles pour paralléliser une telle application, notre choix s’est porté sur l’utilisation de GPU (Graphical Processing Unit) à des fins de calculs généralistes aussi couramment appelé GPGPU (General-Purpose computation on Graphics Processing Units). Ce choix a été réalisé du fait, entre autres, du coût réduit du matériel et de sa très grande puissance de calcul brute qui en fait une des architectures de parallélisation les plus accessibles du marché. Les résultats de l’étude de faisabilité étant particulièrement concluant, la parallélisation du calcul des champs a ensuite été intégrée à la PGMS. En parallèle, nous avons également mené des travaux d’optimisations pour améliorer les performances séquentielles de la PGMS. Le résultat de ces travaux est une augmentation de la vitesse d’exécution d’un facteur 18,12x sur les simulations les plus longues (passant de 16 minutes pour la simulation non optimisée utilisant un seul cœur CPU à 53 secondes pour la version optimisée utilisant toujours un seul cœur CPU mais aussi un GPU GTX500). L’autre aspect majeur traité dans ces travaux a été d’améliorer les performances algorithmiques pour la simulation d’automates cellulaires en trois dimensions. En effet, ces derniers permettent aussi bien de simuler des comportements biologiques que d’implémenter des mécanismes de modélisation tels que les interactions multi-échelles. Le travail de recherche s’est essentiellement effectué sur des propositions algorithmiques originales afin d’améliorer les simulations réalisées par IBC sur la PGMS. L’accélération logicielle, à travers l’implémentation de l’algorithme Hash‑Life en trois dimensions, et la parallélisation à l’aide de GPGPU ont été étudiées de façon concomitante et ont abouti à des gains très significatifs en temps de calcul. / For some years, living matter modeling has been a major challenge which needs more and more research in the simulation field. Indeed, the use of models of living matter have multiple applications: decision making aid in environment or ecology, teaching tools, decision making aid for physician, research aid for new pharmaceutical treatment and “predictive” biology, etc. But before being able to tackle all these issues, the development of a correct model, able to give answer about specific questions, is needed. Working with complex systems –biologic system being the archetype of them– raises various modeling and simulation issues. It is in this context that the Integrative BioComputing (IBC) company have been elaborating, since the early 2000s, the prototype of a generic platform for modeling and simulation (PGMS). Its goal is to provide a platform used to easily model and simulate biological process of a full organism, including its organs. Since the PGMS was still in its development stage at the start of my PhD, the application performance prevented the modeling and simulation of large biological components in an acceptable time. Therefore, it has been decide to optimize and parallelize its computation to increase significantly the PGMS performances. The goal was to enable the use of the PGMS to model and simulate full organs in acceptable times. During my PhD, I had to work on various aspects of the modeling and simulation of biological systems to increase their process speed. Since the most costly process during the PGMS execution was the computation of chemical fields, I had to study the opportunity of parallelizing this process. Among the various hardware architectures available to parallelize this application, we chose to use graphical processing units for general purpose computation (GPGPUs). This choice was motivated, beside other reasons, by the low cost of the hardware compared to its massive computation power, making it one of the most affordable parallel architecture on the market. Since the results of the initial feasibility study were conclusive, the parallelization of the fields computation has been integrated into the PGMS. In parallel to this work, I also worked on optimizing the sequential performance of the application. All these works lead to an increase of the software performances achieving a speed-up of 18.12x for the longest simulation (from 16 minutes for the non-optimized version with one CPU core to 53 seconds for the optimized version, still using only one core on the CPU but also a GPU GTX500). The other major aspect of my work was to increase the algorithmic performances for the simulation of three-dimensional cellular automata. In fact, these automata allow the simulation of biological behavior as they can be used to implement various mechanisms of a model such as multi-scale interactions. The research work consisted mainly in proposing original algorithms to improve the simulation provided by IBC on the PGMS. The sequential speed increase, thanks to the three-dimensional Hash Life implementation, and the parallelization on GPGPU has been studied together and achieved major computation time improvement.
|
108 |
Algèbres de Kleene, réécriture modulo AC et circuits en coq / Kleene algebra, Rewriting modulo AC and Circuits in Coq.Braibant, Thomas 17 February 2012 (has links)
Cette thèse décrit trois travaux de formalisation en Coq. Le premier chapitre s'intéresse à l'implémentation d'une procédure de décision efficace pour les algèbres de Kleene, pour lesquelles le modèle des langages réguliers est initial : il est possible de décider la théorie équationelle des algèbres de Kleene via la construction et la comparaison d'automates finis. Le second chapitre est consacré à la définition de tactiques pour la réécriture modulo associativité et commutativité en utilisant deux composants : une procédure de décision réflexive pour l'égalité modulo AC, ainsi qu'un greffon OCaml implémentant le filtrage modulo AC. Le dernier chapitre esquisse une formalisation des circuits digitaux via un plongement profond utilisant les types dépendants de Coq ; on s'intéresse ensuite à prouver la correction totale de circuits paramétriques. / This thesis describe three formalisations in Coq. The first chapter is devoted to the implementation of an efficient decision procedure for Kleene algebras : as regular languages form the initial model of Kleene algebras, we can resort to finite automata algorithms to solve equations in an arbitrary Kleene algebra. The second chapter present a set of tools for rewriting modulo associativity and commutativity built using two components: a reflexive decision procedure for equality modulo AC and an OCaml plug-in for pattern matching modulo AC. The third chapter defines a deep-embedding of hardware circuits using dependent types that is used to model and prove the functional correctness of parametrised circuits.
|
109 |
Les automates cellulaires en tant que modèle de complexités parallèles / Cellular automata as a model of parallel complexitiesMeunier, Pierre-Etienne 26 October 2012 (has links)
The intended goal of this manuscript is to build bridges between two definitions of complexity. One of them, called the algorithmic complexity is well-known to any computer scientist as the difficulty of performing some task such as sorting or optimizing the outcome of some system. The other one, etymologically closer from the word "complexity" is about what happens when many parts of a system are interacting together. Just as cells in a living body, producers and consumers in some non-planned economies or mathematicians exchanging ideas to prove theorems. On the algorithmic side, the main objects that we are going to use are two models of computations, one called communication protocols, and the other one circuits. Communication protocols are found everywhere in our world, they are the basic stone of almost any human collaboration and achievement. The definition we are going to use of communication reflects exactly this idea of collaboration. Our other model, circuits, are basically combinations of logical gates put together with electrical wires carrying binary values, They are ubiquitous in our everyday life, they are how computers compute, how cell phones make calls, yet the most basic questions about them remain widely open, how to build the most efficient circuits computing a given function, How to prove that some function does not have a circuit of a given size, For all but the most basic computations, the question of whether they can be computed by a very small circuit is still open. On the other hand, our main object of study, cellular automata, is a prototype of our second definition of complexity. What "does" a cellular automaton is exactly this definition, making simple agents evolve with interaction with a small neighborhood. The theory of cellular automata is related to other fields of mathematics�� such as dynamical systems, symbolic dynamics, and topology. Several uses of cellular automata have been suggested, ranging from the simple application of them as a model of other biological or physical phenomena, to the more general study in the theory of computation. / The intended goal of this manuscript is to build bridges between two definitions of complexity. One of them, called the algorithmic complexity is well-known to any computer scientist as the difficulty of performing some task such as sorting or optimizing the outcome of some system. The other one, etymologically closer from the word "complexity" is about what happens when many parts of a system are interacting together. Just as cells in a living body, producers and consumers in some non-planned economies or mathematicians exchanging ideas to prove theorems. On the algorithmic side, the main objects that we are going to use are two models of computations, one called communication protocols, and the other one circuits. Communication protocols are found everywhere in our world, they are the basic stone of almost any human collaboration and achievement. The definition we are going to use of communication reflects exactly this idea of collaboration. Our other model, circuits, are basically combinations of logical gates put together with electrical wires carrying binary values, They are ubiquitous in our everyday life, they are how computers compute, how cell phones make calls, yet the most basic questions about them remain widely open, how to build the most efficient circuits computing a given function, How to prove that some function does not have a circuit of a given size, For all but the most basic computations, the question of whether they can be computed by a very small circuit is still open. On the other hand, our main object of study, cellular automata, is a prototype of our second definition of complexity. What "does" a cellular automaton is exactly this definition, making simple agents evolve with interaction with a small neighborhood. The theory of cellular automata is related to other fields of mathematics, such as dynamical systems, symbolic dynamics, and topology. Several uses of cellular automata have been suggested, ranging from the simple application of them as a model of other biological or physical phenomena, to the more general study in the theory of computation.
|
110 |
Commande d'une classe de systèmes hybrides par automates hybrides rectangulaires / Control of a class of hybrid systems by rectangular hybrid automataBatis, Sonia 18 September 2013 (has links)
Notre travail de recherche concerne l’étude de la commande à base de modèles pour une sous-classe de systèmes dynamiques hybrides (SDH). L’outil de modélisation choisi est l’automate hybride rectangulaire (AHR) pour sa puissance d’analyse. Nous proposons ainsi une méthode pour la synthèse de la commande des SDH modélisés par des AHR. Cette méthode repose sur l’application d’une procédure amont/aval de commande hors-ligne qui détermine d’une façon maximale permissive les nouvelles gardes de transition de l’automate respectant des spécifications de commande imposées par l’utilisateur. Tous les calculs réalisés reposent sur la détermination de la durée de séjour, valeur contrainte par l’espace atteignable du sommet correspondant. La garde portant à la fois sur l’état continu et sur l’événement discret, la commande se fait par ce dernier car il s’agit du seul élément contrôlable. Nous nous intéressons alors à la construction du contrôleur temporisé autorisant l’occurrence des événements contrôlables du système dans un intervalle d’horloge défini au sens de la maximale permissivité. / In this thesis, we study the control of a class of hybrid dynamic systems (HDS). The chosen modeling tool is the rectangular hybrid automaton (RHA) for his analysis power. We propose a method for the control synthesis of HDS modeled with RHA. This method consists on the application of a downstream/upstream offline control procedure that determines in a maximal permissive way the new automaton transition guards respecting the desired control specifications. All computations are based on the determination of the duration of stay, a value constrained by the reachable space of the corresponding location. Since the guard refers to both continuous state and discrete event, the control is made by the latter because it is the controllable element. Then we are interested in the construction of the timed controller authorizing the system controllable event occurrence in a clock interval defined in a maximal permissive way.
|
Page generated in 0.0637 seconds