• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 40
  • 26
  • 2
  • 1
  • Tagged with
  • 174
  • 174
  • 174
  • 75
  • 75
  • 74
  • 71
  • 70
  • 68
  • 42
  • 37
  • 37
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Conception dirigée par les modèles à l’aide de langages de modélisation hétérogènes : application aux profils UML / Model-driven engineering using heterogeneous modeling languages : application to UML profiles

Noyrit, Florian 25 October 2012 (has links)
Les divers intervenants qui décrivent, étudient et réalisent un système complexe ont besoin de points de vue adaptés à leurs préoccupations. Cependant, dans le contexte de l’Ingénierie Dirigée par les Modèles, les moyens pour définir et mettre en œuvre ces points de vue sont, soit trop rigides et inadaptées, soit totalement ad hoc. De plus, ces différents points de vue sont rarement indépendants les uns des autres. Dès lors, il faut s’attacher à identifier puis décrire les liens/les correspondances qui existent entre les points de vue pour enfin pouvoir vérifier que les réponses apportées par les différents intervenants constituent un tout cohérent.Les travaux exposés dans cette thèse permettent la définition de langages dédiés basés sur UML pour les points de vue. Pour cela, une méthode outillée qui analyse la sémantique des descriptions textuelles des concepts du domaine que l’on souhaite projeter sur UML est proposée afin de faciliter la définition de profils UML. Les résultats obtenus sur les cas d’études concrets étudiés sont encourageants et dépassent les résultats des outils existants. Pour définir des points de vue basés sur des profils UML, cette thèse propose une méthode qui permet au méthodologiste d’expliciter le point de vue voulu. Un outil génère ensuite l’outillage qui met en œuvre ce point de vue dans un environnement de modélisation ainsi que le langage dédié correspondant là où la pratique actuelle repose sur une mise en œuvre essentiellement manuelle.Pour assister l’identification des liens entre points de vue, cette thèse propose là aussi d’analyser la sémantique des descriptions textuelles des concepts des langages utilisés par les points de vue. Utilisée en complément des heuristiques syntaxiques existantes, l’approche proposée permet d’obtenir de bons résultats lorsque les terminologies des langages analysés sont éloignées. Un cadre théorique basé sur la théorie des catégories est proposé pour expliciter formellement les correspondances. Pour utiliser ce cadre, une catégorie pour les langages basés sur UML a été proposée. Afin de pouvoir également expliciter les correspondances entre les modèles issus de ces langages, la catégorie des ontologies OWL est utilisée. Une solution est proposée pour caractériser des correspondances plus complexes que la simple équivalence. Ce cadre théorique permet la définition formelle de relations complexes qui permettront de raisonner sur la cohérence de la description de l’architecture. Une fois la description de l’architecture intégrée en un tout en suivant les correspondances formalisées, la question de la cohérence est abordée. Les expérimentations faites sur un cas d’étude concret pour vérifier la cohérence à un niveau syntaxique donnent des résultats pratiques satisfaisants. Les expérimentations menées sur le même cas pour vérifier la cohérence à un niveau sémantique ne donnent pas de résultats pratiques satisfaisants. / The various stakeholders who describe study and implement a complex system require viewpoints that are dedicated to their concerns. However, in the context of Model-Driven Engineering, approaches to define and implement those viewpoints are either too rigid and inappropriate or completely ad hoc. In addition, those various viewpoints are rarely independent from each other. Therefore, we must strive to identify and describe the relationships/correspondences between the viewpoints in order to be able to verify that the parts of the solution given by the various stakeholders form a consistent whole.The work presented in this thesis provides a way to define dedicated languages based on UML for the viewpoints. For this, a method that analyzes the semantics of the textual descriptions of the concepts of the domain we want to map to UML has been implemented to facilitate the definition of UML profiles. The results we get on the concrete test cases we considered are encouraging and go beyond results of existing tools. To define a viewpoint based on some UML profiles, this thesis provides a method that lets the methodologist make explicit the viewpoint he/she wants. A tool can then generate the tooling that implements this viewpoint in a modeling environment together with the corresponding dedicated language while current practice is based on an implementation essentially manual.To assist the identification of relationships between the viewpoints, this thesis proposes again to analyze the semantics of textual descriptions of concepts of the languages used by the viewpoints. Used in combination with existing syntactic heuristics, the proposed approach provides good results when the terminologies of the languages that are analyzed are far apart. A theoretical framework based on category theory is provided to make explicit formally correspondences. To use this framework, a category for languages based on UML has been proposed. To be able to make explicit the correspondences between the models of those languages as well, the category of OWL ontologies is used. A solution is proposed to characterize correspondences that are more complex than the simple equivalence relationship. This theoretical framework provides a way to define formally complex relationships that can be used to verify the consistency of the architectural description. Once the description of the architecture has been integrated according to the formal correspondences, the issue of consistency is considered. The experiments carried out on a concrete test case to verify consistency on a syntactic perspective give satisfactory practical results. The experiments carried on the same test case to verify consistency on a semantic perspective don’t give satisfactory practical results.
162

Model-based Synthesis of Distributed Real-time Automotive Architectures / Synthèse basée sur les modèles d’architectures automobiles temps réel distribuées

Woźniak, Ernest 07 July 2014 (has links)
Les solutions basées sur le logiciel/matériel jouent un rôle important dans le domaine de l'automobile. Il est de plus en plus fréquent que l’implémentation de certaines fonctions jusqu’ici réalisées par des composants mécaniques, se fasse dans les véhicules d’aujourd’hui par des composants électroniques embarquant du logiciel. Cette tendance conduit à un grand nombre de fonctions implémentées comme un ensemble de composants logiciels déployés sur unités de commande électronique (ECU). Par conséquent, la quantité de code embarqué dans les automobiles est estimée à des dizaines de giga-octets et le nombre d’ECU de l’ordre de la centaine. Les pratiques actuelles de développement deviennent donc inefficaces et sont en cours d’évolution. L'objectif de cette thèse est de contribuer aux efforts actuels qui consistent à introduire l’utilisation de l'Ingénierie Dirigée par les Modèles dans la conception d’architectures automobiles basées sur le logiciel/matériel. Une première série de contributions de cette thèse porte sur la proposition de techniques pour soutenir les activités décrites dans la méthodologie automobile établie par le langage EAST-ADL2 et le standard AUTOSAR dont l’objectif principal est l'intégration de l'architecture logicielle avec la plate-forme matérielle. Bien que de nombreux travaux sur la synthèse d’architectures existent, cette thèse met en exergue les principaux défauts les empêchant de pleinement supporter la méthodologie EAST-ADL2/AUTOSAR et propose de nouvelles techniques aidant à surmonter les déficiences actuelles. Une deuxième série de contributions concerne les approches de modélisation. L'utilisation de langages de modélisation généralistes (dans le sens non spécifique à un domaine industriel donné) comme SysML et MARTE bien que bénéfique, n'a pas encore trouvé une manière d'être pleinement exploité par les constructeurs automobiles. Cela concerne en particulier la modélisation d’une spécification analysable et l'optimisation des préoccupations qui permettrait d’effectuer des analyses et optimisations à base de modèles. Ce travail définit une méthodologie et les concepts nécessaires à la construction de modèles d'analyse et d'optimisation de ces systèmes. / Hardware/software based solutions play significant role in the automotive domain. It is common that the implementation of certain functions that was done in a mechanical manner, in nowadays cars is done through the software and hardware. This tendency lead to the substantial number of functions operating as a set of software components deployed into hardware entities, i.e. Electronic Control Units (ECU). As a consequence the capacity of the overall code is estimated as tens of gigabytes and the number of ECUs reaches more than 100. Consequently the industrial state of the practice development approaches become inefficient. The objective of this thesis is to add to the current efforts trying to employ the Model Driven Engineering (MDE) in the context of the automotive SW/HW architectures design. First set of contributions relates to the guided strategies supporting the key engineering activities of the automotive methodology established by the EAST-\ADL2 language and the AUTOSAR standard. The main is the integration of the software architecture with the hardware platform. Although the amount of work on the synthesis is substantial, this thesis presents shortcomings of the existing approaches that disable them to fully support the EAST-ADL2/AUTOSAR methodology and delivers new techniques overcoming the current deficiencies. Second contribution concerns approaches for the modeling. Surprisingly the usage of general purpose modeling languages such as the SysML and MARTE although beneficial, haven’t found its way yet to be fully exploited by the automotive OEMs (Original Equipment Manufacturer). This especially relates to the modeling of the analyzable input and the optimization concerns which would enable triggering of the analysis and optimization directly from the models level. This work shows a way and defines additional concepts, necessary to construct analysis and optimization models.
163

Techniques d'analyse et d'optimisation pour la synthèse architecturale de systèmes temps réel embarqués distribués : problèmes de placement, de partitionnement et d'ordonnancement / Analysis and optimization techniques for the architectural synthesis of real time embedded and distributed systems

Mehiaoui, Asma 16 June 2014 (has links)
Dans le cadre industriel et académique, les méthodologies de développement logiciel exploitent de plus en plus le concept de “modèle” afin d’appréhender la complexité des systèmes temps réel critiques. En particulier, celles-ci définissent une étape dans laquelle un modèle fonctionnel, conçu comme un graphe de blocs fonctionnels communiquant via des échanges de signaux de données, est déployé sur un modèle de plateforme d’exécution matérielle et un modèle de plateforme d’exécution logicielle composé de tâches et de messages. Cette étape appelée étape de déploiement, permet d’établir une architecture opérationnelle du système nécessitant une validation des propriétés temporelles du système. Dans le contexte des systèmes temps réel dirigés par les évènements, la vérification des propriétés temporelles est réalisée à l’aide de l’analyse d’ordonnançabilité basée sur l’analyse des temps de réponse. Chaque choix de déploiement effectué a un impact essentiel sur la validité et la qualité du système. Néanmoins, les méthodologies existantes n’offrent pas de support permettant de guider le concepteur d’applications durant l’exploration de l’espace des architectures possibles. L’objectif de ces travaux de thèse consiste à mettre en place des techniques d’analyse et de synthèse automatiques permettant de guider le concepteur vers une architecture opérationnelle valide et optimisée par rapport aux performances du système. Notre proposition est dédiée à l’exploration de l’espace des architectures en tenant compte à la fois des quatre degrés de liberté déterminés durant la phase de déploiement, à savoir (j) le placement des éléments fonctionnels sur les éléments de calcul et de communication de la plateforme d’exécution, (ii) le partitionnement des éléments fonctionnels en tâches temps réel et des signaux de données en messages, (iii) l’affectation de priorités d’exécution aux tâches et aux messages du système et (iv) l’attribution du mécanisme de protection des données partagées pour les systèmes temps réel périodiques. Nous nous intéressons principalement à la satisfaction des contraintes temporelles et celles liées aux capacités des ressources de la plateforme cible. De plus, nous considérons l’optimisation des latences de bout-en-bout et la consommation mémoire. Les approches d’exploration architecturale présentées dans cette thèse sont basées sur la technique d’optimisation PLNE (programmation linéaire en nombres entiers) et concernent à la fois les applications activées périodiquement et celles dont l’activation est pilotée par les données. Contrairement à de nombreuses approches antérieures fournissant une solution partielle au problème de déploiement, les méthodes proposées considèrent l’ensemble du problème de déploiement. Les approches proposées dans cette thèse sont évaluées à l’aide d’applications génériques et industrielles. / Modern development methodologies from the industry and the academia exploit more and more the ”model” concept to address the complexity of critical real-time systems. These methodologies define a key stage in which the functional model, designed as a network of function blocks communicating through exchanged data signals, is deployed onto a hardware execution platform model and implemented in a software model consisting of a set of tasks and messages. This stage so-called deployment stage allows establishment of an operational architecture of the system, thus it requires evaluation and validation of the temporal properties of the system. In the context of event-driven real-time systems, the verification of temporal properties is performed using the schedulability analysis based on the response time analysis. Each deployment choice has an essential impact on the validity and the quality of the system. However, the existing methodologies do not provide supportto guide the designer of applications in the exploration of the operational architectures space. The objective of this thesis is to develop techniques for analysis and automatic synthesis of a valid operational architecture optimized with respect to the system performances. Our proposition is dedicated to the exploration of architectures space considering at the same time the four degrees of freedom determined during the deployment phase, (i) the placement of functional elements on the computing and communication resources of the execution platform, (ii) the partitioning of function elements into real time tasks and data signals into messages, (iii) the priority assignment to system tasks and messages and (iv) the assignment of shared data protection mechanism for periodic real-time systems. We are mainly interested in meeting temporal constraints and memory capacity of the target platform. In addition, we are focusing on the optimization of end-to-end latency and memory consumption. The design space exploration approaches presented in this thesis are based on the MILP (Mixed Integer Linear programming) optimization technique and concern at the same time time-driven and data-driven applications. Unlike many earlier approaches providing a partial solution to the deployment problem, our methods consider the whole deployment problem. The proposed approaches in this thesis are evaluated using both synthetic and industrial applications.
164

Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis management

Fertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
165

Évolution et transformation automatisée de modèles de systèmes d’information : une approche guidée par l’analyse formelle de concepts et l’analyse relationnelle de concepts / Evolution and Transformation automated models Information Systems

Osman Guedi, Abdoulkader 10 July 2013 (has links)
L'évolution rapide des besoins dus entre autres à l'innovation technique, la concurrence ou la réglementation conduit souvent à décrire le cadre d'étude des systèmes d'information dans des modèles conceptuels, pour faciliter l'évolution du fonctionnement des systèmes. La mise au point de ces modèles s'effectue en plusieurs phase au cours desquelles collaborent plusieurs équipes de nature différente, chaque intervenant apportant sa perception du système à construire en se limitant à la partie de son domaine de spécialisation. Il faut alors concilier les différentes perceptions. L'objectif essentiel de la thèse est de concevoir les mécanismes permettant d'une part d'obtenir le modèle factorisant les concepts communs à plusieurs modèles et, d'autre part, de proposer aux concepteurs une méthodologie de suivi de l'évolution de la factorisation. Pour réaliser la factorisation, nous avons mis en œuvre l'Analyse Formelle de Concepts et l'Analyse Relationnelle de Concepts (ARC) qui sont des méthodes d'analyse de données basées sur la théorie des treillis. Dans un ensemble d'entités décrites par des caractéristiques, les deux méthodes extraient des concepts formels qui associent un ensemble maximal d'entités à un ensemble maximal de caractéristiques partagées. Ces concepts formels sont structurés dans un ordre partiel de spécialisation qui les munit d'une structure de treillis. L'ARC permet de compléter la description des entités par des relations entre entités. La première contribution de la thèse est une méthode d'analyse de l'évolution de la factorisation d'un modèle basée sur l'AFC et l'ARC. Cette méthode s'appuie la capacité de l'AFC et de l'ARC à faire émerger au sein d'un modèle des abstractions thématiques de niveau supérieur, améliorant ainsi la sémantique des modèles. Nous montrons que ces méthodes peuvent aussi être employées pour suivre l'évolution du processus d'analyse avec des acteurs. Nous introduisons des métriques sur les éléments de modélisation et sur les treillis de concepts qui servent de base à l'élaboration de recommandations. Nous effectuons une expérimentation dans laquelle nous étudions l'évolution des 15 versions du modèle de classes du système d'information SIE-Pesticides. La seconde contribution de la thèse est une étude approfondie du comportement de l'ARC sur des modèles UML. Nous montrons l'influence de la structure des modèles sur différentes variables étudiées (comme les temps d'exécution et la mémoire occupée) au travers de plusieurs expérimentations sur les 15 versions du modèle SIE-Pesticides. Pour cela, nous étudions plusieurs configurations (choix d'éléments et de relations dans le méta-modèle) et plusieurs paramètres (choix d'utiliser les éléments non nommés, choix d'utiliser la navigabilité). Des métriques sont introduites pour guider le concepteur dans le pilotage du processus de factorisation et des recommandations sur les configurations et paramétrages à privilégier sont faites. La dernière contribution est une approche de factorisation inter-modèles afin de regrouper au sein d'un modèle l'ensemble des concepts communs à différents modèles sources conçus par différents experts. Outre le regroupement des concepts communs, cette analyse produit de nouvelles abstractions généralisant des concepts thématiques existants. Nous appliquons notre approche sur les 15 versions du modèle du SIE-Pesticides. L'ensemble de ces travaux s'inscrit dans un cadre de recherche dont l'objectif est de factoriser des concepts thématiques au sein d'un même modèle et de contrôler par des métriques la profusion de concepts produits par l'AFC et surtout par l'ARC. / The rapidly changing needs among other things due to technical innovation, competition and regulation often leads to describe the context for the study of conceptual models in information systems to facilitate the evolution of operating systems. The development of these models is carried out in several phases during which several working teams of different nature, providing each participant's perception of the system to be built is limited to the part of his area of specialization. It must then reconcile the different perceptions.The main objective of the thesis is to design mechanisms to obtain a share of the model factoring concepts common to several models and, secondly, to provide designers with a methodology for monitoring the evolution of factorization.To perform the factorization, we have implemented the Formal Concept Analysis and Relational Concepts Analysis (RCA), which are methods of analysis based on the theory of lattice data. In a set of entities described by features, both methods extract formal concepts that combine a maximum of entities to a maximum set of shared characteristics together. These formal concepts are structured in a partial order of specialization that provides with a lattice structure.The CRA can complement the description of the entities by relationships between entities.The first contribution of the thesis is a textbf {method a model for analyzing the evolution of the factorization based on the FCA and the RCA}. This method builds the capacity of the AFC and the CRA to emerge in a model of thematic abstractions higher level, improving semantic models. We show that these methods can also be used to monitor the analytical process with stakeholders. We introduce metrics on the design elements and the concept lattices which are the basis for the development of recommendations. We conduct an experiment in which we study the evolution of the 15 versions of the model class of information-Pesticides EIS system.The second contribution of this thesis is a textbf {depth study of the behavior of the RCA on UML models.} We show the influence of model structure on different variables studied (such as execution time and memory used) through several experiments on 15 versions of the EIS-Pesticides model. For this, we study several configurations (choice of elements and relations in the meta-model) and several parameters (choice of using unnamed elements, choice of using airworthiness). Metrics are introduced to guide the designer in managing the process of factoring and recommendations on the preferred configurations and settings are made.The last contribution is a textbf {approach to inter-model factorization} to group in a model all the concepts common to different source models designed by different experts. In addition to the consolidation of common concepts, this analysis produces new abstractions generalizing existing thematic concepts. We apply our approach on 15 versions of the model EIS-Pesticides.All this work is part of a research framework which aims to factor thematic concepts within a model and control metrics by the profusion of concepts produced by the FCA and especially by RCA.
166

Modélisation centrée utilisateur final appliquée à la conception d'applications intéractives en géographie : une démarche basée sur les contenus et les usages / End-user modelling applied to the design of interactive applications in geography : an approach based on the contents and the uses

Luong, The Nhan 12 December 2012 (has links)
Le point de départ de cette thèse a pour origine les difficultés constatées dans la communauté EIAH pour concevoir des applications éducatives exploitant des informations géographiques. A terme, il s'agit de proposer une nouvelle plateforme susceptible de rendre possible et opérationnel la conception d'applications Web géographiques portées par des utilisateurs non-informaticiens de façon autonome. La proposition scientifique est basée sur un processus de conception piloté par les contenus et par les interactions. Il est opérationnalisé dans une plateforme nommée WINDMash offrant aux concepteurs un environnement visuel de spécification et d'évaluation des interactions. Nous proposons un modèle unifié sous-jacent de description des applications Web géographiques comportant trois facettes qui permettent de représenter les contenus géographiques manipulés, de les afficher sur une interface graphique et de décrire le comportement de l’application (scénario d’interaction) à l'aide d'un langage visuel dont le formalisme graphique est inspiré du diagramme de séquence UML. En utilisant des techniques d'Ingénierie Dirigée par les Modèles, la plateforme WINDMash permet de générer automatiquement le code de l'application finale sur la base des instances de trois facettes du modèle unifié. La plateforme WINDMash utilise pour cela l’API WIND (Web INteraction Design) que nous avons programmée. Les concepteurs peuvent ainsi prototyper rapidement des applications Web géographiques correspondant à leurs besoins. / The starting point of this thesis is to deal with the difficulties encountered in the TEL community for designing educational applications exploiting geographic information. Ultimately, it is to provide a new framework allowing for the operational design of geographic Web applications for experts in the domain (and particularly for teachers). The scientific proposal is based on a design process driven by contents and interaction. It is operationalized on a framework called WINDMash offering designers a visual environment for simply specifying and immediately evaluating interactions. The unified model for describing geographic Web applications has three parts: one for representing geographic contents, one for displaying them on a graphical user interface (GUI) and one for describing the behaviour of the application using a visual language whose graphical formalism is based on the UML diagram sequence. Using Model-Driven Engineering (MDE) techniques, the WINDMash framework can automatically generate the code of the final application based on the instances of three parts of the unified model. The WINDMash framework used for this the WIND API (Web INteraction Design) that we programmed. Designers can thus rapidly prototype geographic Web applications corresponding to their needs.
167

Methods and tools for the integration of formal verification in domain-specific languages / Méthodes et outils pour l’intégration de la vérification formelle pour les langages dédiés

Zalila, Faiez 09 December 2014 (has links)
Les langages dédiés de modélisation (DSMLs) sont de plus en plus utilisés dans les phases amont du développement des systèmes complexes, en particulier pour les systèmes critiques embarqués. L’objectif est de pouvoir raisonner très tôt dans le développement sur ces modèles et, notamment, de conduire des activités de vérification et validation (V and V). Une technique très utilisée est la vérification des modèles comportementaux par exploration exhaustive (model-checking) en utilisant une sémantique de traduction pour construire un modèle formel à partir des modèles métiers pour réutiliser les outils performants disponibles pour les modèles formels. Définir cette sémantique de traduction, exprimer les propriétés formelles à vérifier et analyser les résultats nécessite une expertise dans les méthodes formelles qui freine leur adoption et peut rebuter les concepteurs. Il est donc nécessaire de construire pour chaque DSML, une chaîne d’outils qui masque les aspects formels aux utilisateurs. L’objectif de cette thèse est de faciliter le développement de telles chaînes de vérification. Notre contribution inclut 1) l’expression des propriétés comportementales au niveau métier en s’appuyant sur TOCL (Temporal Object Constraint Language), une extension temporelle du langage OCL; 2) la transformation automatique de ces propriétés en propriétés formelles en réutilisant les éléments clés de la sémantique de traduction; 3) la remontée des résultats de vérification grâce à une transformation d’ordre supérieur et un langage de description de correspondance entre le domaine métier et le domaine formel et 4) le processus associé de mise en oeuvre. Notre approche a été validée par l’expérimentation sur un sous-ensemble du langage de modélisation de processus de développement SPEM, et sur le langage de commande d’automates programmables Ladder Diagram, ainsi que par l’intégration d’un langage formel intermédiaire (FIACRE) dans la chaîne outillée de vérification. Ce dernier point permet de réduire l’écart sémantique entre les DSMLs et les domaines formels. / Domain specific Modeling Languages (DSMLs) are increasingly used at the early phases in the development of complex systems, in particular, for safety critical systems. The goal is to be able to reason early in the development on these models and, in particular, to fulfill verification and validation activities (V and V). A widely used technique is the exhaustive behavioral model verification using model-checking by providing a translational semantics to build a formal model from DSML conforming models in order to reuse powerful tools available for this formal domain. Defining a translational semantics, expressing formal properties to be assessed and analysing such verification results require such an expertise in formal methods that it restricts their adoption and may discourage the designers. It is thus necessary to build for each DSML, a toolchain which hides formal aspects for DSML end-users. The goal of this thesis consists in easing the development of such verification toolchains. Our contribution includes 1) expressing behavioral properties in the DSML level by relying on TOCL (Temporal Object Constraint Language), a temporal extension of OCL; 2) An automated transformation of these properties on formal properties while reusing the key elements of the translational semantics; 3) the feedback of verification results thanks to a higher-order transformation and a language which defines mappings between DSML and formal levels; 4) the associated process implementation. Our approach was validated by the experimentation on a subset of the development process modeling language SPEM, and on Ladder Diagram language used to specify programmable logic controllers (PLCs), and by the integration of a formal intermediate language (FIACRE) in the verification toolchain. This last point allows to reduce the semantic gap between DSMLs and formal domains.
168

R2MDD : um framework para rastreabilidade e monitoramento de requisitos com foco no desenvolvimento dirigido a modelos

Rezende, Izabella Cristine Oliveira 18 August 2016 (has links)
The Model Driven Development (MDD) promotes the use of models to generate software solutions, in which models are the primary development artifact. In recent years, studies in software engineering area (ES) have been intensified and several solutions, definitions, methods and structures are being generated. However, this paradigm, as it is considered by some authors, has not been effectively used, as the ES covers various aspects, and not everyone is prepared for MDD. The Requirements Engineering (RE) is highlighted in this scenario, since it comprises the initial phase of the development process and the product generated must meet the requirements set out in that time. Once the code ceases to be the focus of development in the context of MDD, it is necessary to identify whether the requirements defined at the beginning of the project while under transformation remain faithful as well as the allocated elements to each requirement at all stages and possible impacts in case of change. In this context, it is important to introduce the concepts of traceability requirements in MDD. Thus, this work presents the R2MDD, a framework which aims to monitor and track requirements for the transformation of models to the generation of source code. The R2MDD seeks to identify impacts, ensure the consistency of requirements and other characteristics, as well as generate information management level, benefiting all stakeholders. An experimental study was conducted with the assistance of Qualitas model at the University Hospital of the Federal University of Sergipe (HU - UFS) to assess the R2MDD, highlighting its advantages and limitations. / O Model Driven Development (MDD) promove o uso de modelos na geração de soluções de software, na qual os modelos são o artefato principal do desenvolvimento. Nos últimos anos, estudos na área de Engenharia de Software (ES) tem sido intensificados e diversas soluções, definições, métodos e estruturas estão sendo geradas. Entretanto, esse paradigma, como é considerado por alguns autores, ainda não é utilizado de forma efetiva, visto que a ES abrange diversos aspectos e nem todos estão preparados para o MDD. A Engenharia de Requisitos (ER) ganha destaque nesse cenário, pois compreende a fase inicial do processo de desenvolvimento e o produto gerado deve atender aos requisitos definidos nesse momento. Uma vez que o código deixa de ser o foco do desenvolvimento no contexto de MDD, surge a necessidade de identificar se os requisitos definidos no início do projeto, ao serem transformados, mantém-se fieis, bem como identificar os elementos alocados a cada requisito em todas as fases e possíveis impactos em caso de alteração. Nesse contexto, torna-se importante introduzir os conceitos da rastreabilidade de requisitos em MDD. Dessa forma, este trabalho apresenta o R2MDD, um framework que visa monitorar e rastrear requisitos durante as transformações de modelos até a geração de código fonte. O R2MDD busca identificar impactos, garantir a consistência dos requisitos e demais características, bem como gerar informações a nível gerencial, que beneficiam todos os stakeholders. Um caso exemplo foi realizado com o auxílio do modelo Qualitas no Hospital Universitário da Universidade Federal de Sergipe (HU – UFS) a fim de avaliar o R2MDD, destacar suas vantagens e identificar suas limitações.
169

Gerência de Interfaces para Sistemas de Informação: uma abordagem baseada em modelos / Interfaces Management to Information Systems: an models based approach

SILVA, Wilane Carlos da 16 April 2010 (has links)
Made available in DSpace on 2014-07-29T14:57:53Z (GMT). No. of bitstreams: 1 wilane_mestrado.pdf: 4461079 bytes, checksum: da62fa9aebf506f095f41942a579aecc (MD5) Previous issue date: 2010-04-16 / Building and maintaining a Graphical User Interface (GUI) for Enterprise Information Systems usually requires much Software Engineering staff time and effort. This paper describes a model-driven approach to create dynamically and manage these GUIs. In this approach, the Software Engineer designs conceptual models of the information system using object-oriented meta-models. A set of predefined mapping rules is applied to automatically transform and refine the conceptual models in order to generate, in runtime, the look and feel of the GUI, without source code creation. This improves the software usability, assuring consistency and homogeneity of the GUI, increases the productivity of the software engineering staff and simplifies maintenance. In our experiments we have observed an average productivity fifteen times higher than traditional methods of GUI development. / Construir e manter uma Interface Gráfica com Usuário (GUI) para Sistemas de Informação (SI) demanda muito tempo e esforço da equipe de Engenharia de Software. Esta dissertação descreve uma abordagem dirigida por modelos para criar dinamicamente e gerenciar essas interfaces. Nessa abordagem, o Engenheiro de Software projeta um modelo conceitual do sistema de informação usando um meta-modelo orientado a objetos. Um conjunto de regras de mapeamento predefinidas é aplicado para refinar e transformar o modelo conceitual do SI, gerando, em tempo de execução, a sua interface gráfica, com aparência e comportamentos específicos. Esse mecanismo melhora a usabilidade do software, assegurando consistência e homogeneidade das GUIs, aumenta a produtividade da equipe de Engenharia de Software e simplifica a manutenção do SI. Nos experimentos realizados foi observada uma média de produtividade quinze vezes maior do que os métodos tradicionais no desenvolvimento de GUIs.
170

CONSTRUÇÃO AUTOMATIZADA DE CASOS DE TESTE USANDO ENGENHARIA DIRIGIDA POR MODELOS / CONSTRUCTION OF AUTOMATIC TEST CASES USING ENGINEERING ADDRESSED BY MODEL

SOUSA, Helaine Cristina Silva 14 May 2009 (has links)
Made available in DSpace on 2016-08-17T14:53:02Z (GMT). No. of bitstreams: 1 Helaine_Cristina_Silva_Sousa.pdf: 2630560 bytes, checksum: fb46a7db2abe38334d4a7e684f39c287 (MD5) Previous issue date: 2009-05-14 / FUNDAÇÃO DE AMPARO À PESQUISA E AO DESENVOLVIMENTO CIENTIFICO E TECNOLÓGICO DO MARANHÃO / The emergence of model driven approaches provides a new alternative for managing the complexity involved in the creation of test cases, for enhancing the automation of software testing and for promoting the broad reuse of models developed during the analysis of requirements and design of software. In addition, it reduces the injection of errors and software development time. However, in the use of model driven approaches, possible errors can be injected during the manual creation of transformation rules applyied to develop a software system. In this dissertation, we propose metamodels for test, a methodology and a framework called Automatic Test Case based on Models (ATCM) in order to generate test cases to test the source code generated by an model driven approach. A prototype of the framework ATCM was developed, providing tools that minimize the injection of errors during the generation of test cases, making this task less dependent on people and less error-prone reducing the development time and providing high quality and efficiency of test cases. / O surgimento das Abordagens Dirigidas por Modelos fornece uma nova alternativa para o gerenciamento da complexidade do desenvolvimento de software, para criação de testes de software, para automação dos processos de testes e para fornecimento da ampla reutilização de modelos desenvolvidos durante a fase de análise dos requisitos e projeto de software, reduzindo a possível injeção de erros e o tempo de desenvolvimento do software. No entanto, com a utilização das Abordagens Dirigidas por Modelos, possíveis erros podem ser injetados na criação das regras de transformação para implementar um determinado sistema de software. Propõe-se neste trabalho metamodelos de testes, uma metodologia e um framework ATCM (Automatic Test Case based on Models) com a finalidade de gerar casos de teste a fim de testar o código-fonte gerado por uma Abordagem Dirigida por Modelos. Um protótipo do framework ATCM foi desenvolvido, fornecendo ferramentas que minimizam a injeção de erros durante a geração dos casos de teste, tornando esta tarefa menos dependente de pessoas e menos propensa a erros reduzindo o tempo de desenvolvimento e provendo maior qualidade e eficiência nos casos de teste gerados.

Page generated in 0.0485 seconds