• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 40
  • 26
  • 2
  • 1
  • Tagged with
  • 174
  • 174
  • 174
  • 75
  • 75
  • 74
  • 71
  • 70
  • 68
  • 42
  • 37
  • 37
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

A study to define an automatic model transformation approach based on semantic and syntactic comparisons / Etude d'une approche de transformation de modèles automatisée basée sur des comparaisons sémantique et syntaxique

Wang, Tiexin 10 December 2015 (has links)
Les modèles sont de plus en plus utilisés que ce soit pour la description d’un point de vue d’un système complexe ou pour l’échange d’information. Cependant, le partage d’information, le transfert d’information d’un modèle à un autre est aujourd’hui une problématique liée à l’interopérabilité des systèmes. Cette problématique peut être abordée selon trois approches : intégrée (tous les modèles identiques), unifiée (tous les modèles font référence à un modèle pivot), fédérée (pas de règles précises sur les modèles). Bien que des standards existent, ils sont rarement respectés avec rigueur. L’approche fédérée semble par conséquent l’approche la plus réaliste. Cependant, cette approche est complexe car les différents modèles, bien que comportant des concepts communs, peuvent avoir une structure et un vocabulaire très hétérogène pour décrire le même concept. Par conséquent, il faut identifier les concepts communs des différents modèles avant de définir les règles de transformation permettant de passer d’un format à un autre. Cette thèse propose une méthodologie permettant d’atteindre ces objectifs, elle se base d’une part sur la proposition d’un méta-méta-modèle permettant d’unifier la description de la structure des modèles, i.e. le méta-modèle, et d’autre part sur le calcul de distance entre chaque élément des modèles qui permettront de déduire les règles de transformation. Cette mesure de distance reflète la distance à la fois syntaxique, écritures différentes d’un même terme, ainsi que sémantique liée à l’utilisation de synonyme. La recherche de synonyme est basée sur l’utilisation de base de connaissance, représentée sous forme d’ontologie, tel que WordNet. / The models are increasingly used both for the description of a view of a complex system or for information exchange. However, to share the information, transferring information from one model to another is an issue related to the interoperability of systems now. This problem can be approached in three ways: integrated (all identical models), unified (all models refer to a pivot model), federated (no specific rules on the models). Although standards exist, they are rarely respected rigorously. The federated approach therefore seems to be the most realistic approach. However, because of the different models, this approach is complicated. Models can have a very heterogeneous structure and different vocabulary to describe the same concept. Therefore, we must identify the common concepts of different models before defining the transformation rules for transforming from one format to another. This thesis proposes a methodology to achieve these goals. It is partly based on the proposal of a meta-meta-model (to unify the description of the model structure), i.e. the meta-model, and secondly calculating the distance between each element of models to deduce the transformation rules. This distance reflecting both syntactic distance (words occurrence) and semantic relation that related to the synonymous. Researching synonym relation is based on the use of knowledge base, represented as ontology, such as WordNet.
112

Self-adaptation for Internet of things applications / Auto-adaptation pour les applications de l’Internet des objets

Acosta Padilla, Francisco Javier 12 December 2016 (has links)
L'Internet des Objets (IdO) couvre peu à peu tous les aspects de notre vie. À mesure que ces systèmes deviennent plus répandus, le besoin de gérer cette infrastructure complexe comporte plusieurs défis. En effet, beaucoup de petits appareils interconnectés fournissent maintenant plus d'un service dans plusieurs aspects de notre vie quotidienne, qui doivent être adaptés à de nouveaux contextes sans l'interruption de tels services. Cependant, ce nouveau système informatique diffère des systèmes classiques principalement sur le type, la taille physique et l'accès des nœuds. Ainsi, des méthodes typiques pour gérer la couche logicielle sur de grands systèmes distribués comme on fait traditionnellement ne peuvent pas être employées dans ce contexte. En effet, cela est dû aux capacités très différentes dans la puissance de calcul et la connectivité réseau, qui sont très contraintes pour les appareils de l'IdO. De plus, la complexité qui était auparavant gérée par des experts de plusieurs domaines, tels que les systèmes embarqués et les réseaux de capteurs sans fil (WSN), est maintenant accrue par la plus grande quantité et hétérogénéité des logiciels et du matériel des nœuds. Par conséquent, nous avons besoin de méthodes efficaces pour gérer la couche logicielle de ces systèmes, en tenant compte les ressources très limitées. Cette infrastructure matérielle sous-jacente pose de nouveaux défis dans la manière dont nous administrons la couche logicielle de ces systèmes. Ces défis peuvent entre divisés en : Intra-nœud, sur lequel nous faisons face à la mémoire limitée et à la puissance de calcul des nœuds IdO, afin de gérer les mises à jour sur ces appareils ; Inter-noeud, sur lequel une nouvelle façon de distribuer les mises à jour est nécessaire, en raison de la topologie réseau différente et le coût en énergie pour les appareils alimentés par batterie ; En effet, la puissance de calcul limitée et la durée de vie de chaque nœud combiné à la nature très distribuée de ces systèmes, ajoute de la complexité à la gestion de la couche logicielle distribuée. La reconfiguration logicielle des nœuds dans l'Internet des objets est une préoccupation majeure dans plusieurs domaines d'application. En particulier, la distribution du code pour fournir des nouvelles fonctionnalités ou mettre à jour le logiciel déjà installé afin de l'adapter aux nouvelles exigences, a un impact énorme sur la consommation d'énergie. La plupart des algorithmes actuels de diffusion du code sur l'air (OTA) sont destinés à diffuser un microprogramme complet à travers de petits fragments, et sont souvent mis en œuvre dans la couche réseau, ignorant ainsi toutes les informations de guidage de la couche applicative. Première contribution : Un moteur de modèles en temps d'exécution représentant une application de l'IdO en cours d'exécution sur les nœuds à ressources limitées. La transformation du méta-modèle Kevoree en code C pour répondre aux contraintes de mémoire spécifiques d'un dispositif IdO a été réalisée, ainsi que la proposition des outils de modélisation pour manipuler un modèle en temps d'exécution. Deuxième contribution : découplage en composants d'un système IdO ainsi qu'un algorithme de distribution de composants efficace. Le découplage en composants d'une application dans le contexte de l'IdO facilite sa représentation sur le modèle en temps d'exécution, alors qu'il fournit un moyen de changer facilement son comportement en ajoutant/supprimant des composants et de modifier leurs paramètres. En outre, un mécanisme pour distribuer ces composants en utilisant un nouvel algorithme appelé Calpulli est proposé. / The Internet of Things (IoT) is covering little by little every aspect on our lives. As these systems become more pervasive, the need of managing this complex infrastructure comes with several challenges. Indeed, plenty of small interconnected devices are now providing more than a service in several aspects of our everyday life, which need to be adapted to new contexts without the interruption of such services. However, this new computing system differs from classical Internet systems mainly on the type, physical size and access of the nodes. Thus, typical methods to manage the distributed software layer on large distributed systems as usual cannot be employed on this context. Indeed, this is due to the very different capacities on computing power and network connectivity, which are very constrained for IoT devices. Moreover, the complexity which was before managed by experts on several fields, such as embedded systems and Wireless Sensor Networks (WSN), is now increased by the larger quantity and heterogeneity of the node’s software and hardware. Therefore, we need efficient methods to manage the software layer of these systems, taking into account the very limited resources. This underlying hardware infrastructure raises new challenges in the way we administrate the software layer of these systems. These challenges can be divided into: intra-node, on which we face the limited memory and CPU of IoT nodes, in order to manage the software layer and ; inter-node, on which a new way to distribute the updates is needed, due to the different network topology and cost in energy for battery powered devices. Indeed, the limited computing power and battery life of each node combined with the very distributed nature of these systems, greatly adds complexity to the distributed software layer management. Software reconfiguration of nodes in the Internet of Things is a major concern for various application fields. In particular, distributing the code of updated or new software features to their final node destination in order to adapt it to new requirements, has a huge impact on energy consumption. Most current algorithms for disseminating code over the air (OTA) are meant to disseminate a complete firmware through small chunks and are often implemented at the network layer, thus ignoring all guiding information from the application layer. First contribution: A models@runtime engine able to represent an IoT running application on resource constrained nodes. The transformation of the Kevoree meta-model into C code to meet the specific memory constraints of an IoT device was performed, as well as the proposition of modelling tools to manipulate a model@runtime. Second contribution: Component decoupling of an IoT system as well as an efficient component distribution algorithm. Components decoupling of an application in the context of the IoT facilitates its representation on the model@runtime, while it provides a way to easily change its behaviour by adding/removing components and changing their parameters. In addition, a mechanism to distribute such components using a new algorithm, called Calpulli is proposed.
113

Proposition d’un cadre méthodologique pour le management de la continuité d’activité : application à la prise en charge à domicile / A proposition of a methodological framework for the Business Continuity Management : application to homecare

Rejeb, Olfa 02 December 2013 (has links)
Dans le contexte actuel, les technologies d'information et de communication sont reconnues comme un élément inévitable pour améliorer les pratiques métiers. Dans le secteur de la prise en charge à domicile, par exemple, elles sont un élément déterminant dans la faisabilité d'un tel service au patient. Cependant, ces organisations évoluent dans un environnement très dynamique et incertain. Au regard de ces perturbations endogènes et exogènes auxquelles sont confrontées les organisations, elles se doivent de réagir de manière agile aux aléas et faire preuve de résilience. Le management de la continuité d'activité (MCA) est une approche de management des organisations qui répond à ces attentes. C'est dans ce contexte que se situent nos travaux de thèse cofinancés par la région Midi-Pyrénées. Notre motivation est la définition d'un cadre méthodologique pour mettre en œuvre le management de la continuité d'activité au sein d'un système socio-technique, cadre qui soutiendrait une nouvelle démarche d'ingénierie d'entreprise dirigée par les modèles. Après avoir fait une synthèse des connaissances sur la théorie du management de la continuité d'activité, un problème de structuration de ces connaissances est formulé. Un cadre méthodologique pour le management de la continuité d'activité est ensuite proposé. Il repose sur (i) la définition et la conception d'un méta modèle de référence fondé sur l'intégration entre management de la continuité d'activité et ingénierie d'entreprise ; (ii) le développement d'un ensemble de matrices d'évaluation de la criticité destinés à soutenir l'analyse d'impact de MCA ; et enfin sur (iii) la définition d'un langage de modélisation étendu aux concepts de MCA. Un cas d'études du domaine de la prise en charge à domicile vient illustrer le bien-fondé de l'application de ce cadre méthodologique sur une base réelle et concrète. / In the present context, Information and Communication technologies are recognized as an inevitable element to improve business practices. Particularly in the home-care field in order to meet challenges of coordination and care continuity. However, these organizations operate in a highly dynamic and uncertain environment. In view of these endogenous and exogenous disruptions, they have to react in an agile way to face risks and to ensure their resilience. The Business Continuity Management (BCM) meets these expectations. Our motivation in this research work is to define a methodological framework to implement the business continuity management within a socio -technical system as an integral part of a new approach to model driven enterprise engineering. After delivering a synthesis of related work to Business Continuity Management, a research question concerning the structuring of this knowledge has been addressed. A methodological framework for business continuity management is then suggested. It is based on (i) the definition and the design of a meta-model integrating BCM and enterprise engineering, (ii) the development of a set criticality assessment matrix to support the business impact analysis, and finally on (iii) the definition of a modeling language adapted to concepts of BCM. A case study from the home-care sector illustrates the foundation of the methodological framework.
114

Facilités de typage pour l'ingénierie des langages / Typing facilities for language engineering

Guy, Clément 10 December 2013 (has links)
Le nombre et la complexité toujours croissants des préoccupations prises en compte dans les systèmes logiciels complexes (e.g., sécurité, IHM, scalabilité, préoccupations du domaine d'application) poussent les concepteurs de tels systèmes à séparer ces préoccupations afin de les traiter de manière indépendante. L'ingénierie dirigée par les modèles (IDM) prône la séparation des préoccupations au sein de langages de modélisation dédiés. Les langages de modélisation dédiés permettent de capitaliser le savoir et le savoir-faire associés à une préoccupation au travers des constructions du langage et des outils associés. Cependant la définition et l'outillage d'un langage dédié demande un effort de développement important pour un public par définition réduit. Nous proposons dans cette thèse une relation liant les modèles et une interface de modèle permettant de faciliter la mise en place de facilités de typage pour la définition et l'outillage d'un langage dédié. Cette interface expose les éléments de modèle et les transformations de modèles associés à un langage de modélisation dédié. Nous représentons une telle interface par un type de modèles supportant des relations de sous-typage et d'héritage. Dans ce but nous définissons : une relation de typage entre les modèles et les langages de modélisation dédiés permettant de considérer les modèles comme des entités de première classe ; des relations de sous-typage entre langages de modélisation dédiés permettant la réutilisation de la syntaxe abstraite et des transformations de modèles. / The ever growing number and complexity of concerns in software intensive systems (e.g., safety, HMI, scalability, business domain concerns, etc.) leads designers of such systems to separate these concerns to deal with them independently. Model-Driven Engineering (MDE) advocates the separation of concerns in Domain-Specific Modeling Languages (DSMLs). DSMLs are used to capitalize the knowledge and know-how associated with a concern through the language constructs and its associated tools. However, both definition and tooling of a DSML require a significant development effort for a limited audience. In this thesis, we propose a relationship between models and model interfaces in order to ease the design of typing facilities for the definition and tooling of a DSML. This interface exposes the model elements and model transformations associated with a DSML. We represent such an interface by a model type supporting subtyping and inheritance relationships. For this purpose we define : a typing relationship between models and DSMLs allowing to consider models as first-class entities; subtyping relationships between DSMLs enabling the reuse of abstract syntax and model transformations.
115

Utilisation de l'ingénierie dirigée par les modèles pour l'agrégation continue de données hétérogènes : application à la supervision de réseaux de gaz / Model-based Interoperability IoT Hub for the aggregation of data from heterogeneous systems : application to the Smart Gas Distribution Networks

Ahmed, Ahmed 17 December 2018 (has links)
Durant les dix dernières années, l'infrastructure informatique et l'infrastructure industrielle ont évolué de manière à passer de systèmes monolithiques à des systèmes hétérogènes, autonomes et largement distribués. Tous les systèmes ne peuvent pas coexister de manière isolée et exigent que leurs données soient partagées de manière à accroître la productivité de l'entreprise. En fait, nous progressons vers des systèmes complexes plus vastes où des millions des systèmes doivent être intégrés. Ainsi, l'exigence d'une solution d'interopérabilité peu coûteuse et rapide devient un besoin essentiel. Aujourd'hui, les solutions imposent les normes ou les middlewares pour gérer cette problématique. Cependant, ces solutions ne sont pas suffisantes et nécessitent souvent des développements ad-hoc spécifiques. Ainsi, ce travail propose l'étude et le développement d'une architecture d'interopérabilité générique, modulaire, agnostique et extensible basée sur des principes de l'architecture dirigée par les modèles et les concepts de la séparation de préoccupations. Il vise à promouvoir l'interopérabilité et l'échange de données entre les systèmes hétérogènes en temps réels sans obliger les systèmes à se conformer à des normes ou technologies spécifiques. La proposition s'applique à des cas d'usages industriels dans le contexte de réseau de distribution de gaz français. La validation théorique et empirique de notre proposition corrobore note hypothèses que l'interopérabilité entre les systèmes hétérogènes peut être atteinte en utilisant les concepts de la séparation de préoccupations et de l'ingénierie dirigée par les modèles et que le coût et le temps pour promouvoir l'interopérabilité est réduit en favorisant les caractéristiques de la réutilisabilité et de l'extensibilité. / Over the last decade, the information technology and industrial infrastructures have evolved from containing monolithic systems to heterogeneous, autonomous, and widely distributed systems. Most systems cannot coexist while completely isolated and need to share their data in order to increase business productivity. In fact, we are moving towards larger complex systems where millions of systems and applications need to be integrated. Thus, the requirement of an inexpensive and fast interoperability solution becomes an essential need. The existing solutions today impose standards or middleware to handle this issue. However, these solutions are not sufficient and often require specific ad-hoc developments. Thus, this work proposes the study and the development of a generic, modular, agnostic and extensible interoperability architecture based on modeling principles and software engineering aspects. It aims to promote interoperability and data exchange between heterogeneous systems in real time without requiring systems to comply with specific standards or technologies. The industrial use cases for this work takes place in the context of the French gas distribution network. The theoretical and empirical validation of our proposal corroborates assumptions that the interoperability between heterogeneous systems can be achieved by using the aspects of separation of concerns and model-driven engineering. The cost and time to promote the interoperability are also reduced by promoting the characteristics of re-usability and extensibility.
116

Modelom vođena semantička integracija poslovnih aplikacija / Model based semantic enterprise application integration

Vuković Željko 21 December 2019 (has links)
<p>U sklopu doktorske disertacije izvršeno je istraživanje vezano za<br />automatizaciju integracije poslovnih aplikacija. Prikazani pristup<br />kombinuje model strukture interfejsa aplikacija koje se integrišu sa<br />formalnim opisom njihove semantike, datim u vidu ontologije. Na<br />osnovu ovih izvora, obavlja se automatsko mapiranje među elementima<br />interfejsa koji se integrišu, kao i detekcija i razrešavanje<br />semantičkih konflikata. Razvijena je praktična implementacija<br />predloženog pristupa, koja je korišćena za verifikaciju teorijskih<br />razmatranja, a uključuje adaptivan radni okvir i jezik specifičan za<br />domen. Predloženi pristup je verifikovan na dva realna<br />integraciona scenarija i jednim eksperimentom.</p> / <p>This thesis presents a research in the field of automation of enterprise<br />application integration. The approach combines structural models of<br />interfaces of the applications being integrated with a formal specification of<br />their semantics, given in form of an ontology. Using information from these<br />sources, automated interface mapping is performed, along with detection and<br />resolution of semantic conflicts. A practical implementation of the presented<br />approach was developed and used to verify theoretical considerations. The<br />implementation includes an adaptive framework and a domain specific<br />language. The proposed approach has been verified on two real-world<br />integration scenarios and one experiment.</p>
117

Models and algorithms for managing quality of context and respect for privacy in the Internet of Things / Modèles et algorithmes pour la gestion de la qualité du contexte et de respect de la vie privée dans l'Internet des Objets

Machara Marquez, Samer 17 November 2015 (has links)
L’Internet des Objets (IdO) est un nouveau paradigme, dont l’idée de base est d’avoir un grand nombre d’objets de façon ubiquitaire. Ces objets sont capables d’interagir les uns avec les autres et de coopérer avec leurs voisins en partageant des données acquises directement en mesurant certains faits. Tout cela, afin d’atteindre des objectifs communs. Cette information ne représente pas seulement l’état des utilisateurs, mais aussi les processus dans lesquels ils sont impliqués, on appelle cela le Contexte. Le Contexte informe à la fois la reconnaissance et le mappage des opérations en fournissant une vue structurée et unifiée du monde dans lequel un système fonctionne.Avec l’IdO, de nombreuses applications récupèrent des informations de contexte concernant les utilisateurs (propriétaires de contexte) tels que, leurs habitudes, leurs comportements et leur «sentiment» (état de santé). Ceci, offre alors beaucoup d’avantages pour les utilisateurs, mais au dépend de leur intimité. La problématique de recherche de cette thèse se situe dans la vision orientée sémantique de l’IdO. Dans ce cadre, les technologies sémantiques jouent un rôle clé dans l’exploitation des solutions de modélisation parfaitement appropriée pour intégrer la notion de sécurité de la vie privée dans l’IdO. Les applications et services (consommateurs de contexte), qui sont sensibles au contexte, attendent des données de contexte correctes et fiables afin d’adapter leurs fonctionnalités. Dans cette thèse, la qualité de Contexte (QoC) est une métadonnée qui est associée aux informations de contexte. Elle décrit une série de critères exprimant la qualité de l’information de contexte. Ces métadonnées peuvent être utilisées pour déterminer la valeur de l’information pour une application particulière dans une situation particulière. Nous explorons des solutions intergicielles et des structures logiciels pour intégrer la gestion de la vie privée et QoC dans l’IdO.Cette thèse se distingue des autres recherches du domaine de la gestion de contexte et tient compte du découplage des participants IdO; à savoir, les propriétaires des informations de contexte et les consommateurs de ces informations de contexte. De plus, nous considérons la QoC comme un facteur affectant la vie privée des individus. Cette thèse fournit les contributions suivantes selon deux axes: Axe 1: Concevoir un contexte contrat méta-modèle pour définir la vie privée et QoC pour exprimer les préoccupations des propriétaires et consommateurs de contexte; basé sur la confiance réciproque, puisque les deux sont découplés. Cette conception est basée sur deux points : Premièrement, nous considérons que la vie privée est la capacité des propriétaires de contexte à contrôler quoi, comment, quand, où et avec qui partager des informations. Par conséquent, nous identifions quatre dimensions de la vie privée (le but, la visibilité, la rétention, la QoC), pour les utiliser au moment de la définition des politiques et des obligations d’accès. Deuxièmement, les consommateurs de contexte attendent un certain niveau de QoC afin d’accomplir leurs tâches. Nous proposons alors de définir deux types de contrat de contexte : le premier, pour la partie producteur et un second pour le côté du consommateur.Axe 2 : Proposer un algorithme pour créer des accords entre les producteurs et les consommateurs de contexte en évaluant et en comparant les exigences par rapport aux garanties indiquées sur leurs contrats de contexte respectives.Comme les deux participants de l’IdO ont des contrats symétriques, quand un participant définit ses besoins, l’autre définit ses garanties. Le processus de correspondance de ces contrats de contexte vérifie si les exigences de l’une des parties sont incluses dans les garanties offertes par l’autre partie.A partir de cette définition, nous avons conçu des algorithmes pour déterminer si l’accès et la consommation sont autorisés ou non, selon la correspondance des contrats de contexte / The Internet of Things (IoT) is a novel paradigm, which basic idea is the pervasive presence around us of a variety of things or objects that are able to interact with each other and cooperate with their neighbors by sharing data, directly acquired by measuring some facts, in order to reach common goals. This information not only represents the state of users but also the processes in which they are involved, this is called the Context. The context informs both recognition and mapping operations by providing a structured, unified view of the world in which a system operates. With the IoT, many applications consume context information concerning users (context owners) such as, daily routines, behaviors and health, offering lots of benefits to users, but compromising their privacy. The re-search problematic of this thesis lies within the “semantic-oriented” IoT vision. In this context, semantic technologies play a key role in exploiting appropriate modelling solutions for integrating privacy security into the IoT. Context-aware applications and services (context consumers) expect correct and reliable context data to adapt their functionalities. In this thesis the Quality of Context (QoC) is meta-data attached to context information describing a range of criteria that express context information quality. These meta-data can be used to determine the worth of the information for a particular application in a particular situation. We explore middleware and framework solutions to integrate the management of privacy and QoC in the IoT. This thesis is distinguished from other context management domain researches by bearing in mind the decoupling of the IoT participants, i.e., the owners of context information and the consumers of this context information. Moreover, we consider the QoC as a factor affecting the privacy of individuals. This thesis provides the following contributions along two axis: 1. Designing a Context Contract Meta-model to define privacy and QoC concerns of decoupled context owners and context consumers based on reciprocal trust. This design is based on two points. Firstly, we consider that privacy is the capacity of context owners to control what, how, when, where and with whom to share information. Therefore, we identify four privacy dimensions (purpose, visibility, retention, QoC), and use them in the definition of access policies and obligations. Secondly, context consumers expect a certain QoC level in order to perform their tasks. We then propose to define two kinds of context contract for the producer and the consumer sides as follows: Context producer contract: A context contract whose clauses are expressions of the production of context data, of privacy requirements, and of QoC guarantees; Context consumer contract: A context contract whose clauses are expressions of the consumption of context data, of QoC requirements, and of privacy guarantees. Each context contract is created without the knowledge of is counter party.2. Proposing an algorithm to create agreements among context producers and context consumers by evaluating and compare requirements against guarantees, stated on their respective context contracts. As both IoT participants have symmetric contracts, when one participant defines its requirements, the other one defines its guarantees. The matching process of these context contracts verifies if the requirements of one party are included within the guarantees offered by the other party. Therefore, taking a decision based on this compatibility match from the producer point of view is to permit or deny the access to context data. Complementarily, from a consumer point of view, the consumption of context data is permitted or denied. From this definition, we designed algorithms to determine whether access and consumption are authorized or not, according to the context contracts matching
118

Auto-Generating Models From Their Semantics and Constraints

Pati, Tanumoy 20 August 2013 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Domain-specific models powered using domain-specific modeling languages are traditionally created manually by modelers. There exist model intelligence techniques, such as constraint solvers and model guidance, which alleviate challenges associated with manually creating models, however parts of the modeling process are still manual. Moreover, state-of-the-art model intelligence techniques are---in essence---reactive (i.e., invoked by the modeler). This thesis therefore provides two contributions to model-driven engineering research using domain-specific modeling language (DSML). First, it discusses how DSML semantic and constraint can enable proactive modeling, which is a form of model intelligence that foresees model transformations, automatically executes these model transformations, and prompts the modeler for assistance when necessary. Secondly, this thesis shows how we integrated proactive modeling into the Generic Modeling environment (GME). Our experience using proactive modeling shows that it can reduce modeling effort by both automatically generating required model elements, and by guiding modelers to select what actions should be executed on the model.
119

Extraction of UML class diagrams from natural language specifications

Yang, Song 11 1900 (has links)
Dans l’ingénierie dirigée par modèle, les diagrammes de classes UML servent à la planification et à la communication entre les différents acteurs d’un projet logiciel. Dans ce mémoire, nous proposons une méthode automatique pour l’extraction des diagrammes de classes UML à partir de spécifications en langues naturelles. Pour développer notre méthode, nous créons un dépôt de diagrammes de classes UML et de leurs spécifications en anglais fournies par des bénévoles. Notre processus d’extraction se fait en plusieurs étapes: la segmentation des spécifications en phrases, la classification de ces phrases, la génération des fragments de diagrammes de classes UML à partir de chaque phrase, et la composition de ces fragments en un diagramme de classes UML. Nous avons validé notre approche d’extraction en utilisant le dépôt de paires diagramme-spécification. Même si les résultats obtenus montrent une précision et un rappel bas, notre travail a permis d’identifier les éléments qui peuvent être améliorés pour une meilleure extraction. / In model-driven engineering, UML class diagrams serve as a way to plan and communicate between developers. In this thesis, we propose an automated approach for the extraction of UML class diagrams from natural language software specifications. To develop our approach, we create a dataset of UML class diagrams and their English specifications with the help of volunteers. Our approach is a pipeline of steps consisting of the segmentation of the input into sentences, the classification of the sentences, the generation of UML class diagram fragments from sentences, and the composition of these fragments into one UML class diagram. We develop a quantitative testing framework specific to UML class diagram extraction. Our approach yields low precision and recall but serves as a benchmark for future research.
120

Toward C++ as a Platform for Language-Oriented Programming: On the Embedding of a Model-Based Real-Time Language

Prastowo, Tadeus 31 March 2020 (has links)
Cyber-physical systems are dynamic physical systems that are controlled by computers for their safe and sound operations (e.g., cars, satellites, robots, elevators, and many others). Consequently, the programs running cyber-physical systems have real-time requirements, which require the programs to compute not only correctly but also timely because dynamic physical systems need to move to correct positions within certain duration to ensure safe and sound operations. To satisfy real-time requirements in better ways, many real-time languages have been proposed in the literature. Nevertheless, the general-purpose non-real-time languages C and C++ have remained the de facto languages to program cyber-physical systems, including Mars rovers and F-35 jet fighters. Given this reality, the better ways to satisfy real-time requirements have been the use of model-based tools (e.g., MATLAB/Simulink) that allow cyber-physical systems to be designed by modeling and simulating them and the resulting models to be translated automatically to C programs. Model-based tools, however, leave the resulting C programs for manual integration with other C/C++ programs, such as legacy/third-party device drivers and libraries. Since manual integration could slip in some inconsistencies, which proved fatal in the maiden flight of Ariane-5 rocket, this work shows how the standard features of C++, which support active libraries, can be used to embed a model-based real-time language, called Tice, as a C++ active library that can be used to declaratively express models of real-time systems that are processable by off-the-shelf standard C++ compilers (e.g., GCC and Clang) that automatically not only translate the models into C/C++ programs but also check both the validity of the models and the consistency of the models with other C/C++ programs. Furthermore, being compilable by off-the-shelf standard C++ compilers also sets Tice apart from other real-time languages already proposed in the literature because the other languages require either their own special compilers/interpreters or non-standard C/C++ compilers. Consequently, while Tice itself either uses no C++ features that are unsuitable for cyber-physical systems (e.g., exception) or uses some in judicious manner (e.g., template instantiations to generate programs), Tice prevents no usage that is permitted by standard C++ compilers. Beside that, as C++ active libraries are indeed ordinary C++ libraries, C++ active libraries are seamlessly composable as ordinary C++ libraries, and therefore, as models play an increasingly important role in software engineering, this work shows the potential of C++ as a platform for language-oriented programming where different languages that express different kinds of models and are embedded as C++ active libraries could be composed seamlessly.

Page generated in 0.1764 seconds