• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 40
  • 26
  • 2
  • 1
  • Tagged with
  • 174
  • 174
  • 174
  • 75
  • 75
  • 74
  • 71
  • 70
  • 68
  • 42
  • 37
  • 37
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

A study to define an automatic model transformation approach based on semantic and syntactic comparisons / Etude d'une approche de transformation de modèles automatisée basée sur des comparaisons sémantique et syntaxique

Wang, Tiexin 10 December 2015 (has links)
Les modèles sont de plus en plus utilisés que ce soit pour la description d’un point de vue d’un système complexe ou pour l’échange d’information. Cependant, le partage d’information, le transfert d’information d’un modèle à un autre est aujourd’hui une problématique liée à l’interopérabilité des systèmes. Cette problématique peut être abordée selon trois approches : intégrée (tous les modèles identiques), unifiée (tous les modèles font référence à un modèle pivot), fédérée (pas de règles précises sur les modèles). Bien que des standards existent, ils sont rarement respectés avec rigueur. L’approche fédérée semble par conséquent l’approche la plus réaliste. Cependant, cette approche est complexe car les différents modèles, bien que comportant des concepts communs, peuvent avoir une structure et un vocabulaire très hétérogène pour décrire le même concept. Par conséquent, il faut identifier les concepts communs des différents modèles avant de définir les règles de transformation permettant de passer d’un format à un autre. Cette thèse propose une méthodologie permettant d’atteindre ces objectifs, elle se base d’une part sur la proposition d’un méta-méta-modèle permettant d’unifier la description de la structure des modèles, i.e. le méta-modèle, et d’autre part sur le calcul de distance entre chaque élément des modèles qui permettront de déduire les règles de transformation. Cette mesure de distance reflète la distance à la fois syntaxique, écritures différentes d’un même terme, ainsi que sémantique liée à l’utilisation de synonyme. La recherche de synonyme est basée sur l’utilisation de base de connaissance, représentée sous forme d’ontologie, tel que WordNet. / The models are increasingly used both for the description of a view of a complex system or for information exchange. However, to share the information, transferring information from one model to another is an issue related to the interoperability of systems now. This problem can be approached in three ways: integrated (all identical models), unified (all models refer to a pivot model), federated (no specific rules on the models). Although standards exist, they are rarely respected rigorously. The federated approach therefore seems to be the most realistic approach. However, because of the different models, this approach is complicated. Models can have a very heterogeneous structure and different vocabulary to describe the same concept. Therefore, we must identify the common concepts of different models before defining the transformation rules for transforming from one format to another. This thesis proposes a methodology to achieve these goals. It is partly based on the proposal of a meta-meta-model (to unify the description of the model structure), i.e. the meta-model, and secondly calculating the distance between each element of models to deduce the transformation rules. This distance reflecting both syntactic distance (words occurrence) and semantic relation that related to the synonymous. Researching synonym relation is based on the use of knowledge base, represented as ontology, such as WordNet.
112

Self-adaptation for Internet of things applications / Auto-adaptation pour les applications de l’Internet des objets

Acosta Padilla, Francisco Javier 12 December 2016 (has links)
L'Internet des Objets (IdO) couvre peu à peu tous les aspects de notre vie. À mesure que ces systèmes deviennent plus répandus, le besoin de gérer cette infrastructure complexe comporte plusieurs défis. En effet, beaucoup de petits appareils interconnectés fournissent maintenant plus d'un service dans plusieurs aspects de notre vie quotidienne, qui doivent être adaptés à de nouveaux contextes sans l'interruption de tels services. Cependant, ce nouveau système informatique diffère des systèmes classiques principalement sur le type, la taille physique et l'accès des nœuds. Ainsi, des méthodes typiques pour gérer la couche logicielle sur de grands systèmes distribués comme on fait traditionnellement ne peuvent pas être employées dans ce contexte. En effet, cela est dû aux capacités très différentes dans la puissance de calcul et la connectivité réseau, qui sont très contraintes pour les appareils de l'IdO. De plus, la complexité qui était auparavant gérée par des experts de plusieurs domaines, tels que les systèmes embarqués et les réseaux de capteurs sans fil (WSN), est maintenant accrue par la plus grande quantité et hétérogénéité des logiciels et du matériel des nœuds. Par conséquent, nous avons besoin de méthodes efficaces pour gérer la couche logicielle de ces systèmes, en tenant compte les ressources très limitées. Cette infrastructure matérielle sous-jacente pose de nouveaux défis dans la manière dont nous administrons la couche logicielle de ces systèmes. Ces défis peuvent entre divisés en : Intra-nœud, sur lequel nous faisons face à la mémoire limitée et à la puissance de calcul des nœuds IdO, afin de gérer les mises à jour sur ces appareils ; Inter-noeud, sur lequel une nouvelle façon de distribuer les mises à jour est nécessaire, en raison de la topologie réseau différente et le coût en énergie pour les appareils alimentés par batterie ; En effet, la puissance de calcul limitée et la durée de vie de chaque nœud combiné à la nature très distribuée de ces systèmes, ajoute de la complexité à la gestion de la couche logicielle distribuée. La reconfiguration logicielle des nœuds dans l'Internet des objets est une préoccupation majeure dans plusieurs domaines d'application. En particulier, la distribution du code pour fournir des nouvelles fonctionnalités ou mettre à jour le logiciel déjà installé afin de l'adapter aux nouvelles exigences, a un impact énorme sur la consommation d'énergie. La plupart des algorithmes actuels de diffusion du code sur l'air (OTA) sont destinés à diffuser un microprogramme complet à travers de petits fragments, et sont souvent mis en œuvre dans la couche réseau, ignorant ainsi toutes les informations de guidage de la couche applicative. Première contribution : Un moteur de modèles en temps d'exécution représentant une application de l'IdO en cours d'exécution sur les nœuds à ressources limitées. La transformation du méta-modèle Kevoree en code C pour répondre aux contraintes de mémoire spécifiques d'un dispositif IdO a été réalisée, ainsi que la proposition des outils de modélisation pour manipuler un modèle en temps d'exécution. Deuxième contribution : découplage en composants d'un système IdO ainsi qu'un algorithme de distribution de composants efficace. Le découplage en composants d'une application dans le contexte de l'IdO facilite sa représentation sur le modèle en temps d'exécution, alors qu'il fournit un moyen de changer facilement son comportement en ajoutant/supprimant des composants et de modifier leurs paramètres. En outre, un mécanisme pour distribuer ces composants en utilisant un nouvel algorithme appelé Calpulli est proposé. / The Internet of Things (IoT) is covering little by little every aspect on our lives. As these systems become more pervasive, the need of managing this complex infrastructure comes with several challenges. Indeed, plenty of small interconnected devices are now providing more than a service in several aspects of our everyday life, which need to be adapted to new contexts without the interruption of such services. However, this new computing system differs from classical Internet systems mainly on the type, physical size and access of the nodes. Thus, typical methods to manage the distributed software layer on large distributed systems as usual cannot be employed on this context. Indeed, this is due to the very different capacities on computing power and network connectivity, which are very constrained for IoT devices. Moreover, the complexity which was before managed by experts on several fields, such as embedded systems and Wireless Sensor Networks (WSN), is now increased by the larger quantity and heterogeneity of the node’s software and hardware. Therefore, we need efficient methods to manage the software layer of these systems, taking into account the very limited resources. This underlying hardware infrastructure raises new challenges in the way we administrate the software layer of these systems. These challenges can be divided into: intra-node, on which we face the limited memory and CPU of IoT nodes, in order to manage the software layer and ; inter-node, on which a new way to distribute the updates is needed, due to the different network topology and cost in energy for battery powered devices. Indeed, the limited computing power and battery life of each node combined with the very distributed nature of these systems, greatly adds complexity to the distributed software layer management. Software reconfiguration of nodes in the Internet of Things is a major concern for various application fields. In particular, distributing the code of updated or new software features to their final node destination in order to adapt it to new requirements, has a huge impact on energy consumption. Most current algorithms for disseminating code over the air (OTA) are meant to disseminate a complete firmware through small chunks and are often implemented at the network layer, thus ignoring all guiding information from the application layer. First contribution: A models@runtime engine able to represent an IoT running application on resource constrained nodes. The transformation of the Kevoree meta-model into C code to meet the specific memory constraints of an IoT device was performed, as well as the proposition of modelling tools to manipulate a model@runtime. Second contribution: Component decoupling of an IoT system as well as an efficient component distribution algorithm. Components decoupling of an application in the context of the IoT facilitates its representation on the model@runtime, while it provides a way to easily change its behaviour by adding/removing components and changing their parameters. In addition, a mechanism to distribute such components using a new algorithm, called Calpulli is proposed.
113

Proposition d’un cadre méthodologique pour le management de la continuité d’activité : application à la prise en charge à domicile / A proposition of a methodological framework for the Business Continuity Management : application to homecare

Rejeb, Olfa 02 December 2013 (has links)
Dans le contexte actuel, les technologies d'information et de communication sont reconnues comme un élément inévitable pour améliorer les pratiques métiers. Dans le secteur de la prise en charge à domicile, par exemple, elles sont un élément déterminant dans la faisabilité d'un tel service au patient. Cependant, ces organisations évoluent dans un environnement très dynamique et incertain. Au regard de ces perturbations endogènes et exogènes auxquelles sont confrontées les organisations, elles se doivent de réagir de manière agile aux aléas et faire preuve de résilience. Le management de la continuité d'activité (MCA) est une approche de management des organisations qui répond à ces attentes. C'est dans ce contexte que se situent nos travaux de thèse cofinancés par la région Midi-Pyrénées. Notre motivation est la définition d'un cadre méthodologique pour mettre en œuvre le management de la continuité d'activité au sein d'un système socio-technique, cadre qui soutiendrait une nouvelle démarche d'ingénierie d'entreprise dirigée par les modèles. Après avoir fait une synthèse des connaissances sur la théorie du management de la continuité d'activité, un problème de structuration de ces connaissances est formulé. Un cadre méthodologique pour le management de la continuité d'activité est ensuite proposé. Il repose sur (i) la définition et la conception d'un méta modèle de référence fondé sur l'intégration entre management de la continuité d'activité et ingénierie d'entreprise ; (ii) le développement d'un ensemble de matrices d'évaluation de la criticité destinés à soutenir l'analyse d'impact de MCA ; et enfin sur (iii) la définition d'un langage de modélisation étendu aux concepts de MCA. Un cas d'études du domaine de la prise en charge à domicile vient illustrer le bien-fondé de l'application de ce cadre méthodologique sur une base réelle et concrète. / In the present context, Information and Communication technologies are recognized as an inevitable element to improve business practices. Particularly in the home-care field in order to meet challenges of coordination and care continuity. However, these organizations operate in a highly dynamic and uncertain environment. In view of these endogenous and exogenous disruptions, they have to react in an agile way to face risks and to ensure their resilience. The Business Continuity Management (BCM) meets these expectations. Our motivation in this research work is to define a methodological framework to implement the business continuity management within a socio -technical system as an integral part of a new approach to model driven enterprise engineering. After delivering a synthesis of related work to Business Continuity Management, a research question concerning the structuring of this knowledge has been addressed. A methodological framework for business continuity management is then suggested. It is based on (i) the definition and the design of a meta-model integrating BCM and enterprise engineering, (ii) the development of a set criticality assessment matrix to support the business impact analysis, and finally on (iii) the definition of a modeling language adapted to concepts of BCM. A case study from the home-care sector illustrates the foundation of the methodological framework.
114

Facilités de typage pour l'ingénierie des langages / Typing facilities for language engineering

Guy, Clément 10 December 2013 (has links)
Le nombre et la complexité toujours croissants des préoccupations prises en compte dans les systèmes logiciels complexes (e.g., sécurité, IHM, scalabilité, préoccupations du domaine d'application) poussent les concepteurs de tels systèmes à séparer ces préoccupations afin de les traiter de manière indépendante. L'ingénierie dirigée par les modèles (IDM) prône la séparation des préoccupations au sein de langages de modélisation dédiés. Les langages de modélisation dédiés permettent de capitaliser le savoir et le savoir-faire associés à une préoccupation au travers des constructions du langage et des outils associés. Cependant la définition et l'outillage d'un langage dédié demande un effort de développement important pour un public par définition réduit. Nous proposons dans cette thèse une relation liant les modèles et une interface de modèle permettant de faciliter la mise en place de facilités de typage pour la définition et l'outillage d'un langage dédié. Cette interface expose les éléments de modèle et les transformations de modèles associés à un langage de modélisation dédié. Nous représentons une telle interface par un type de modèles supportant des relations de sous-typage et d'héritage. Dans ce but nous définissons : une relation de typage entre les modèles et les langages de modélisation dédiés permettant de considérer les modèles comme des entités de première classe ; des relations de sous-typage entre langages de modélisation dédiés permettant la réutilisation de la syntaxe abstraite et des transformations de modèles. / The ever growing number and complexity of concerns in software intensive systems (e.g., safety, HMI, scalability, business domain concerns, etc.) leads designers of such systems to separate these concerns to deal with them independently. Model-Driven Engineering (MDE) advocates the separation of concerns in Domain-Specific Modeling Languages (DSMLs). DSMLs are used to capitalize the knowledge and know-how associated with a concern through the language constructs and its associated tools. However, both definition and tooling of a DSML require a significant development effort for a limited audience. In this thesis, we propose a relationship between models and model interfaces in order to ease the design of typing facilities for the definition and tooling of a DSML. This interface exposes the model elements and model transformations associated with a DSML. We represent such an interface by a model type supporting subtyping and inheritance relationships. For this purpose we define : a typing relationship between models and DSMLs allowing to consider models as first-class entities; subtyping relationships between DSMLs enabling the reuse of abstract syntax and model transformations.
115

Adapting Interaction Obtrusiveness: Making Ubiquitous Interactions Less Obnoxious. A Model Driven Engineering approach

Gil Pascual, Miriam 02 September 2013 (has links)
La Computaci'on Ubicua plantea proveer de inteligencia a nuestros entornos ofreciendo servicios a los usuarios que permitan ayudarlos en su vida cotidiana. Con la inclusi'on de dispositivos ubicuos en nuestra vida (por ejemplo los dispositivos m'oviles), los usuarios hemos pasado a estar siempre conectados al entorno, pudiendo interactuar con el. Sin embargo, a diferencia de las interacciones de escritorio tradicionales donde los usuarios eran quienes ped'¿an informaci'on o introduc'¿an datos, las interacciones ubicuas tienen que lidiar con un entorno de los usuarios variable, demandando uno de los recursos mas valiosos para los usuarios: la atenci'on humana. De esta forma, un reto en el paradigma de computaci'on ubicua es regular las peticiones de atenci'on del usuario. Esto implica que las interacciones de los servicios deber'¿an comportarse de una manera ¿considerada¿ teniendo en cuenta el grado en que cada servicio se inmiscuye en la mente del usuario (el nivel de molestia). Partiendo de las bases de la Ingenier'¿a Dirigida por Modelos (MDE) y de los principios de la Computaci'on Considerada, esta tesis se orienta a dise¿nar y desarrollar servicios que sean capaces de adaptar sus interacciones de acuerdo a la atenci'on del usuario en cada momento. El principal objetivo de esta tesis es introducir capacidades de adaptaci'on considerada en los servicios ubicuos para proporcionar interacciones que no perturben al usuario. Esto lo conseguimos mediante un proceso de desarrollo que cubre desde el dise¿no de los servicios hasta su implementaci'on, centr'andose en los requisitos de adaptaci'on de la interacci'on particulares para cada usuario. Para el dise¿no del comportamiento de la interacci'on en base al nivel de molestia se han de¿nido unos modelos de intromisi'on e interacci'on independientes de la tecnolog'¿a. Estos modelos son los que posteriormente conducen la adaptaci'on de la interacci'on din'amicamente, por medio de una infraestructura aut'onoma que los usa en tiempo de ejecuci'on. Esta infraestructura es capaz de detectar cambios en la situaci'on del usuario (por ejemplo cambios en su localizaci'on, su actividad, etc.) y planear y ejecutar modi¿caciones en la interacci'on de los servicios. Cuando se detecta un cambio del contexto del usuario, los servicios se auto-adaptan para usar los componentes de interacci'on m'as apropiados de acuerdo a la nueva situaci'on y no molestar al usuario. Adem'as, como las necesidades y preferencias de los usuarios pueden cambiar con el tiempo, nuestra aproximaci'on utiliza la estrategia del aprendizaje por refuerzo para ajustar los modelos de dise¿no iniciales de forma que maximicemos la experiencia del usuario. El dise¿no inicial de la interacci'on basado en el nivel de molestia nos asegura un comportamiento inicial consistente con las necesidades de los usuarios en ese momento. Luego, este dise¿no se va re¿nando de acuerdo al comportamiento y preferencias de cada usuario por medio de su retroalimentaci'on a trav'es de la experiencia de uso. Adem'as, tambi'en proporcionamos una interfaz m'ovil que permite a los usuarios ¿nales personalizarse de forma manual los modelos en base a sus propias preferencias. El trabajo presentado en esta tesis se ha llevado a la pr'actica para su evaluaci'on desde el punto de vista de los dise¿nadores y de los usuarios ¿nales. Por una parte, el m'etodo de dise¿no se ha validado para comprobar que ayuda a los dise¿nadores a especi¿car este tipo de servicios. Pese a que el proceso de desarrollo no ofrece una automatizaci'on completa, las gu'¿as ofrecidas y la formalizaci'on de los conceptos implicados ha demostrado ser 'util a la hora de desarrollar servicios cuya interacci'on es no molesta. Por otra parte, la adaptaci'on de la interacci'on en base al nivel de molestia se ha puesto en pr'actica con usuarios para evaluar su satisfacci'on con el sistema y su experiencia de usuario. Esta validaci'on ha desvelado la importancia de considerar los aspectos de molestia en el proceso de adaptaci'on de la interacci'on para ayudar a mejorar la experiencia de usuario. / In Ubiquitous Computing environments, people are surrounded by a lot of embedded services. Since ubiquitous devices, such as mobile phones, have become a key part of our everyday life, they enable users to be always connected to the environment and interact with it. However, unlike traditional desktop interactions where users are used to request for information or input data, ubiquitous interactions have to face with variable user¿s environment, making demands on one of the most valuable resources of users: human attention. A challenge in the Ubiquitous Computing paradigm is regulating the request for user¿s attention. That is, service interactions should behave in a considerate manner by taking into account the degree in which each service intrudes the user¿s mind (i.e., the obtrusiveness degree). In order to prevent service behavior from becoming overwhelming, this work, based on Model Driven Engineering foundations and the Considerate Computing principles, is devoted to design and develop services that adapt their interactions according to user¿s attention. The main goal of the present thesis is to introduce considerate adaptation capabilities in ubiquitous services to provide non-disturbing interactions. We achieve this by means of a systematic method that covers from the services¿ design to their implementation and later adaptation of interaction at runtime / Gil Pascual, M. (2013). Adapting Interaction Obtrusiveness: Making Ubiquitous Interactions Less Obnoxious. A Model Driven Engineering approach [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31660 / TESIS
116

Utilisation de l'ingénierie dirigée par les modèles pour l'agrégation continue de données hétérogènes : application à la supervision de réseaux de gaz / Model-based Interoperability IoT Hub for the aggregation of data from heterogeneous systems : application to the Smart Gas Distribution Networks

Ahmed, Ahmed 17 December 2018 (has links)
Durant les dix dernières années, l'infrastructure informatique et l'infrastructure industrielle ont évolué de manière à passer de systèmes monolithiques à des systèmes hétérogènes, autonomes et largement distribués. Tous les systèmes ne peuvent pas coexister de manière isolée et exigent que leurs données soient partagées de manière à accroître la productivité de l'entreprise. En fait, nous progressons vers des systèmes complexes plus vastes où des millions des systèmes doivent être intégrés. Ainsi, l'exigence d'une solution d'interopérabilité peu coûteuse et rapide devient un besoin essentiel. Aujourd'hui, les solutions imposent les normes ou les middlewares pour gérer cette problématique. Cependant, ces solutions ne sont pas suffisantes et nécessitent souvent des développements ad-hoc spécifiques. Ainsi, ce travail propose l'étude et le développement d'une architecture d'interopérabilité générique, modulaire, agnostique et extensible basée sur des principes de l'architecture dirigée par les modèles et les concepts de la séparation de préoccupations. Il vise à promouvoir l'interopérabilité et l'échange de données entre les systèmes hétérogènes en temps réels sans obliger les systèmes à se conformer à des normes ou technologies spécifiques. La proposition s'applique à des cas d'usages industriels dans le contexte de réseau de distribution de gaz français. La validation théorique et empirique de notre proposition corrobore note hypothèses que l'interopérabilité entre les systèmes hétérogènes peut être atteinte en utilisant les concepts de la séparation de préoccupations et de l'ingénierie dirigée par les modèles et que le coût et le temps pour promouvoir l'interopérabilité est réduit en favorisant les caractéristiques de la réutilisabilité et de l'extensibilité. / Over the last decade, the information technology and industrial infrastructures have evolved from containing monolithic systems to heterogeneous, autonomous, and widely distributed systems. Most systems cannot coexist while completely isolated and need to share their data in order to increase business productivity. In fact, we are moving towards larger complex systems where millions of systems and applications need to be integrated. Thus, the requirement of an inexpensive and fast interoperability solution becomes an essential need. The existing solutions today impose standards or middleware to handle this issue. However, these solutions are not sufficient and often require specific ad-hoc developments. Thus, this work proposes the study and the development of a generic, modular, agnostic and extensible interoperability architecture based on modeling principles and software engineering aspects. It aims to promote interoperability and data exchange between heterogeneous systems in real time without requiring systems to comply with specific standards or technologies. The industrial use cases for this work takes place in the context of the French gas distribution network. The theoretical and empirical validation of our proposal corroborates assumptions that the interoperability between heterogeneous systems can be achieved by using the aspects of separation of concerns and model-driven engineering. The cost and time to promote the interoperability are also reduced by promoting the characteristics of re-usability and extensibility.
117

Design of a Machine Learning-based Approach for Fragment Retrieval on Models

Marcén Terraza, Ana Cristina 10 January 2021 (has links)
[ES] El aprendizaje automático (ML por sus siglas en inglés) es conocido como la rama de la inteligencia artificial que reúne algoritmos estadísticos, probabilísticos y de optimización, que aprenden empíricamente. ML puede aprovechar el conocimiento y la experiencia que se han generado durante años en las empresas para realizar automáticamente diferentes procesos. Por lo tanto, ML se ha aplicado a diversas áreas de investigación, que estudian desde la medicina hasta la ingeniería del software. De hecho, en el campo de la ingeniería del software, el mantenimiento y la evolución de un sistema abarca hasta un 80% de la vida útil del sistema. Las empresas, que se han dedicado al desarrollo de sistemas software durante muchos años, han acumulado grandes cantidades de conocimiento y experiencia. Por lo tanto, ML resulta una solución atractiva para reducir sus costos de mantenimiento aprovechando los recursos acumulados. Específicamente, la Recuperación de Enlaces de Trazabilidad, la Localización de Errores y la Ubicación de Características se encuentran entre las tareas más comunes y relevantes para realizar el mantenimiento de productos software. Para abordar estas tareas, los investigadores han propuesto diferentes enfoques. Sin embargo, la mayoría de las investigaciones se centran en métodos tradicionales, como la indexación semántica latente, que no explota los recursos recopilados. Además, la mayoría de las investigaciones se enfocan en el código, descuidando otros artefactos de software como son los modelos. En esta tesis, presentamos un enfoque basado en ML para la recuperación de fragmentos en modelos (FRAME). El objetivo de este enfoque es recuperar el fragmento del modelo que realiza mejor una consulta específica. Esto permite a los ingenieros recuperar el fragmento que necesita ser trazado, reparado o ubicado para el mantenimiento del software. Específicamente, FRAME combina la computación evolutiva y las técnicas ML. En FRAME, un algoritmo evolutivo es guiado por ML para extraer de manera eficaz distintos fragmentos de un modelo. Estos fragmentos son posteriormente evaluados mediante técnicas ML. Para aprender a evaluarlos, las técnicas ML aprovechan el conocimiento (fragmentos recuperados de modelos) y la experiencia que las empresas han generado durante años. Basándose en lo aprendido, las técnicas ML determinan qué fragmento del modelo realiza mejor una consulta. Sin embargo, la mayoría de las técnicas ML no pueden entender los fragmentos de los modelos. Por lo tanto, antes de aplicar las técnicas ML, el enfoque propuesto codifica los fragmentos a través de una codificación ontológica y evolutiva. En resumen, FRAME está diseñado para extraer fragmentos de un modelo, codificarlos y evaluar cuál realiza mejor una consulta específica. El enfoque ha sido evaluado a partir de un caso real proporcionado por nuestro socio industrial (CAF, un proveedor internacional de soluciones ferroviarias). Además, sus resultados han sido comparados con los resultados de los enfoques más comunes y recientes. Los resultados muestran que FRAME obtuvo los mejores resultados para la mayoría de los indicadores de rendimiento, proporcionando un valor medio de precisión igual a 59.91%, un valor medio de exhaustividad igual a 78.95%, una valor-F medio igual a 62.50% y un MCC (Coeficiente de Correlación Matthews) medio igual a 0.64. Aprovechando los fragmentos recuperados de los modelos, FRAME es menos sensible al conocimiento tácito y al desajuste de vocabulario que los enfoques basados en información semántica. Sin embargo, FRAME está limitado por la disponibilidad de fragmentos recuperados para llevar a cabo el aprendizaje automático. Esta tesis presenta una discusión más amplia de estos aspectos así como el análisis estadístico de los resultados, que evalúa la magnitud de la mejora en comparación con los otros enfoques. / [CAT] L'aprenentatge automàtic (ML per les seues sigles en anglés) és conegut com la branca de la intel·ligència artificial que reuneix algorismes estadístics, probabilístics i d'optimització, que aprenen empíricament. ML pot aprofitar el coneixement i l'experiència que s'han generat durant anys en les empreses per a realitzar automàticament diferents processos. Per tant, ML s'ha aplicat a diverses àrees d'investigació, que estudien des de la medicina fins a l'enginyeria del programari. De fet, en el camp de l'enginyeria del programari, el manteniment i l'evolució d'un sistema abasta fins a un 80% de la vida útil del sistema. Les empreses, que s'han dedicat al desenvolupament de sistemes programari durant molts anys, han acumulat grans quantitats de coneixement i experiència. Per tant, ML resulta una solució atractiva per a reduir els seus costos de manteniment aprofitant els recursos acumulats. Específicament, la Recuperació d'Enllaços de Traçabilitat, la Localització d'Errors i la Ubicació de Característiques es troben entre les tasques més comunes i rellevants per a realitzar el manteniment de productes programari. Per a abordar aquestes tasques, els investigadors han proposat diferents enfocaments. No obstant això, la majoria de les investigacions se centren en mètodes tradicionals, com la indexació semàntica latent, que no explota els recursos recopilats. A més, la majoria de les investigacions s'enfoquen en el codi, descurant altres artefactes de programari com són els models. En aquesta tesi, presentem un enfocament basat en ML per a la recuperació de fragments en models (FRAME). L'objectiu d'aquest enfocament és recuperar el fragment del model que realitza millor una consulta específica. Això permet als enginyers recuperar el fragment que necessita ser traçat, reparat o situat per al manteniment del programari. Específicament, FRAME combina la computació evolutiva i les tècniques ML. En FRAME, un algorisme evolutiu és guiat per ML per a extraure de manera eficaç diferents fragments d'un model. Aquests fragments són posteriorment avaluats mitjançant tècniques ML. Per a aprendre a avaluar-los, les tècniques ML aprofiten el coneixement (fragments recuperats de models) i l'experiència que les empreses han generat durant anys. Basant-se en l'aprés, les tècniques ML determinen quin fragment del model realitza millor una consulta. No obstant això, la majoria de les tècniques ML no poden entendre els fragments dels models. Per tant, abans d'aplicar les tècniques ML, l'enfocament proposat codifica els fragments a través d'una codificació ontològica i evolutiva. En resum, FRAME està dissenyat per a extraure fragments d'un model, codificar-los i avaluar quin realitza millor una consulta específica. L'enfocament ha sigut avaluat a partir d'un cas real proporcionat pel nostre soci industrial (CAF, un proveïdor internacional de solucions ferroviàries). A més, els seus resultats han sigut comparats amb els resultats dels enfocaments més comuns i recents. Els resultats mostren que FRAME va obtindre els millors resultats per a la majoria dels indicadors de rendiment, proporcionant un valor mitjà de precisió igual a 59.91%, un valor mitjà d'exhaustivitat igual a 78.95%, una valor-F mig igual a 62.50% i un MCC (Coeficient de Correlació Matthews) mig igual a 0.64. Aprofitant els fragments recuperats dels models, FRAME és menys sensible al coneixement tàcit i al desajustament de vocabulari que els enfocaments basats en informació semàntica. No obstant això, FRAME està limitat per la disponibilitat de fragments recuperats per a dur a terme l'aprenentatge automàtic. Aquesta tesi presenta una discussió més àmplia d'aquests aspectes així com l'anàlisi estadística dels resultats, que avalua la magnitud de la millora en comparació amb els altres enfocaments. / [EN] Machine Learning (ML) is known as the branch of artificial intelligence that gathers statistical, probabilistic, and optimization algorithms, which learn empirically. ML can exploit the knowledge and the experience that have been generated for years to automatically perform different processes. Therefore, ML has been applied to a wide range of research areas, from medicine to software engineering. In fact, in software engineering field, up to an 80% of a system's lifetime is spent on the maintenance and evolution of the system. The companies, that have been developing these software systems for a long time, have gathered a huge amount of knowledge and experience. Therefore, ML is an attractive solution to reduce their maintenance costs exploiting the gathered resources. Specifically, Traceability Link Recovery, Bug Localization, and Feature Location are amongst the most common and relevant tasks when maintaining software products. To tackle these tasks, researchers have proposed a number of approaches. However, most research focus on traditional methods, such as Latent Semantic Indexing, which does not exploit the gathered resources. Moreover, most research targets code, neglecting other software artifacts such as models. In this dissertation, we present an ML-based approach for fragment retrieval on models (FRAME). The goal of this approach is to retrieve the model fragment which better realizes a specific query in a model. This allows engineers to retrieve the model fragment, which must be traced, fixed, or located for software maintenance. Specifically, the FRAME approach combines evolutionary computation and ML techniques. In the FRAME approach, an evolutionary algorithm is guided by ML to effectively extract model fragments from a model. These model fragments are then assessed through ML techniques. To learn how to assess them, ML techniques takes advantage of the companies' knowledge (retrieved model fragments) and experience. Then, based on what was learned, ML techniques determine which model fragment better realizes a query. However, model fragments are not understandable for most ML techniques. Therefore, the proposed approach encodes the model fragments through an ontological evolutionary encoding. In short, the FRAME approach is designed to extract model fragments, encode them, and assess which one better realizes a specific query. The approach has been evaluated in our industrial partner (CAF, an international provider of railway solutions) and compared to the most common and recent approaches. The results show that the FRAME approach achieved the best results for most performance indicators, providing a mean precision value of 59.91%, a recall value of 78.95%, a combined F-measure of 62.50%, and a MCC (Matthews correlation coefficient) value of 0.64. Leveraging retrieved model fragments, the FRAME approach is less sensitive to tacit knowledge and vocabulary mismatch than the approaches based on semantic information. However, the approach is limited by the availability of the retrieved model fragments to perform the learning. These aspects are further discussed, after the statistical analysis of the results, which assesses the magnitude of the improvement in comparison to the other approaches. / Marcén Terraza, AC. (2020). Design of a Machine Learning-based Approach for Fragment Retrieval on Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/158617 / TESIS
118

Modelom vođena semantička integracija poslovnih aplikacija / Model based semantic enterprise application integration

Vuković Željko 21 December 2019 (has links)
<p>U sklopu doktorske disertacije izvršeno je istraživanje vezano za<br />automatizaciju integracije poslovnih aplikacija. Prikazani pristup<br />kombinuje model strukture interfejsa aplikacija koje se integrišu sa<br />formalnim opisom njihove semantike, datim u vidu ontologije. Na<br />osnovu ovih izvora, obavlja se automatsko mapiranje među elementima<br />interfejsa koji se integrišu, kao i detekcija i razrešavanje<br />semantičkih konflikata. Razvijena je praktična implementacija<br />predloženog pristupa, koja je korišćena za verifikaciju teorijskih<br />razmatranja, a uključuje adaptivan radni okvir i jezik specifičan za<br />domen. Predloženi pristup je verifikovan na dva realna<br />integraciona scenarija i jednim eksperimentom.</p> / <p>This thesis presents a research in the field of automation of enterprise<br />application integration. The approach combines structural models of<br />interfaces of the applications being integrated with a formal specification of<br />their semantics, given in form of an ontology. Using information from these<br />sources, automated interface mapping is performed, along with detection and<br />resolution of semantic conflicts. A practical implementation of the presented<br />approach was developed and used to verify theoretical considerations. The<br />implementation includes an adaptive framework and a domain specific<br />language. The proposed approach has been verified on two real-world<br />integration scenarios and one experiment.</p>
119

Models and algorithms for managing quality of context and respect for privacy in the Internet of Things / Modèles et algorithmes pour la gestion de la qualité du contexte et de respect de la vie privée dans l'Internet des Objets

Machara Marquez, Samer 17 November 2015 (has links)
L’Internet des Objets (IdO) est un nouveau paradigme, dont l’idée de base est d’avoir un grand nombre d’objets de façon ubiquitaire. Ces objets sont capables d’interagir les uns avec les autres et de coopérer avec leurs voisins en partageant des données acquises directement en mesurant certains faits. Tout cela, afin d’atteindre des objectifs communs. Cette information ne représente pas seulement l’état des utilisateurs, mais aussi les processus dans lesquels ils sont impliqués, on appelle cela le Contexte. Le Contexte informe à la fois la reconnaissance et le mappage des opérations en fournissant une vue structurée et unifiée du monde dans lequel un système fonctionne.Avec l’IdO, de nombreuses applications récupèrent des informations de contexte concernant les utilisateurs (propriétaires de contexte) tels que, leurs habitudes, leurs comportements et leur «sentiment» (état de santé). Ceci, offre alors beaucoup d’avantages pour les utilisateurs, mais au dépend de leur intimité. La problématique de recherche de cette thèse se situe dans la vision orientée sémantique de l’IdO. Dans ce cadre, les technologies sémantiques jouent un rôle clé dans l’exploitation des solutions de modélisation parfaitement appropriée pour intégrer la notion de sécurité de la vie privée dans l’IdO. Les applications et services (consommateurs de contexte), qui sont sensibles au contexte, attendent des données de contexte correctes et fiables afin d’adapter leurs fonctionnalités. Dans cette thèse, la qualité de Contexte (QoC) est une métadonnée qui est associée aux informations de contexte. Elle décrit une série de critères exprimant la qualité de l’information de contexte. Ces métadonnées peuvent être utilisées pour déterminer la valeur de l’information pour une application particulière dans une situation particulière. Nous explorons des solutions intergicielles et des structures logiciels pour intégrer la gestion de la vie privée et QoC dans l’IdO.Cette thèse se distingue des autres recherches du domaine de la gestion de contexte et tient compte du découplage des participants IdO; à savoir, les propriétaires des informations de contexte et les consommateurs de ces informations de contexte. De plus, nous considérons la QoC comme un facteur affectant la vie privée des individus. Cette thèse fournit les contributions suivantes selon deux axes: Axe 1: Concevoir un contexte contrat méta-modèle pour définir la vie privée et QoC pour exprimer les préoccupations des propriétaires et consommateurs de contexte; basé sur la confiance réciproque, puisque les deux sont découplés. Cette conception est basée sur deux points : Premièrement, nous considérons que la vie privée est la capacité des propriétaires de contexte à contrôler quoi, comment, quand, où et avec qui partager des informations. Par conséquent, nous identifions quatre dimensions de la vie privée (le but, la visibilité, la rétention, la QoC), pour les utiliser au moment de la définition des politiques et des obligations d’accès. Deuxièmement, les consommateurs de contexte attendent un certain niveau de QoC afin d’accomplir leurs tâches. Nous proposons alors de définir deux types de contrat de contexte : le premier, pour la partie producteur et un second pour le côté du consommateur.Axe 2 : Proposer un algorithme pour créer des accords entre les producteurs et les consommateurs de contexte en évaluant et en comparant les exigences par rapport aux garanties indiquées sur leurs contrats de contexte respectives.Comme les deux participants de l’IdO ont des contrats symétriques, quand un participant définit ses besoins, l’autre définit ses garanties. Le processus de correspondance de ces contrats de contexte vérifie si les exigences de l’une des parties sont incluses dans les garanties offertes par l’autre partie.A partir de cette définition, nous avons conçu des algorithmes pour déterminer si l’accès et la consommation sont autorisés ou non, selon la correspondance des contrats de contexte / The Internet of Things (IoT) is a novel paradigm, which basic idea is the pervasive presence around us of a variety of things or objects that are able to interact with each other and cooperate with their neighbors by sharing data, directly acquired by measuring some facts, in order to reach common goals. This information not only represents the state of users but also the processes in which they are involved, this is called the Context. The context informs both recognition and mapping operations by providing a structured, unified view of the world in which a system operates. With the IoT, many applications consume context information concerning users (context owners) such as, daily routines, behaviors and health, offering lots of benefits to users, but compromising their privacy. The re-search problematic of this thesis lies within the “semantic-oriented” IoT vision. In this context, semantic technologies play a key role in exploiting appropriate modelling solutions for integrating privacy security into the IoT. Context-aware applications and services (context consumers) expect correct and reliable context data to adapt their functionalities. In this thesis the Quality of Context (QoC) is meta-data attached to context information describing a range of criteria that express context information quality. These meta-data can be used to determine the worth of the information for a particular application in a particular situation. We explore middleware and framework solutions to integrate the management of privacy and QoC in the IoT. This thesis is distinguished from other context management domain researches by bearing in mind the decoupling of the IoT participants, i.e., the owners of context information and the consumers of this context information. Moreover, we consider the QoC as a factor affecting the privacy of individuals. This thesis provides the following contributions along two axis: 1. Designing a Context Contract Meta-model to define privacy and QoC concerns of decoupled context owners and context consumers based on reciprocal trust. This design is based on two points. Firstly, we consider that privacy is the capacity of context owners to control what, how, when, where and with whom to share information. Therefore, we identify four privacy dimensions (purpose, visibility, retention, QoC), and use them in the definition of access policies and obligations. Secondly, context consumers expect a certain QoC level in order to perform their tasks. We then propose to define two kinds of context contract for the producer and the consumer sides as follows: Context producer contract: A context contract whose clauses are expressions of the production of context data, of privacy requirements, and of QoC guarantees; Context consumer contract: A context contract whose clauses are expressions of the consumption of context data, of QoC requirements, and of privacy guarantees. Each context contract is created without the knowledge of is counter party.2. Proposing an algorithm to create agreements among context producers and context consumers by evaluating and compare requirements against guarantees, stated on their respective context contracts. As both IoT participants have symmetric contracts, when one participant defines its requirements, the other one defines its guarantees. The matching process of these context contracts verifies if the requirements of one party are included within the guarantees offered by the other party. Therefore, taking a decision based on this compatibility match from the producer point of view is to permit or deny the access to context data. Complementarily, from a consumer point of view, the consumption of context data is permitted or denied. From this definition, we designed algorithms to determine whether access and consumption are authorized or not, according to the context contracts matching
120

Auto-Generating Models From Their Semantics and Constraints

Pati, Tanumoy 20 August 2013 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Domain-specific models powered using domain-specific modeling languages are traditionally created manually by modelers. There exist model intelligence techniques, such as constraint solvers and model guidance, which alleviate challenges associated with manually creating models, however parts of the modeling process are still manual. Moreover, state-of-the-art model intelligence techniques are---in essence---reactive (i.e., invoked by the modeler). This thesis therefore provides two contributions to model-driven engineering research using domain-specific modeling language (DSML). First, it discusses how DSML semantic and constraint can enable proactive modeling, which is a form of model intelligence that foresees model transformations, automatically executes these model transformations, and prompts the modeler for assistance when necessary. Secondly, this thesis shows how we integrated proactive modeling into the Generic Modeling environment (GME). Our experience using proactive modeling shows that it can reduce modeling effort by both automatically generating required model elements, and by guiding modelers to select what actions should be executed on the model.

Page generated in 0.0828 seconds