• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 18
  • 3
  • Tagged with
  • 62
  • 62
  • 49
  • 39
  • 26
  • 21
  • 17
  • 16
  • 16
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Un meta-modèle de composants pour la réalisation d'applications temps-réel flexibles et modulaires / A component metamodel for the development of modular and flexible real-time applications

Rodrigues Americo, Joao Claudio 04 November 2013 (has links)
La croissante complexité du logiciel a mené les chercheurs en génie logiciel à chercher des approcher pour concevoir et projéter des nouveaux systèmes. Par exemple, l'approche des architectures orientées services (SOA) est considérée actuellement comme le moyen le plus avancé pour réaliser et intégrer rapidement des applications modulaires et flexibles. Une des principales préocuppations des solutions en génie logiciel et la réutilisation, et par conséquent, la généralité de la solution, ce qui peut empêcher son application dans des systèmes où des optimisation sont souvent utilisées, tels que les systèmes temps réels. Ainsi, créer un système temps réel est devenu très couteux. De plus, la plupart des systèmes temps réel ne beneficient pas des facilités apportées par le genie logiciel, tels que la modularité et la flexibilité. Le but de cette thèse c'est de prendre en compte ces aspects temps réel dans des solutions populaires et standards SOA pour faciliter la conception et le développement d'applications temps réel flexibles et modulaires. Cela sera fait à l'aide d'un modèle d'applications temps réel orienté composant autorisant des modifications dynamiques dans l'architecture de l'application. Le modèle de composant sera une extension au standard SCA qui intègre des attributs de qualité de service sur le consomateur et le fournisseur de services pour l'établissement d'un accord de niveau de service spécifique au temps réel. Ce modèle sera executé sur une plateforme de services OSGi, le standard de facto pour le developpement d'applications modulaires en Java. / The increase of software complexity along the years has led researchers in the software engineering field to look for approaches for conceiving and designing new systems. For instance, the service-oriented architectures approach is considered nowadays as the most advanced way to develop and integrate fastly modular and flexible applications. One of the software engineering solutions principles is re-usability, and consequently generality, which complicates its appilication in systems where optimizations are often used, like real-time systems. Thus, create real-time systems is expensive, because they must be conceived from scratch. In addition, most real-time systems do not beneficiate of the advantages which comes with software engineering approches, such as modularity and flexibility. This thesis aim to take real time aspects into account on popular and standard SOA solutions, in order to ease the design and development of modular and flexible applications. This will be done by means of a component-based real-time application model, which allows the dynamic reconfiguration of the application architecture. The component model will be an extension to the SCA standard, which integrates quality of service attributs onto the service consumer and provider in order to stablish a real-time specific service level agreement. This model will be executed on the top of a OSGi service platform, the standard de facto for development of modular applications in Java.
42

Monitoring business process compliance : a view based approach / Monitoring de la conformité des processus métiers : approche à base de vues

Sebahi, Samir 22 March 2012 (has links)
De nos jours, les processus métiers permettent une automatisation croissante des tâches et des interconnexions complexes au sein du même système et entre différents systèmes, ce qui est particulièrement facilité par l'émergence des services Web. Dans ce contexte, les tâches de spécification et de vérification de la conformité pendant l’exécution deviennent particulièrement intéressantes. Dans cette thèse, on s’intéresse à deux aspects, le monitoring et la sécurité dans le contexte de l’Architecture Orienté Service (SOA). Ainsi, nous proposons une approche fondée sur le concept de vue et une plateforme qui vise le monitoring de la conformité des processus métiers pendant leur exécution. Ainsi, nous avons développé un langage de monitoring appelé BPath, qui est un langage basé sur XPath, qui offre entre autres, la possibilité de spécifier et de vérifier des propriétés de la logique temporelle linéaire et hybride, des requêtes visant à évaluer des indicateurs quantitatifs sur l’exécution d’un processus métier, ceci dans le but de détecter toute violation des règles de conformité pendant l’exécution.Une des préoccupations spécifiques du monitoring de la conformité pour les environnements basés sur SOA est la sécurité. Ainsi, nous proposons une architecture de sécurité fondée sur des langages dédiés (DSL) pour SOA. Nous avons particulièrement développé une DSL graphique pour faciliter la spécification et la génération des contrôles d’accès. Nos approches sont mises en œuvre et intégrés dans une plateforme développée dans le cadre du projet Européen COMPAS qui vise à assurer la conformité de bout en bout dans les environnements basés sur SOA. / Nowadays, business processes allow more automation of tasks and complex interconnections within the same system and across different systems, which is particularly facilitated by the emergence of Web services. In this context, the tasks of specifying and checking compliance at runtime become particularly challenging.In this thesis, our goal is twofold: monitoring and security in the context of Service Oriented Architecture (SOA). Thus, we proposed a view-based monitoring approach and a framework that target monitoring of business process compliance at runtime. Our monitoring framework aims to offer an easy way to specify properties to be monitored and to facilitate its integration with SOA based environments. Thus, we have developed a new monitoring language called BPath, which is an XPath-based language that offers among others, the ability to express and to check temporal and hybrid logic properties at runtime, making the execution of business processes visible by expressing and evaluating quantitative indicators, in order to detect any compliance violation at runtime. A specific compliance monitoring concern in SOA based environment is security, which is also an important aspect for companies willing to give access to some of their resources over the Web. Thus, we proposed a domain specific language (DSL) based architecture for ensuring security in SOA environments. We particularly focused on access control by proposing a graphical language to facilitate the specification and generation of access control policies.Our approaches are implemented and integrated within a complete end to end compliance framework developed within the COMPAS project.
43

Service-Oriented Integration of Component and Organizational MultiAgent Models / Intégration orientée services des approches composants logiciels et systèmes MultiAgents Organisationnelles

Aboud, Nour 04 December 2012 (has links)
Les travaux présentés dans cette thèse concernent des problématiques d'architecture logicielle multi-domaines pour le développement d’applications distribuées. Ces applications sont caractérisées aujourd’hui comme des systèmes ouverts, complexes, hétérogènes et à large échelle. Les approches traditionnelles, telles que l’approche orienté objet, n’offrent plus un paradigme de conception suffisant pour appréhender la complexité de tels systèmes. Ces nouvelles tendances ont conduit à l’émergence d’approches de plus haut niveau telles que les approches orientées services, composants ou agents. Chacune de ces approches offrent des intérêts et des caractéristiques propres dans le développement d’applications distribuées. Les services offrent une abstraction et une interopérabilité à large échelle. Abstraction dans le sens où un service permet de spécifier un élément fonctionnel sans préciser comment cet élément est implémenté. Les composants sont une approche robuste basée sur la composition et la réutilisation d’éléments clairement définis par leurs interfaces. Les agents sont eux des éléments présentant un comportement dynamique dirigé par un but et des interactions de haut niveau avec les autres agents formant l’application, vue comme une organisation de services collaboratifs. D’un point de vue conceptuel, le service peut donc être perçu comme le modèle « métier » de l’application, alors que les composants et les agents constituent un modèle d’implémentation. L’étude de ces différents domaines et des modèles associés, a montré que les approches composants et agents sont complémentaires, les points forts d’une approche représentant les faiblesses de l’autre. Face à ce constat, il nous est paru intéressant d’intégrer ces deux approches, au sein d’une même démarche de conception. Cela permet, d’une part, qu’une approche puisse bénéficier des intérêts de l’autre et d’autre part, d’utiliser conjointement des agents et des composants dans la conception d'une même application. La démarche que nous avons adoptée consiste à considérer les services comme pivot d’interaction afin de rendre possible l’interopérabilité des agents et des composants. Pour supporter cette démarche, nous avons défini un processus de conception basé sur l’Ingénierie Des Modèles qui contient quatre modèles conceptuels (Domain Specific language) dont l’intérêt est de mettre l’accent sur les concepts de services et d’interaction. Nous avons ainsi défini un modèle de services, un modèle de composants et un modèle d’agents. Enfin, un modèle mixte appelé CASOM, Component Agent Service Oriented Model, permet de spécifier une application via une combinaison des trois domaines précédents. Ensuite, des règles de correspondances ont été définies entre les quatre modèles pour pouvoir par exemple transformer une spécification agents en une spécification composants ou mixte. L'implémentation de ces transformations a été réalisée en langage ATL (ATLAS Transformation Language). / The presented work considers problems related to multi-domain software architecture for the development of distributed applications. These applications are large-scaled, heterogeneous, open and complex software systems. Traditional approaches such as object-oriented are no longer sufficient to represent such complex systems. These trends lead to the emergence of higher-level approaches such as service-oriented, components or agents. Each one of these approaches offers interests and characteristics in the development of distributed applications. Services provide an abstraction and interoperability in a large scale. Abstraction is in the sense that a service can specify a functional element without specifying how this element is implemented. The components are a robust approach based on composition and reusability through their clearly defined interfaces. Agents are elements which are characterized by dynamic goal directed behaviours and high-level interactions with other agents forming the application, seen as an organization for collaborative services. From a conceptual point of view, the service can be seen as the “business” model of an application, while components and agents are the implementation models. The study of these different domains, with their related models, showed that the components and agents approaches are complementary; the strengths of one approach overcome the weaknesses of the other. Therefore, we are interested in the integration of these two approaches in a single design approach. This allows an approach to benefit from the interests of the other, on one hand and the use of agents and components jointly in the design of an application on the other hand. To reach our objective, we consider services as pivot of interaction between agents and components. The result of our analysis leads us to develop a design process based on Model-Driven Engineering which contains four conceptual models (Domain Specific Languages) with the main interest of focusing on the concepts of services and interaction. We then defined a service, component and agent models. Finally, a hybrid model called CASOM, Component Agent Service Oriented Model, was proposed that allows application specification via a combination of the three domains. Then, mapping rules have been defined between the four models in order to transform agents specification into components specification or mixed. The implementation of these transformations was done in ATL language (ATLAS Transformation Language).
44

Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie / Semantic interoperability between image processing tools in neuroimaging

Wali, Bacem 21 June 2013 (has links)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG. / The field of neuroimaging research requires the ability to share, reuse and compare image processing tools coming from different laboratories. However, sharing treatment as services and composing them as workflows, is usually difficult and a complex task. This is due in most cases to the heterogeneity of services and platforms with regards to their conception and their implementation. We work within the NeuroLOG project, which aims at developing a middleware to federate data repositories and to facilitate the sharing and reuse of processing tools to analyze the shared images. It adopts an ontological approach for data and tools mediation and for sharing resources. This work aims to provide tools mediation to enhance the sharing and composition of image processing tools and provide non-specialist and expert users of neuroimaging field with an ergonomic and easy to use composition platform. We have chosen to use the Semantic Web techniques to address the various problems of resource interoperability and consistency. The first proposed solution is based on an extension of the OWL-S framework. It has been adapted to the various web services of our neuroimaging platform. We finally concluded that services that haven't the WSDL standard as descriptor could not be chained as workflow. So, we have proposed a new approach to compose image processing tools. It is based on a new ontological model for service composition that meets the requirements of the neuroimaging domain and the constraints of our domain ontology OntoNeuroLOG and addresses the various problems encountered in the development of the first approach. This work led to solve the two major problems in the composition of services; the heterogeneity of services descriptors and the interoperability of services according to the constraints within the NeuroLOG platform.
45

Système de gestion de flux pour l'Internet des objets intelligents / Data stream management system for the future internet of things

Billet, Benjamin 19 March 2015 (has links)
L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement. / The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.
46

Fusion de données géoréférencées et développement de services interopérables pour l'estimation des besoins en eau à l'échelle des bassins versants

Beaufils, Mickaël 04 December 2012 (has links) (PDF)
De nos jours, la préservation de l'environnement constitue un enjeu prioritaire. La compréhension des phénomènes environnementaux passe par l'étude et la combinaison d'un nombre croissant de données hétérogènes. De nombreuses initiatives internationales (INSPIRE, GEOSS) visent à encourager le partage et l'échange de ces données. Dans ce sujet de recherche, nous traitons de l'intérêt de mettre à disposition des modèles scientifiques sur le web. Nous montrons l'intérêt d'utiliser des applications s'appuyant sur des données géoréférencées et présentons des méthodes et des moyens répondant aux exigences d'interopérabilité. Nous illustrons notre approche par l'implémentation de modèles d'estimation des besoins en eau agricoles et domestiques fonctionnant à diverses échelles spatiales et temporelles. Un prototype basé sur une architecture entièrement orientée services web a été développé. L'outil s'appuie sur les standards Web Feature Service (WFS), Sensor Observation Service (SOS) et Web Processing Service (WPS) de l'OGC. Enfin, la prise en compte des imperfections des données est également abordée avec l'intégration de méthodes d'analyse de sensibilité et de propagation de l'incertitude.
47

Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie

Wali, Bacem 21 June 2013 (has links) (PDF)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG.
48

Mise en oeuvre des architectures orientées services pour les systèmes d'information industriels / Service-oriented architecture implementation for industriel information systems

Zayati, Ahlem 09 October 2012 (has links)
Pour faire face aux contraintes économiques (demande de plus en plus importante pour de la personnalisation de masse, globalisation et réduction des coûts…), le développement de stratégies de production « Juste À Temps », ou « Lean Manufacturing » impose la réorganisation de l’entreprise sur les activités génératrices de valeur en suivant une logique de chaîne de valeur pour éviter tout gaspillage. Cette stratégie conduit de fait à un recentrage métier et une extension de la chaîne de valeur. L’entreprise est donc amenée à développer des stratégies de collaboration (Bare et Cox, 2008 ; Davis, 1987) et doit disposer d’un SI Lean (réponse au plus juste), agile pour réagir aux fluctuations et aléas, ouvert pour assurer un partenariat avec ses fournisseurs, ses clients et ses partenaires et, enfin, interopérable pour faciliter la communication entre les différents systèmes et concilier ces différentes facettes métiers. Or, le SI de l’entreprise est constitué d’une multiplicité de logiciels (l’ERP (Enterprise Resource Planning), le MES (Manufacturing Execution System), le PLM (Product Life-cycle Management), le SCM (Supply Chain Management)…). Chaque système vise à répondre à un objectif donné pour une facette métier, et est développé selon des spécifications métier propres échappant le plus souvent à toute standardisation. Ceci engendre une redondance, une hétérogénéité et une augmentation du volume d’information, d’où des risques d’incohérence, de rigidité du SI et notamment une grande difficulté de communication dans le cadre de collaboration interentreprises. Pour répondre à ces aléas, il importe de définir un SI agile et interopérable et de réorganiser les processus pour supporter la chaîne de valeur de l’entreprise. C’est dans cet objectif que nous proposons de développer un Lean ESB (Enterprise Service Bus), socle d’une Architecture Orientée Services, doté d’une couche sémantique métier. Nous avons défini quatre modules du Lean ESB : • Le module de médiation définit les échanges d’information entre les différents métiers et entre le métier et la technologie pour assurer le fonctionnement des autres modules. • Le module de chorégraphie dynamique permet de composer les services industriels pour définir les processus selon les besoins de production spécifiés par le client. • Le module de routage intelligent organise les ressources de l’atelier pour définir des processus en flux tirés. • Le module de monitoring et gouvernance permet de contrôler la performance de la production et la qualité des produits. / To meet the economic constraints (growth of mass customization demands, globalization and cost reducing), the development of new strategies forms as a “Just In Time” production strategy or “Lean Manufacturing” needs to reorganize the enterprise taking into account the activities which generates value (following the value-chain logic) in order to avoid wastefulness. This strategy leads to a business refocusing and a value-chain extension. The enterprise has to develop collaboration strategies (Bare and Cox, 2008 ; Davis, 1987) and has to have a Lean (just in time response) Information Systems (IS), agile IS to react fluctuations, open IS to support a partnership with suppliers, customers and partners and interoperable IS to make easier the communication between systems and business views. However, the enterprise IS contains multiple systems: ERP (Enterprise Resource Planning), MES (Manufacturing Execution System), PLM (Product Life-cycle Management), SCM (Supply Chain Management)…Each system is designed to meet a particular business view, and is developed according to specific business requirementswithout any standardization which cause redundancy, heterogeneity and increase the volume of information including an inconsistency, a rigidity of the IS and a difficulty of inter-enterprise collaboration. To face theses disadvantages we have to define an agile and interoperable IS and to reorganize processes to support the enterprise value-chain. Therefore, we propose to develop a Lean ESB (Enterprise Service Bus) which is a Service Oriented Architecture middleware, improved by a business semantic layer. We defined four modules of Lean ESB:• The mediation module defines information exchange between a business layers and IS and insures other modules operating. • The dynamic choreography module enables industrial services composition to define processes in accordance with customer demands. • The intelligent routing module organizes workshop resources in order to reorganize processes in a pull flow strategy. • The monitoring and governance module enables the control of production performance and products quality.
49

Towards a resilient service oriented computing based on ad-hoc web service compositions in dynamic environments / Vers un paradigme service résilient basé sur ad-hoc compositions des services web dans des environnements dynamiques

Li, Wenbin 27 March 2014 (has links)
Le processus de composition des services Web joue un rôle important dans la réalisation des architectures orientées services (SOA). Dans les environnements dynamiques dans lesquels des informations con-textuelles changent souvent, le processus de composition est souvent affec-té pendant les phases de conception et d’exécution. Ce processus devrait par conséquence être en mesure de s'adapter aux changements en temps de conception et exécution. A présent, les architectures orientées services et les mécanismes automatiques de composition de services Web ne parviennent pas à faire face aux changements continus et imprévisibles. Construire des architectures orientées services qui s'adaptent aux changements dans des environnements dynamiques révèle un défi pour les processus de com-position de services Web. En outre, les processus de composition actuelles offrent un support limité pour les utilisateurs professionnels de spécifier leurs exigences métier afin générer automatiquement les processus métiers (services Web composites). Par cela, l'écart entre les exigences fonction-nelles et non-fonctionnelles au niveau métier et les exigences techniques liées aux mécanismes de composition de services Web augmentent la com-plexité du développement d'applications ou de processus métier adaptés aux environnements dynamiques. Pour remédier à ces défis, nous introduisons le concept de rési-lience appliqué à l'informatique orientée services (nommé SOC résilient) afin de construire des applications et processus métier dynamiques en res-pectant les exigences métier dans des environnements dynamiques. La SOA résilient est conçue comme un ensemble de modèles qui affectent, et sont affectées par, d’autres modèles. Dans cette thèse, nos contributions, qui se concentrent en particulier sur le modèle d’exigence de composition et le modèle de composition des services Web, composent trois parties princi-pales: tout d'abord le modèle de d’exigence est modélisé aux trois niveaux, i.e., métier, capacité, et règle. Particulièrement, le modèle de d’exigence métier offre aux utilisateurs un langage structuré à base de langage naturelle pour spécifier les processus métier; d'autre part, un processus de trans-formation dérive par transformation un modèle d’exigence de composition à base de règles. Chaque règle représente un ensemble de contraintes multi-objectives concernant différentes variables liées au processus de composi-tion et à son environnement dynamique. Troisièmement, une approche ad-hoc de composition des services Web a été développée pour construire de services composites sans plans de composition prédéfinis dans des environ-nements dynamiques. L’approche de transformation de modèle-à-modèle génère les règles qui sont récursivement utilisées pour modifier ces modèles et ensuite replanifiés une composition ad-hoc de services Web. / Due to the distributed and asynchronous nature of Web services, the Web service composition process plays an important role in achieving SOC. In dynamic environments by which contextual information such as Web service properties and composition requirements often change, the composition process is thus affected and, consequently, should be able to adapt composite applications to changes at design time and runtime. Un-fortunately, current Service-Oriented Architecture (SOA) and Web service composition approaches lack of the ability to deal with continuous and un-predictable changes. Building resilient service-oriented architectures that are adaptable to endogenous and exogenous changes in dynamic environments reveal a drastic challenge to current composition processes. In addition, current composition processes provide a limited support for business users to specify their requirements in business languages to automatically compose business processes (i.e., composite services). By such, the gap be-tween business requirements and composition requirements related to Web services increases the complexity of developing adaptable SOA-based ap-plications and processes in dynamic environments. To overcome these challenges, we introduce the concept of Resili-ent Service-Oriented Computing (rSOC) to construct resilient SOA-based applications driven by business requirements in dynamic environments. To this end, the resilient SOA is defined as a set of models that affect and are affected by each other, and relies on a model-to-model transformation ap-proach to ensure SOA adaptability and evolution. In this thesis, we particu-larly focus on two models: a three-level composition requirement model and a Web service composition model, to establish the foundation for a re-silient SOA as follows: firstly, composition requirements are modeled in three levels, i.e., business-centric, capability-focused and rule-driven. Par-ticularly the business-centric requirement model provides business users with a structured natural language to specify requirements; secondly, a two-phase requirement transformation process builds the rule-driven Web ser-vice composition requirement model from the business-centric requirement model as set of composition rules, expressing multi-objective constraints that affect the composition process and its dynamic environment; thirdly, an ad-hoc Web service composition approach is introduced to flexibly con-struct composite services without predefined composition plans. Particularly, composition rules generated in composition process may affect other model(s) in the resilient SOA, such as composition requirement model, and recursively invoke the model-to-model transformation approach to replan the ad-hoc Web service composition approach.
50

Middleware and programming models for multi-robot systems / Intergicielles et modèles de programmation pour les systèmes multi-robots

Chitic, Stefan-Gabriel 15 March 2018 (has links)
Malgré de nombreuses années de travail en robotique, il existe toujours un manque d’architecture logicielle et de middleware stables pour les systèmes multi-robot. Un intergiciel robotique devrait être conçu pour faire abstraction de l’architecture matérielle de bas niveau, faciliter la communication et l’intégration de nouveaux logiciels. Cette thèse se concentre sur le middleware pour systèmes multi-robot et sur la façon dont nous pouvons améliorer les frameworks existantes dans un contexte multi-robot en ajoutant des services de coordination multi-robot, des outils de développement et de déploiement massif. Nous nous attendons à ce que les robots soient de plus en plus utiles car ils peuvent tirer profit des données provenant d’autres périphériques externes dans leur prise de décision au lieu de simplement réagir à leur environnement local (capteurs, robots coopérant dans une flotte, etc.). Cette thèse évalue d’abord l’un des intergiciels les plus récents pour robot(s) mobile(s), Robot operating system (ROS), suivi par la suite d’un état de l’art sur les middlewares couramment utilisés en robotique. Basé sur les conclusions, nous proposons une contribution originale dans le contexte multi-robots, appelé SDfR (Service discovery for Robots), un mécanisme de découverte des services pour les robots. L’objectif principal est de proposer un mécanisme permettant aux robots de garder une trace des pairs accessibles à l’intérieur d’une flotte tout en utilisant une infrastructure ad-hoc. A cause de la mobilité des robots, les techniques classiques de configuration de réseau pair à pair ne conviennent pas. SDfR est un protocole hautement dynamique, adaptatif et évolutif adapté du protocole SSDP (Simple Service Discovery Protocol). Nous conduisons un ensemble d’expériences, en utilisant une flotte de robots Turtlebot, pour mesurer et montrer que le surdébit de SDfR est limité. La dernière partie de la thèse se concentre sur un modèle de programmation basé sur un automate temporisé. Ce type de programmation a l’avantage d’avoir un modèle qui peut être vérifié et simulé avant de déployer l’application sur de vrais robots. Afin d’enrichir et de faciliter le développement d’applications robotiques, un nouveau modèle de programmation basé sur des automates à états temporisés est proposé, appelé ROSMDB (Robot Operating system Model Driven Behaviour). Il fournit une vérification de modèle lors de la phase de développement et lors de l’exécution. Cette contribution est composée de plusieurs composants : une interface graphique pour créer des modèles basés sur un automate temporisé, un vérificateur de modèle intégré basé sur UPPAAL et un générateur de squelette de code. Enfin, nous avons effectué deux expériences : une avec une flotte de drones Parrot et l’autre avec des Turtlebots afin d’illustre le modèle proposé et sa capacité à vérifier les propriétés. / Despite many years of work in robotics, there is still a lack of established software architecture and middleware for multi-robot systems. A robotic middleware should be designed to abstract the low-level hardware architecture, facilitate communication and integration of new software. This PhD thesis is focusing on middleware for multi-robot system and how we can improve existing frameworks for fleet purposes by adding multi-robot coordination services, development and massive deployment tools. We expect robots to be increasingly useful as they can take advantage of data pushed from other external devices in their decision making instead of just reacting to their local environment (sensors, cooperating robots in a fleet, etc). This thesis first evaluates one of the most recent middleware for mobile robot(s), Robot operating system (ROS) and continues with a state of the art about the commonly used middlewares in robotics. Based on the conclusions, we propose an original contribution in the multi-robot context, called SDfR (Service discovery for Robots), a service discovery mechanism for Robots. The main goal is to propose a mechanism that allows highly mobile robots to keep track of the reachable peers inside a fleet while using an ad-hoc infrastructure. Another objective is to propose a network configuration negotiation protocol. Due to the mobility of robots, classical peer to peer network configuration techniques are not suitable. SDfR is a highly dynamic, adaptive and scalable protocol adapted from Simple Service Discovery Protocol (SSDP). We conduced a set of experiments, using a fleet of Turtlebot robots, to measure and show that the overhead of SDfR is limited. The last part of the thesis focuses on programming model based on timed automata. This type of programming has the benefits of having a model that can be verified and simulated before deploying the application on real robots. In order to enrich and facilitate the development of robotic applications, a new programming model based on timed automata state machines is proposed, called ROSMDB (Robot Operating system Model Driven Behaviour). It provides model checking at development phase and at runtime. This contribution is composed of several components: a graphical interface to create models based on timed automata, an integrated model checker based on UPPAAL and a code skeleton generator. Moreover, a ROS specific framework is proposed to verify the correctness of the execution of the models and to trigger alerts. Finally, we conduct two experiments: one with a fleet of Parrot drones and second with Turtlebots in order to illustrates the proposed model and its ability to check properties.

Page generated in 0.1304 seconds