• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 8
  • 2
  • Tagged with
  • 29
  • 29
  • 29
  • 14
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie / Semantic interoperability between image processing tools in neuroimaging

Wali, Bacem 21 June 2013 (has links)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG. / The field of neuroimaging research requires the ability to share, reuse and compare image processing tools coming from different laboratories. However, sharing treatment as services and composing them as workflows, is usually difficult and a complex task. This is due in most cases to the heterogeneity of services and platforms with regards to their conception and their implementation. We work within the NeuroLOG project, which aims at developing a middleware to federate data repositories and to facilitate the sharing and reuse of processing tools to analyze the shared images. It adopts an ontological approach for data and tools mediation and for sharing resources. This work aims to provide tools mediation to enhance the sharing and composition of image processing tools and provide non-specialist and expert users of neuroimaging field with an ergonomic and easy to use composition platform. We have chosen to use the Semantic Web techniques to address the various problems of resource interoperability and consistency. The first proposed solution is based on an extension of the OWL-S framework. It has been adapted to the various web services of our neuroimaging platform. We finally concluded that services that haven't the WSDL standard as descriptor could not be chained as workflow. So, we have proposed a new approach to compose image processing tools. It is based on a new ontological model for service composition that meets the requirements of the neuroimaging domain and the constraints of our domain ontology OntoNeuroLOG and addresses the various problems encountered in the development of the first approach. This work led to solve the two major problems in the composition of services; the heterogeneity of services descriptors and the interoperability of services according to the constraints within the NeuroLOG platform.
22

Système de gestion de flux pour l'Internet des objets intelligents / Data stream management system for the future internet of things

Billet, Benjamin 19 March 2015 (has links)
L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement. / The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.
23

Fusion de données géoréférencées et développement de services interopérables pour l'estimation des besoins en eau à l'échelle des bassins versants

Beaufils, Mickaël 04 December 2012 (has links) (PDF)
De nos jours, la préservation de l'environnement constitue un enjeu prioritaire. La compréhension des phénomènes environnementaux passe par l'étude et la combinaison d'un nombre croissant de données hétérogènes. De nombreuses initiatives internationales (INSPIRE, GEOSS) visent à encourager le partage et l'échange de ces données. Dans ce sujet de recherche, nous traitons de l'intérêt de mettre à disposition des modèles scientifiques sur le web. Nous montrons l'intérêt d'utiliser des applications s'appuyant sur des données géoréférencées et présentons des méthodes et des moyens répondant aux exigences d'interopérabilité. Nous illustrons notre approche par l'implémentation de modèles d'estimation des besoins en eau agricoles et domestiques fonctionnant à diverses échelles spatiales et temporelles. Un prototype basé sur une architecture entièrement orientée services web a été développé. L'outil s'appuie sur les standards Web Feature Service (WFS), Sensor Observation Service (SOS) et Web Processing Service (WPS) de l'OGC. Enfin, la prise en compte des imperfections des données est également abordée avec l'intégration de méthodes d'analyse de sensibilité et de propagation de l'incertitude.
24

Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie

Wali, Bacem 21 June 2013 (has links) (PDF)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG.
25

Approche dirigée par les modèles pour la spécification, la vérification formelle et la mise en oeuvre de services Web composés

Dumez, Christophe 31 August 2010 (has links) (PDF)
Dans ce travail, une approche pour la spécification, la vérification formelle et la mise en oeuvre de services Web composés est proposée. Il s'agit d'une approche dirigée par les modèles fidèle aux principes de MDA définis par l'OMG. Elle permet au développeur de s'abstraire des difficultés liées à l'implémentation en travaillant sur les modèles de haut niveau, indépendants de la plateforme ou de la technologie d'implémentation cible. Les modèles sont réalisés à l'aide du langage de modélisation UML. Plus précisément, une extension à UML nommée UML-S est proposée pour adapter le langage au domaine de la composition de services. Les modèles UML-S sont suffisamment expressifs et précis pour être directement transformés en code exécutable tout en conservant leur lisibilité. Ces modèles peuvent également être transformés en descriptions formelles LOTOS afin de procéder à leur vérification formelle. L'approche proposée contribue à réduire les temps et les coûts de développement tout en assurant la fiabilité des services composés.
26

Architecture distribuée interopérable pour la gestion des projets multi-sites : application à la planification des activités de production / A distributed and interoperable architecture to manage multi-site projects : application to the planning of production activities

Ishak, Karim 04 November 2010 (has links)
Aujourd’hui, la production est souvent multi-site car les entreprises se recentrent sur leurs cœurs de métiers. Dans ce contexte, la gestion des projets est une tâche difficile car il faut prendre en compte la distribution de la décision et l’hétérogénéité qui peut exister entre les différentes applications de production des partenaires. Les Systèmes Multi-Agents, et notamment le modèle SCEP (Superviseur, Client, Environnement, Producteur), apportent une solution satisfaisante au problème de la distribution de la décision, en instaurant une coopération entre des agents responsables de la gestion des projets client et des agents représentant les sites de production distants. Néanmoins, ce modèle présente des limites à cause de sa faible capacité à communiquer et à coopérer avec des modèles et des systèmes de gestion hétérogènes ainsi qu’à sa difficulté à localiser les nouveaux partenaires. Dans ce mémoire, nous proposons une architecture distribuée et interopérable SCEP-SOA intégrant les concepts du modèle SCEP et ceux du modèle SOA (Service Oriented Architecture) qui offre des mécanismes de mise en relation des partenaires et permet des communications entre des systèmes et des applications hétérogènes. Pour garantir la bonne compréhension des informations échangées entre les partenaires, l’architecture SCEP-SOA met en œuvre une stratégie d’interopérabilité sémantique basée sur l’intégration des ontologies. Cette stratégie s’articule autour d’une ontologie globale et commune utilisée pour l’échange des informations, et des mécanismes de correspondances entre cette ontologie globale et les ontologies locales des partenaires. Cette architecture est illustrée sur un cas d’étude où l’on se focalise sur l’interopérabilité entre des applications dédiées à la planification des projets de fabrication multi-sites. / Today, the production is often multi-site because companies focus on their core competencies. In this context, projects’ management is a difficult task because it must take into account the distribution of the decision and the heterogeneity which can exist between the various production applications of the partners. The Multi-agents systems, in particular the SCEP model (Supervisor, Customer, Environment, Producer), offer a satisfactory solution for the decision distribution problem, by establishing a cooperation between agents responsible of the management of the customer projects and agents representing the remote production sites. Nevertheless, this model presents limits because of its weak ability to communicate and to cooperate with heterogeneous models and management systems, as well as in its difficulty to localize new partners. In this dissertation, we propose a distributed and interoperable architecture, SCEP-SOA, which integrates concepts of the SCEP model and SOA (Service Oriented Architecture) which offers mechanisms for putting in relation various partners and allows communication between heterogeneous systems and applications. To insure the good understanding of the information exchanged between the partners, the SCEP-SOA architecture implements a strategy of semantic interoperability based on the integration of ontologies. This strategy is based on the use of a shared global ontology for information exchange, and on mechanisms of mappings between the global ontology and the partners’ local ontologies. This architecture is illustrated by a study case in which we focus on the interoperability between applications dedicated to the planning of manufacturing multi-sites projects
27

An autonomic service bus for service-based distributed systems / Un bus de service autonome pour des systèmes distribués à base de services

Diop, Codé 29 April 2015 (has links)
Avec l’évolution des technologies de l’internet, les applications et plus généralement lessystèmes distribués sont de plus en plus conçus en composant et interconnectant un ensemblede services distribués. Ces services pouvant être très hétérogènes, plusieurs approches etsolutions pour la gestion de l’intégration et l’interopérabilité ont été proposées. De toutes cespropositions, les bus de services (ESB – Enterprise Service Bus) ont été désignés commeétant la solution la plus adaptée. Toutefois, le problème avec les ESB est qu’ils sont déployésdans un contexte très évolutif et très dynamique; un contexte dans lequel un grand nombre deservices peuvent être fournis et utilisés de façon concurrente à travers le bus. L’utilisationconcurrente de ces services mais aussi des ressources sous-jacentes allouées au bus (mémoire,processeur, etc.) peut conduire à des événements imprévisibles tels qu’une surcharge du bus,une indisponibilité des services, des temps de réponse élevés, une diminution de la fiabilité,etc. Dans ce contexte, des solutions efficaces permettant de garantir ou d'améliorer à la fois laqualité de service et l'évolutivité offertes par les ESB sont nécessaires. Le but de cette thèse est de proposer les principes architecturaux pour la mise en place un busde service autonome (ASB) qui offre une solution de communication scalable guidée par lestransactions des systèmes interconnectés, mais aussi par les ressources disponibles. L’ASBoffre aussi un service d’intégration différentiée en fonction des exigences en termes de qualitéde service spécifiques aux systèmes interconnectés / With the accelerated evolution of Internet, distributed systems are more and more designed asa composition of distributed services that need to be composed to implement complexbusiness processes. Diversity and heterogeneity of these services raise important integrabilityand interoperability requirements. To meet these needs, the Enterprise Service Bus (ESB) hasbeen proposed as a mediator based on open and standard interfaces facilitating theintegrability and interoperability of services. However, in very active and dynamic contextswhere a large number of concurrent services can be provided and consumed via the ESB, thecompetition for using shared services, but also the underlying computing resources allocatedto the ESB (memory, processor, etc.) can lead to unpredictable events such as serviceunavailability, high response time, decrease of reliability, etc. Such anomalies need to beaddressed by proposing efficient strategies able to guarantee or to improve both the QoS andscalability offered by the ESB. The aim of this thesis is to propose an architectural framework for a QoS-aware AutonomicService Bus (ASB) able to offer in an autonomic way a scalable communication solutionguided by distributed systems transactions and the state of the underlying computingresources. The ASB offers also a differentiated integration service based on the QoSrequirements of interconnected systems
28

Interprétation automatique de données hétérogènes pour la modélisation de situations collaboratives : application à la gestion de crise / Automatic interpretation of heterogeneous data to model collaborative situations : application to crisis management

Fertier, Audrey 29 November 2018 (has links)
Les travaux présentés dans ce manuscrit s’appliquent au domaine de la gestion de crise française, et notamment à la phase de réponse qui suit un évènement majeur, comme une crue ou un accident industriel. Suite à l’évènement, des cellules de crise sont activées pour prévenir et traiter les conséquences de la crise. Elles font face, dans l’urgence, à de nombreuses difficultés. Les parties-prenantes sont nombreuses, autonomes et hétérogènes, la coexistence de plans d’urgence engendre des contradictions et des effets en cascade se nourrissent des interconnexions entre réseaux. Ces constats arrivent alors que les données disponibles sur les réseaux informatiques ne cessent de se multiplier. Elles sont, par exemple, émises par des capteurs de mesures, sur des réseaux sociaux, ou par des bénévoles. Ces données sont l’occasion de concevoir un système d’information capable de les collecter pour les interpréter en un ensemble d’information formalisé, utilisable en cellule de crise. Pour réussir, les défis liés aux 4Vs du Big data doivent être relevés en limitant le Volume, unifiant (la Variété) et améliorant la Véracité des données et des informations manipulées, tout en suivant la dynamique (Vélocité) de la crise en cours. Nos états de l’art sur les différentes parties de l’architecture recherchée nous ont permis de définir un tel système d’information. Ce dernier est aujourd’hui capable de (i) recevoir plusieurs types d’évènements émis de sources de données connues ou inconnues, (ii) d’utiliser des règles d’interprétations directement déduites de règles métiers réelles et (iii) de formaliser l’ensemble des informations utiles aux parties-prenantes. Son architecture fait partie des architectures orientées évènements, et coexiste avec l’architecture orientée services du logiciel développé par le laboratoire Centre de Génie Industriel (CGI). Le système d’information ainsi implémenté a pu être éprouvé sur un scénario de crue majeure en Loire Moyenne, élaboré par deux Services de Prévision des Crues (SPC) français. Le modèle décrivant la situation de crise courante, obtenu par le système d’information proposé, peut être utilisé pour (i) déduire un processus de réponse à la crise, (ii) détecter des imprévus ou (iii) mettre à jour une représentation de la situation en cellule de crise. / The present work is applied to the field of French crisis management, and specifically to the crisis response phase which follows a major event, like a flood or an industrial accident. In the aftermath of the event, crisis cells are activated to prevent and deal with the consequences of the crisis. They face, in a hurry, many difficulties. The stakeholders are numerous, autonomous and heterogeneous, the coexistence of contingency plans favours contradictions and the interconnections of networks promotes cascading effects. These observations arise as the volume of data available continues to grow. They come, for example, from sensors, social media or volunteers on the crisis theatre. It is an occasion to design an information system able to collect the available data to interpret them and obtain information suited to the crisis cells. To succeed, it will have to manage the 4Vs of Big Data: the Volume, the Variety and Veracity of data and information, while following the dynamic (velocity) of the current crisis. Our literature review on the different parts of this architecture enables us to define such an information system able to (i) receive different types of events emitted from data sources both known and unknown, (ii) to use interpretation rules directly deduced from official business rules and (iii) to structure the information that will be used by the stake-holders. Its architecture is event-driven and coexists with the service oriented architecture of the software developed by the CGI laboratory. The implemented system has been tested on the scenario of a 1/100 per year flood elaborated by two French forecasting centres. The model describing the current crisis situation, deduced by the proposed information system, can be used to (i) deduce a crisis response process, (ii) to detect unexpected situations, and (iii) to update a COP suited to the decision-makers.
29

Fusion de données géoréférencées et développement de services interopérables pour l’estimation des besoins en eau à l’échelle des bassins versants / Geospatial data fusion and development of interoperable services to assess water needs at watershed scale

Beaufils, Mickaël 04 December 2012 (has links)
De nos jours, la préservation de l’environnement constitue un enjeu prioritaire. La compréhension des phénomènes environnementaux passe par l’étude et la combinaison d’un nombre croissant de données hétérogènes. De nombreuses initiatives internationales (INSPIRE, GEOSS) visent à encourager le partage et l’échange de ces données. Dans ce sujet de recherche, nous traitons de l’intérêt de mettre à disposition des modèles scientifiques sur le web. Nous montrons l’intérêt d’utiliser des applications s’appuyant sur des données géoréférencées et présentons des méthodes et des moyens répondant aux exigences d’interopérabilité. Nous illustrons notre approche par l’implémentation de modèles d’estimation des besoins en eau agricoles et domestiques fonctionnant à diverses échelles spatiales et temporelles. Un prototype basé sur une architecture entièrement orientée services web a été développé. L’outil s’appuie sur les standards Web Feature Service (WFS), Sensor Observation Service (SOS) et Web Processing Service (WPS) de l’OGC. Enfin, la prise en compte des imperfections des données est également abordée avec l’intégration de méthodes d’analyse de sensibilité et de propagation de l’incertitude. / Nowadays, preservation of the environment is a main priority. Understanding of environmental phenomena requires the study and the combination of an increasing number of heterogeneous data. Several international initiatives (INSPIRE, GEOSS) aims to encourage the sharing and exchange of those data.In this thesis, the interest of making scientific models available on the web is discussed. The value of using applications based on geospatial data is demonstrated. Several methods and means that satisfy the requirements of interoperability are also purposed.Our approach is illustrated by the implementation of models for estimating agricultural and domestic water requirements. Those models can be used at different spatial scales and temporal granularities. A prototype based on a complete web service oriented architecture was developed. The tool is based on the OGC standards Web Feature Service (WFS), Sensor Observation Service (SOS) and Web Processing Service (WPS).Finally, taking into account the imperfections of the data is also discussed with the integration of methods for sensitivity analysis and uncertainty propagation.

Page generated in 0.5088 seconds