• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 85
  • 15
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 301
  • 114
  • 67
  • 66
  • 52
  • 52
  • 43
  • 37
  • 37
  • 33
  • 33
  • 33
  • 31
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Elaboration d'un modèle d'identité numérique adapté à la convergence

Kiennert, Christophe 10 July 2012 (has links) (PDF)
L'évolution des réseaux informatiques, et notamment d'Internet, s'ancre dans l'émergence de paradigmes prépondérants tels que la mobilité et les réseaux sociaux. Cette évolution amène à considérer une réorganisation de la gestion des données circulant au cœur des réseaux. L'accès à des services offrant de la vidéo ou de la voix à la demande depuis des appareils aussi bien fixes que mobiles, tels que les Smartphones, ou encore la perméabilité des informations fournies à des réseaux sociaux conduisent à s'interroger sur la notion d'identité numérique et, de manière sous-jacente, à reconsidérer les concepts de sécurité et de confiance. La contribution réalisée dans ce travail de thèse consiste, dans une première partie, à analyser les différents modèles d'identité numérique existants ainsi que les architectures de fédération d'identité, mais également les protocoles déployés pour l'authentification et les problèmes de confiance engendrés par l'absence d'élément sécurisé tel qu'une carte à puce. Dans une deuxième partie, nous proposons, en réponse aux éléments dégagés dans la partie précédente, un modèle d'identité fortement attaché au protocole d'authentification TLS embarqué dans un composant sécurisé, permettant ainsi de fournir les avantages sécuritaires exigibles au cœur des réseaux actuels tout en s'insérant naturellement dans les différents terminaux, qu'ils soient fixes ou mobiles. Enfin, dans une dernière partie, nous expliciterons plusieurs applications concrètes, testées et validées, de ce modèle d'identité, afin d'en souligner la pertinence dans des cadres d'utilisation pratique extrêmement variés.
102

CA-ICO : co-apprentissage dans les interfaces cerveau - ordinateur / Co-learning in brain-computer interfaces

Kos'myna, Nataliya 23 October 2015 (has links)
Les Interfaces Cerveau Ordinateur Actives (ICOs) permettent à une personne d'exercer un contrôle direct et volontaire sur un système informatique par interprétation de son activité cérébrale : certains signaux du cerveau sont capturés afin que le système reconnaisse des actions imaginées spécifiques (mouvements, images, concepts). Les ICOs actives et leurs utilisateurs doivent être entrainés. Cet entraînement rend les signaux plus aisés à reconnaître par le système.Cependant, à l'heure actuelle les ICO servent principalement dans un contexte médical pour aider les personnes en situation de handicap (moteur, ou empêchant complètement la communication avec le monde extérieur) et se trouvent rarement en dehors de laboratoires spécialisés.Les ICO ont de nombreuses limitations :• La variabilité dans les signaux: les signaux sont différents d'une personne à l'autre voire même chez un même individu à des moments différents.• Des sessions d'entraînement longues et répétitives: entre dix minutes et deux mois, sont ennuyantes et désengagent les utilisateurs du processus d'apprentissage.• Un feedback limité: les systèmes actuels proposent un feedback unimodal élémentaire qui est inadapté pour les nombreux utilisateurs. la communication est unidirectionnelle dans le sens où le système donne des instructions que l'utilisateur doit exécuter.L'objectif de cette thèse est de proposer des solutions aux problèmes sus décrits afin d'obtenir une architecture consistante qui rendra les ICO plus compatibles avec les applications d'IHM. L'idée principale est l'implantation du co-apprentissage dans la boucle ICO et l'exploration de la manière dont les utilisateurs et le système peuvent mutuellement se donner du feedback dans le but de l'amélioration de l'utilisabilité des ICO.Cette thèse se structure autour de trois innovations portant sur la boucle ICO :• Une architecture générale basée sur les principes des ICO asynchrones et sur l'entraînement incrémental combinés avec une séparation aveugle des sources et un classifieur à distance minimum. Nous évaluerons l'architecture sur une tache de pilotage de drone au long d'un mois et concluons qu'elle est en adéquation avec les besoins d'une utilisation quotidienne ludique.• Une modalité de visualisation plus intuitive pour les résultats de classification ainsi que pour les caractéristiques de distance sur la base d'une projection en coordonnées de Wachspress pour un nombre arbitraire de classes. Nous combinons la visualisation avec un feedback direct des utilisateurs leur permettant d'interactivement changer la marge de classification, le type de distance où encore de trier et de gérer les signaux d'entraînement en temps réel. Nous évaluons cette contribution sur un jeu de tir simple et découvrons qu'il y a une bonne synergie entre la modalité de visualisation et le feedback direct des utilisateurs et qu'une telle combinaison est bien plus agréable à utiliser qu'un entraînement d'ICO standard.• Enfin, nous développons une ICO fonctionnelle à base d'imagerie conceptuelle à l'aide de notre architecture ainsi que de nos systèmes de visualisation et de feedback, ce qui permet une interaction plus agréable au travers de l'imagination de catégories sémantiques et de concepts. Nous démontrons que ce type d'ICO détecte plus aisément les catégories sémantiques éloignées plutôt que les catégories sémantiques proches. Pour terminer, nous créons un nouveau protocole d'entraînement implicite pour les ICO à base d'Imagerie Conceptuelle basé sur l'amorçage sémantique et conceptuel, ce qui permet d'intégrer l'entraînement dans le scénario et l'environnement d'une jeu vidéo sans que l'utilisateur n'en soit conscient. Notre protocole mène à une meilleure immersion et à meilleur sentiment de flot vis à vis du jeu. / Active Brain Computer Interfaces (BCIs) allow people to exert direct voluntary control over a computer system: their brain signals are captured and the system recognizes specific imagined actions (movements, images, concepts). Active BCIs and their users must undergo training. This makes the signals easier to recognize by the system. This acquisition can take from 10 minutes up to 2 months. BCIs can thus be applied to many control and interaction scenarios of our everyday lives, especially in relation to entertainment (Wolpaw et al., 2002).BCIs are mostly used by disabled people in a medical setting and seldom leave the lab. First of all, high-grade equipment is expensive and non-portable. Although there are commercial ventures proposing BCI acquisition equipment to the general public, the quality is still insufficient to build accurate and robust BCIs.BCIs also suffer from numerous limitations:• Variability of the signals: signals different across people or within the same individual at different times.• Long and repetitive training sessions: between 10 minutes up to several months, disengage and bore users.• Limited feedback: simple unimodal feedback ill adapted for many users. Feedback is unidirectional and the user just has to follow instructions.All these issues limit the adoption of BCI, the lack of widespread commercial success and the use of BCI from human computer interaction applications.The objective of the thesis is to propose solutions to the above problems so as to obtain a consistent architecture that will allow BCIs to be better suitable to Human-Computer Interaction (HCI) applications. The idea is to implement co-learning in the BCI loop and to explore how users and system can give feedback to each other in order to improve BCI usability.This thesis is structured around three innovations surrounding the BCI loop:• A general architecture based on asynchronous BCI principles and on incremental training combined with an unsupervised blind-source separation filter and a minimum distance classifier. This architecture allows producing BCIs with minimal training session. We evaluate the architecture on a drone piloting task over a month and find that it is suitable for use in daily recreational applications.• A more intuitive visualization modality for classification outcomes and distance features using Wachspress coordinate projection for an arbitrary number of classes. We combine the visualization with direct feedback mechanism where users can interactively change the classification margin, change the types of features as well as edit the training trials in real-time. We evaluate our contribution on a simple shooter game and find there is a good synergy between our visualization modality and direct user feedback and that the combination is much more enjoyable to users than a standard BCI training.• Finally we develop an operational Conceptual Imagery BCI based on our architecture, visualization and feedback system that allow for more natural interactions through the imagination of sematic categories and concepts. We show that this type of BCI is more effective at detecting distinct semantic categories rather than close ones. Then, we build on this conceptual BCI to propose a smart home control system for healthy and disabled users. Finally we invent a new seamless training protocol for Conceptual Imagery that uses conceptual and semantic priming in order to integrate the training in the narrative and environment of the game without the realization of the user. Our technique leads to better flow and immersion of users in the game. We believe this training protocol can be extended to many tasks outside of games or even of Conceptual Imagery.
103

Optimisation des échanges dans le routage géocast pour les réseaux de Véhicules Ad Hoc VANETs. / Exchanges optimization in the geocast routing for vehicular Ad HOC Networks VANETs

Allal, Salim 10 December 2014 (has links)
Les travaux réalisés dans cette thèse traitent de l'optimisation des échanges dans les réseaux véhiculaires sans fil en mode sans infrastructure Ad Hoc (VANETs). Les VANETs sont une partie des systèmes de transports intelligents (STIs).Ces derniers essaient de répondre à la question de comment équiper les véhicules de systèmes de communications sans fil pour éviter les accidents, mieux gérer les embouteillages et avoir des.impacts économiques, énergétiques et environnementaux positifs. Les VANETs utilisent les équipements mis en place dans les véhicules par les STI pour assurer des communications sans fil autonomes (IEEE 802.11p, 3G, LTE, etc) entre les véhicules ou entre les véhicules et les infrastructures fixes. Avec de tels mécanismes de communication, un véhicule peut échanger des informations avec ses voisins proches à un saut ou loin à deux sauts et plus grâce à la technique de relayage des messages de la source à la destination à travers les véhicules intermédiaires. Afin d'assurer un cheminement optimal de ces messages, des protocoles de routage existent. Dans ce travail, nous proposons un nouveau concept de routage de type géocast pour lequel la littérature ne répond pas. Le routage géocast dans la littérature permettant d'acheminer un message d'un véhicule source unique vers tous les véhicules situés dans une zone de destination géographique bien définie, nous avons proposée de scinder cette zone de destination en plusieurs sous-zones géographiques. La solution que nous avons proposé est le protocole GeoSUZ qui permet d'optimiser les échanges dans le contexte de routage géocast multi-zones de destination. / Vehicular ad hoc networks (VANETs) are a part of intelligent transportation systems (ITS). These letter attempt to answer the question of how to equip vehicles with wireless communication means to avoid accidents, better manage congestion and have positive impact on economics, energy and environment. Indeed, with wireless communication mechanisms such as IEEE 802.11p, a vehicle may exchange information with its near neighbors at one hop or at two furthur hops trhough relaying messages technique across intermediate vehicles. Some of these messages may cover vehicles wich are in a defined geographical area and spread throughout the network will consume bandwidth and penalize other vehicles. This is the case for information on the road trafic, for example. In the latter case, routing protocols said Geocast are used for the dissemination of these messages. The protocols are used to route a message from a unique source to multiple destination vehicles locked in the same geographic area. In this thesis, we considered the case where we have several geographic areas of interest and have proposed a new Geocast routing mechanism, called GeoSUZ, for conveying a message optimally between a source and multiple destination areas. An optimized broadcasting mechanism within an area is also combined with GeoSUZ algorithm to ensure end-to-end routing with minimal overhead.
104

Spécification de paramètres techniques et stratégie d'échantillonnage pour la conception de nouveaux capteurs lidars dédiés à la cartographie de forêts / Specification of technical parameters and sampling strategy for the design of new lidarsensors dedicated to forest mapping

Allouis, Tristan 14 December 2011 (has links)
Les forestiers ont besoin d'outils permettant de cartographier les essences, la hauteur, la structure ou la biomasse des peuplements. Même si le lidar aéroporté (light detection and ranging, détection et télémétrie par laser) ne permet pas de mesurer l'ensemble de ces variables, il permet d'accéder aux hauteurs et à la biomasse de manière rapide, précise et surtout spatialisée sur de grandes surfaces. Cependant, les lidars aujourd'hui utilisés en forêts n'ont pas été conçus spécifiquement pour étudier la végétation, et l'ajustement de leurs caractéristiques techniques est supposé permettre d'améliorer la précision des mesures. L'objectif de cette thèse est de déterminer des configurations de capteurs lidars dédiés à l'étude de la végétation forestière, et de proposer des méthodes d'extraction de paramètres forestiers adaptés aux différentes configurations. La capacité de différentes résolutions (taille d'empreinte et échantillonnage spatial), longueurs d'onde et modes d'enregistrement du signal retour à mesurer des paramètres forestiers (hauteurs et densité d'arbres, taille des couronnes et indirectement volume et biomasse) a été évaluée. Les études ont été menées de l'échelle de l'arbre jusqu'à celle du peuplement, sur des données expérimentales ou simulées. Dans une première partie, des méthodes de traitement de données lidars aéroportés classiques (scanneur, largeur du faisceau décimétrique, 5 mesures/m², laser proche infrarouge) ont été développées pour estimation la biomasse d'arbres individuels. Dans cette étude, l'apport de nouvelles données dites "full-waveform" (enregistrement du signal complet) a été démontré par rapport aux traditionnelles données multiéchos (extraction des échos les plus significatifs). Dans une seconde partie, une expérimentation avec un prototype lidar du Commissariat à l'Énergie Atomique (CEA) embarqué sur un ULM a été réalisée (profileur, largeur de faisceau de 2,4 m, espacement de 2,4 m entre deux mesures successives le long de la ligne de vol, laser ultraviolet). Sans permettre des mesures d'arbres individuels, cette configuration de capteur a permis d'étudier les variations de la structure des arbres à l'intérieur d'une placette forestière (30 m de diamètre). En validant l'utilisation d'un laser ultraviolet pour l'étude de la végétation, les résultats de cette expérience permettent d'envisager le développement de capteurs bifonctions atmosphère/végétation. Dans une troisième partie, des signaux lidars à larges empreintes (plusieurs dizaines de mètres au sol) ont été simulés par agrégation de signaux lidars aéroportés classiques. Une méthode de modélisation permettant d'étudier la dynamique supposée d'un signal lidar satellitaire dans différents types de forêts a été proposée. Elle apporte des informations utiles à la calibration de l'énergie à émettre pour une future mission satellitaire dédiée à la cartographie de forêts. Le principal problème avec les données à larges d'empreintes est la forte influence de la topographie sur la précision des mesures de hauteurs d'arbres en zones pentues. En conséquence, une méthode de correction de cet effet a été élaborée, permettant ainsi de mesurer les hauteurs d'arbres avec une précision jusqu'alors inenvisageable. Cette méthode a de plus ouvert de nouvelles perspectives dans l'estimation de la topographie sous la forêt, à partir de données lidars à larges empreintes. / Foresters need tools to map the tree species, tree heights, stand structure and biomass. Although the airborne lidar (Light detection and ranging) technology does not give access to all these variables, it can provide quick, accurate and spatially explicit measurements of tree heights and biomass over large surfaces. However, lidar systems currently used have not been specially designed to performed vegetation studies. The adjustment of the technical characteristics of such systems is expected to improve the accuracy of retrieved forest parameters. Consequently, the objective of this thesis is to determine configurations of lidar sensors dedicated to the study of forest vegetation, and to propose methods designed to extract forest parameters depending on the different configurations. The ability of different resolutions (footprint size and spatial sampling), wavelengths and sampling modes of the backscattered signal to measure forest parameters (canopy height and density, crown size and also volume and biomass) was evaluated. The studies were conducted from tree to stand level, on experimental or simulated data. In a first part, we developed methods to process classic airborne lidar data (scanner system, tens of centimeter footprint, 5 measurements/m², near-infrared laser) for the estimation of the biomass of individual trees. In this study, we demonstrated the contribution of new data called "Full-waveform" (recording the entire signal) compared to traditional multi-echoes data (extraction of the most significant echoes). In a second part, we performed an experiment using a Comissariat of Energy Atomique (CEA)'s lidar prototype onboard an ultra-light aircraft (profiler system, 2.4 m footprint, 2.4 m spacing between two measurements along the flight line, ultraviolet laser). Such a configuration did not allow to measure individual trees, but we were able to study variations in forest structure at the plot level (30 m diameter). Having demonstrated the ability of an ultraviolet lidar to perform vegetation studies, this sensor opens the way to the development of bi-functional lidar for both atmosphere and vegetation remote sensing. In a third part, large footprint lidar signals (tens of meters on the ground) were simulated from the aggregation of classical airborne lidar signals. We proposed a method for modeling the signal dynamics of satellite lidars in different forest types, in order to calibrate the energy to emit for a future space-borne mission. The main problem with large-footprint size is the strong influence of topography on accurate measurements of tree heights in steep areas. We consequently developed a method to correct this effect, thus increasing the accuracy of tree height retrieval. This approach also opened new perspectives in topography assessment from large-footprint data in forest environments.
105

Isothermes de désorption de matériaux cimentaires : étude d'un protocole accéléré et estimation du VER / Desorption isotherms of cementitious materials : study of an accelerated protocol and estimation of RVE

Wu, Qier 08 December 2014 (has links)
Dans le cadre de la gestion des déchets radioactifs en France par l’Andra, l'évaluation et la prédiction de la durabilité des structures en béton nécessitent la connaissance des isothermes de désorption des bétons. L’objectif de cette étude est de développer un protocole expérimental accéléré pour obtenir des isothermes de sorption de matériaux cimentaires plus rapidement et d’estimer la taille du Volume Elémentaire Représentatif (VER) liée à l’obtention des isothermes des bétons. Afin de garantir que les résultats expérimentaux puissent être considérés comme statistiquement représentatifs, une grande quantité de disques de trois épaisseurs différentes (1 mm, 2 mm et 3 mm) ont été désaturés. L'effet de l’épaisseur de disque et de la condition de saturation sur la cinétique de désaturation et sur l’isotherme de désorption est analysé. L’influence de la distribution de granulats sur la teneur en eau et sur le degré de saturation des disques minces est étudiée à l'aide d’une technique de microtomographie à rayons X. Une méthode d’analyse statistique est proposée pour estimer le VER lié à l’obtention des isothermes de désorption. Les déformations diamétrales de disques de chaque matériau sont également mesurées au cours de l’expérience de désorption. Un protocole de cycle de désaturation-resaturation rapide est mis en œuvre et met en évidence l’existence d’une hystérésis entre désorption et adsorption. / In the framework of French radioactive waste management and storage, the durability evaluation and prediction of concrete structures requires the knowledge of desorption isotherm of concrete. The aim of the present study is to develop an accelerated experimental method to obtain desorption isotherm of cementitious materials more quickly and to estimate the Representative Volume Element (RVE) size related to the desorption isotherm of concrete. In order to ensure that experimental results can be statistically considered representative, a great amount of sliced samples of cementitious materials with three different thicknesses (1 mm, 2 mm and 3 mm) have been de-saturated. The effect of slice thickness and the saturation condition on the mass variation kinetics and the desorption isotherms is analyzed. The influence of the aggregate distribution on the water content and the water saturation degree is also analyzed. A method based on statistical analysis of water content and water saturation degree is proposed to estimate the RVE for water desorption experiment of concrete. The evolution of shrinkage with relative humidity is also followed for each material during the water desorption experiment. A protocol of cycle of rapid desaturation-resaturation is applied and shows the existence of hysteresis between desorption and adsorption.
106

Exploring heterogeneity in loosely consistent decentralized data replication / Explorer l’hétérogénéité dans la réplication de données décentralisées faiblement cohérentes

Roman, Pierre-Louis 18 December 2018 (has links)
Les systèmes décentralisés sont par nature extensibles mais sont également difficiles à coordonner en raison de leur faible couplage. La réplication de données dans ces systèmes géo-répartis est donc un défi inhérent à leur structure. Les deux contributions de cette thèse exploitent l'hétérogénéité des besoins des utilisateurs et permettent une qualité de service personnalisable pour la réplication de données dans les systèmes décentralisés. Notre première contribution Gossip Primary-Secondary étend le critère de cohérence Update consistency Primary-Secondary afin d'offrir des garanties différenciées de cohérence et de latence de messages pour la réplication de données à grande échelle. Notre seconde contribution Dietcoin enrichit Bitcoin avec des nœuds diet qui peuvent (i) vérifier la validité de sous-chaînes de blocs en évitant le coût exorbitant de la vérification initiale et (ii) choisir leur propres garanties de sécurité et de consommation de ressources. / Decentralized systems are scalable by design but also difficult to coordinate due to their weak coupling. Replicating data in these geo-distributed systems is therefore a challenge inherent to their structure. The two contributions of this thesis exploit the heterogeneity of user requirements and enable personalizable quality of services for data replication in decentralized systems. Our first contribution Gossip Primary-Secondary enables the consistency criterion Update consistency Primary-Secondary to offer differentiated guarantees in terms of consistency and message delivery latency for large-scale data replication. Our second contribution Dietcoin enriches Bitcoin with diet nodes that can (i) verify the correctness of entire subchains of blocks while avoiding the exorbitant cost of bootstrap verification and (ii) personalize their own security and resource consumption guarantees.
107

Protocol architecture and algorithms for distributed data center networks / Protocoles et algorithmes pour les réseaux de centres de données distribués

Raad, Patrick 14 December 2015 (has links)
De nos jours les données ainsi que les applications dans le nuage (cloud) connaissent une forte croissance, ce qui pousse les fournisseurs à chercher des solutions garantissant un lien réseau stable et résilient à leurs utilisateurs. Dans cette thèse on étudie les protocoles réseaux et les stratégies de communication dans un environnement de centre de données distribués. On propose une architecture cloud distribuée, centrée sur l’utilisateur et qui a pour but de: (i) migrer des machines virtuelles entre les centres de données avec un temps d’indisponibilité faible; (ii) fournir un accès résilient aux machines virtuelles; (iii) minimiser le délai d'accès au cloud. On a identifié deux problèmes de décision: le problème d'orchestration de machines virtuelles, prenant en compte la mobilité des utilisateurs, et le problème de basculement et de configuration des localisateurs, prenant en compte les états des liens inter- et intra-centre de données. On évalue notre architecture en utilisant une plate-forme de test avec des centres de données distribués géographiquement et en simulant des scenarios basés sur des traces de mobilités réelles. On montre que, grâce à quelques modifications apportées aux protocoles d'overlay, on peut avoir des temps d'indisponibilité très faibles pendant la migration de machines virtuelles entre deux centres de données. Puis on montre qu’en reliant la mobilité des machines virtuelles aux déplacement géographiques des utilisateurs, on peut augmenter le débit de la connexion. De plus, quand l’objectif est de maximiser le débit entre l’utilisateur et sa ressource, on démontre par des simulations que la décision de l'emplacement des machines virtuelles est plus importante que la décision de basculement de point d'entrée du centre de données. Enfin, grâce à un protocole de transport multi-chemins, on montre comment optimiser les performances de notre architecture et comment à partir des solutions de routage intra-centre de données on peut piloter le basculement des localisateurs. / While many business and personal applications are being pushed to the cloud, offering a reliable and a stable network connectivity to cloud-hosted services becomes an important challenge to face in future networks. In this dissertation, we design advanced network protocols, algorithms and communication strategies to cope with this evolution in distributed data center architectures. We propose a user-centric distributed cloud network architecture that is able to: (i) migrate virtual resources between data centers with an optimized service downtime; (ii) offer resilient access to virtual resources; (iii) minimize the cloud access latency. We identify two main decision making problems: the virtual machine orchestration problem, also taking care of user mobility, and the routing locator switching configuration problem, taking care of both extra and intra data center link states. We evaluate our architecture using real test beds of geographically distributed data centers, and we also simulate realistic scenarios based on real mobility traces. We show that migrating virtual machines between data centers at negligible downtime is possible by enhancing overlay protocols. We then demonstrate that by linking cloud virtual resource mobility to user mobility we can get a considerable gain in the transfer rates. We prove by simulations using real traces that the virtual machine placement decision is more important than the routing locator switching decision problem when the goal is to increase the connection throughput: the cloud access performance is primarily affected by the former decision, while the latter decision can be left to intra data center traffic engineering solutions. Finally, we propose solutions to take profit from multipath transport protocols for accelerating cloud access performance in our architecture, and to let link-state intra data center routing fabrics piloting the cloud access routing locator switching.
108

Adaptation dynamique de données pour la synthèse et le déploiement de protocoles de médiation / Dynamic Data Adaptation for the Synthesis and Deployment of Protocol Mediators

Andriescu, Emil-Mircea 08 February 2016 (has links)
Dans la plupart des systèmes disponibles aujourd'hui l'interopérabilité est fournie comme une capacité statique qui est le résultat d'une intégration conçue manuellement. En conséquence, un nombre important de systèmes fonctionnellement compatibles ne sont pas conçues pour être interopérables. L'objectif de cette thèse est de permettre l'interopérabilité automatisée des protocoles pour les systèmes, services et applications à travers des médiateurs de protocoles synthétisés dynamiquement. Les médiateurs représentent des composants logiciels qui peuvent coordonner les interactions entre deux ou plusieurs systèmes fonctionnellement compatibles, en utilisant les différents moyens de communication (réseaux IP, IPC, la mémoire partagée, etc.). Les médiateurs synthétisés dynamiquement devraient permettre aux applications de s'adapter sans difficulté aux protocoles a priori inconnus, soutiennent l'évolution de ces protocoles tout en contournant les contraintes des systèmes du monde réel, comme celles introduites par la mobilité de l'appareil et des systèmes d'exploitation. Dans cette thèse, nous nous concentrons sur les problèmes de recherche liés à l'automatisation du processus d'adaptation de données dans le cadre de la médiation de protocoles. L'adaptation des données est une étape clé dans la médiation de protocoles qui ne peut pas être résolu indépendamment. Cette dépendance devient visible lorsque les systèmes reposant sur des piles de protocoles complexes doivent être rendus interopérables, malgré les dépendances inter-couche à l'intérieur des données échangées. Il y a la nécessité d'un cadre qui synthétise les médiateurs, tout en tenant compte de l’adaptation de données. / In most systems available today interoperability is provided as a static capability that is the result of manually designed and hand coded integration. In consequence, a substantial number of functionally-compatible systems are not conceived to be interoperable. The focus of this thesis is to enable automated protocol interoperability for systems, services and applications through the means of dynamically synthesized protocol mediators. Protocol mediators represent concrete software components which can coordinate interactions between two or more functionally-compatible systems, relying on various means of communication (IP networks, personal area networks, inter-process communication, shared memory, etc.). Dynamically synthesised mediators should allow applications to seamlessly adapt to a priori unknown protocols, support the evolution of such protocols while circumventing real-world system constraints, such as those introduced by device mobility and operating system differences. In this thesis we focus on the research problems related to automating the process of data adaptation in the context of protocol mediation. Data adaptation is a key phase in protocol mediation that cannot be solved independently. This strong dependence becomes visible when systems relying on multilayer protocol stacks have to be made interoperable, despite cross-layer dependencies inside the exchanged data. There is the need of a frame- work that synthesises mediators while taking into account cross-layer data adaptation.
109

Web Service Composition Compatibility : adaptation in the presence of Business Protocol Evolution / Compatibilité de la composition de services Web : adaptation suite à l’évolution des protocoles métier

Eslamichalandar, Maryam 19 December 2013 (has links)
Avec l’utilisation croissante d’architectures logicielles indépendantes de la plate-forme et du langage dans le paradigme de l’architecture orientée services (SOA), la technologie de services web permet l’interopérabilité dynamique et flexible des processus métiers aussi bien au niveau intra qu’inter-organisationnel. Bien que la normalisation des services web permet de réduire l’hétérogénéité et rend plus facile leur interopérabilité, il y a toujours besoin de vérifier leur compatibilité en particulier dans le contexte inter-entreprises. Deux services sont compatibles si une collaboration entre eux est accomplie avec succès et que chacun puisse atteindre ses résultats attendus (états finaux). L’approche typique devant permettre à des services incompatibles d’interagir correctement est l’adaptation du service. L’adaptation consiste dans ce contexte à faire face principalement aux discordances relevées au niveau des interfaces de service (incompatibilités entre signatures de services) ainsi qu’aux discordances qui ont lieu au niveau des protocoles métiers (incompatibilité dans l’ordre des messages échangés entre services). On distingue deux principales techniques d’adaptation: modification de service ou synthèse d’un composant adaptateur. L’adaptation en termes de modification de service exige l’application de certaines mesures d’optimisation pour supporter les spécifications du service partenaire. Dans le cas où l’adaptation traite de la création d’un adaptateur, un composant autonome modère les interactions entre les deux services de sorte que l’interopérabilité soit obtenue. En d’autres termes, l’adaptateur compense les différences entre interfaces de services par conversion de données (c’est-à-dire par transformation de message) et celles entre protocoles métiers en réorganisant les échanges de messages ou en générant un message manquant.Nous nous concentrons ici sur le problème de la reconfiguration dynamique de l’adaptateur en presence d’évolution de protocols métiers. Après avoir traité de la vérification d’un adaptateur en exploitant des techniques structurelles existantes développées dans le cadre de la théorie des réseaux de Petri, nous établissons une identification des patrons de mise à jour d’adaptateurs ainsi que la mise en correspondance de ces patrons avec les différents types d’évolutions possibles au niveau des protocoles métiers des services web. Ce travail a abouti à la proposition d’un algorithme permettant, d’une part de détecter les patrons d’évolution adéquats suite à une évolution d’un des protocoles métier des services partenaires et, d’autre part et sous certaines conditions, la mise à jour à la volée de la specification du nouvel adaptateur obtenu ainsi que sa verification.Enfin, les expérimentations réalisées sur un prototype montrent les avantages en termes de temps et de coût de l'approche dynamique proposée par rapport aux méthodes statiques conduisant systématiquement à la regeneration complète de l’adaptateur. / The advent of Web service technologies in the paradigm of Service oriented architecture (SOA) enables dynamic and flexible interoperation of distributed business processes within and across organization boundaries. One of the challenges in working with heterogeneous and autonomous Web services is the need to ensure their interoperability and compatibility. The typical approach for enabling incompatible services to interact is service adaptation. The need for adaptation in Web services comes from the heterogeneity at the levels of service interface and business protocol. The service interface incompatibilities include service signature mismatches (e.g., message and operation name, number; the type of input/output message parameters of operations; and the parameter value constraint). The mismatches at the business protocol (or service behavior) level arise from the order constraints that services impose on messages exchanges (e.g., deadlock where both partner services are mutually waiting to receive some message from the other, and unspecified reception in which one service sends a message while the partner is not expecting it). In service interaction through adaptation, an adapter mediates the interactions between two services with potentially different interfaces and business protocols such that the interoperability is achieved, i.e., adapter compensates for the differences between their interfaces by data mappings, and between their business protocols by rearranging the messages exchanges or generating a missing message. In this dissertation, we focus on how to cope with the dynamic evolution of business protocol P of a given service (i.e., P is changed to P') that is adapted by an adapter in the context of service interaction. Web service specifications constantly evolve. For variety of reasons, service providers may change their business protocols. Therefore, it is important to understand the potential impacts of the changes arising from the evolution of service business protocol on the adapter.We present an approach to automatically detect the effects of business protocols evolution on the adapter and, if possible, to suggest fixes to update the specification of adapter on-the-fly. Besides, we propose a technique to verify the correctness of new adapter which is dynamically re-configured. Finally, we describe a prototype tool where experimentations show the benefits of proposed approach in terms of time and cost compared to the static methods aiming for complete regeneration of adapter or manual inspection and adaption of the adapter with respect to changes in the business protocols.
110

Enabling Energy Efficient Smart Object Networking at Internet-Scale : Experimental Tools, Software Platform, and Information-Centric Networking Protocols / Internet des Objets : Bases Logicielles et Protocoles Réseaux pour unDéploiement Universel Efficace en Energie

Hahm, Oliver 01 December 2016 (has links)
L'Internet des Objets a pour but d'intégrer des milliards d'objets connectés dans l'Internet.Du point de vue matériel, ces objets connectés sont de petits ordinateurs très bon marché, basés sur des micro-contrôleurs et des puces radio efficaces en énergie apparus récemment, couplés avec des capteurs et actionneur divers, le tout alimenté par une batterie de très petite taille.Ces objets connectés sont donc typiquement très contraints en ressources telles que CPU, mémoire et énergie.De plus, les liens radio à travers lesquels communiquent les objets connectés ont une capacité très limitée, sont souvent sujet à des taux de perte importants, et peuvent requérir du routage spontané entre objets connectés pour fournir la connectivité nécessaire.Ces caractéristiques posent des défis, d'une part en termes de logiciel embarqué s'exécutant sur les objets connectés, et d'autre part en termes de protocols réseaux utilisés par les objets connectés pour communiquer.En conséquence, de nouvelles méthodes et outils expérimentaux sont nécessaires pour étudier in vivo les réseaux formés d'objets connectés, de nouvelles plateformes logicielles sont nécessaires pour exploiter efficacement les objets connectés, et des protocoles de communication innovants sont nécessaire pour interconnecter ces objets.La présente thèse relève en partie ces défis, en introduisant des nouveaux outils facilitant l'utilisation de grands réseaux test interconnectant de nombreux objets connectés, un nouveau système d'exploitation (RIOT) utilisable sur une très grande variété d'objets connectés, ainsi que plusieurs nouveaux mécanismes utilisant le paradigme des réseaux centrés contenus pour améliorer significativement l'efficacité énergétique des protocoles de communication standards de l'Internet des Objets. / The Internet of Things aims to seamlessly integrate billions of so-called Smart Objects into traditional Internet infrastructures.From the hardware perspective, Smart Objects emerged when tiny, cheap computers became available, combining energy efficient micro-controllers, low-power radio transceivers, and sensors as well as actuators interacting with the physical world, often powered by batteries.Typically, Smart Objects are thus heavily constrained in terms of CPU, memory and energy resources.Furthermore, wireless links used for communication among Smart Objects or towards the Internet are often slow, subject to high packet loss, and may require spontaneous store-and-forward among peer Smart Objects to ensure connectivity.Such characteristics pose challenges, on one hand in terms of software running on Smart Objects, and on the other hand in terms of network protocols Smart Objects use to communicate.In consequence, novel evaluation methods and experimental tools are needed to study Smart Object networks in vivo, new software platforms are needed to efficiently operate Smart Objects, and innovative networking paradigms and protocols are required to interconnect Smart Objects.This thesis addresses these challenges by introducing new tools for large scale testbed-driven experimental research, a novel operating system (RIOT) applicable to a wide variety of connected Smart Objects, and several new mechanisms leveraging information-centric networking which significantly improve energy-efficiency compared to state-of-the-art network protocols in the Internet of Things.

Page generated in 0.1003 seconds