• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 44
  • 2
  • 1
  • Tagged with
  • 104
  • 104
  • 85
  • 21
  • 18
  • 18
  • 17
  • 17
  • 17
  • 17
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Towards interoperability, self-management, and scalability for scalability for machine-to-machine systems / Vers l'interopérabilité, l'autogestion, et la scalabilité des systèmes Machine-to-Machine

Ben Alaya, Mahdi 06 July 2015 (has links)
La communication Machine-to-Machine (M2M) est l'un des principaux fondements de l'Internet des Objets (IoT). C'est un phénomène qui a évolué discrètement au cours du temps et vient d’émerger à la surface pour do! nner naissance à une explosion de nouveaux usages et services. Capteurs, actionneurs, tags, véhicules et objets intelligents ont tous la possibilité de communiquer. Le nombre de connexions M2M est en constante augmentation et il est prévu de voir des milliards d’objets connectés dans un futur proche. Les applications M2M offrent des avantages dans divers domaines à savoir les villes intelligentes, les voitures connectées, les usines du futures, l’agriculture de précision, l’environnement, la santé, etc. La croissance rapide de cet écosystème est entrain de conduire le M2M vers un avenir prometteur. Cependant, les opportunités d'expansion des marchés M2M ne sont pas évidentes. En effet, un ensemble de challenges doivent être surmontés afin de permettre un déploiement à grande échelle dans des domaines diverses et variés à savoir les défis d’interopérabilité, de complexité et de scalabilité. Actuellement, le marché du M2M souffre d'une fragmentation verticale importante touchant la majorité des domaines industriels. En effet, diverses solutions propriétaires ont été conçues pour répondre à des applications spécifiques engendrant ainsi un sérieux problème d''interopérabilité. Pour adresser ce challenge, nous avons conçu, développer et expérimenté la plateforme OM2M offrant une architecture opérationnelle, flexible et extensible pour l'interopérabilité M2M conforme à la norme SmartM2M. Pour supporter les environnements contraints, nous avons proposé une nouvelle convention de nommage basée sur une structure de ressources non-hiérarchique permettant d’optimiser la taille des messages échangés. Pour assurer l’interopérabilité sémantique entre les applications et les machines, nous avons proposé l'ontologie IoT-O. Cette dernière est composée de cinq modèles de base représentant les capteurs, les actionneurs, les observations, les actuations et les web ! services pour permettre de converger rapidement vers un vocabulaire commun pour l'IoT. Une plateforme M2M horizontale permet d'interconnecter des machines hétérogènes largement distribués et qui évoluent fréquemment en fonction des changements de l’environnement. Maintenir ces systèmes complexes en vie est coûteux en termes de temps et d'argent. Pour adresser ce challenge, nous avons conçu, développé et intégré le framework FRAMESELF afin d'ajouter des capacités d'autogestion aux systèmes M2M basées sur le paradigme de l'informatique autonome. En étendant le modèle d'architecture de référence MAPE-K, notre solution permet d'adapter dynamiquement le comportement de la plateforme OM2M par en fonctions des changements du contexte et des politiques haut niveaux. Nous avons défini un ensemble de règles sémantiques pour faire du raisonnement sur l'ontologie IoT-O en tant que modèle de connaissance. Notre objectif est de permettre la découverte automatique entre les machines et les applications à travers un appariement sémantique et une reconfiguration dynam! ique de l'architecture des ressources. L’interopérabilité et l’autogestion ouvrent la voie à un déploiement de masse des systèmes M2M. Par contre, ces derniers se basent sur l'infrastructure actuelle d'internet qui n'a jamais été conçu pour ce genre de d'utilisation ce qui pose de nouvelles exigences en termes de scalabilité. Pour adresser ce challenge, nous avons conçu, simulé et validé l'approche OSCL proposant une nouvelle topologie de réseau maillé M2M comme alternative à l'approche centralisée actuelle. OSCL s'appuie sur les techniques de routage centrées sur l'information favorisant les communications à sauts multiples et un cache distribué pour une meilleure dissémination des données. Nous avons développé le simulateur OSCLsim pour valider l'approche proposée.[...] / Machine-to-Machine (M2M) is one of the main features of Internet of Things (IoT). It is a phenomenon that has been proceeding quietly in the background, and it is coming into the surface, where explosion of usage scenarios in businesses will happen. Sensors, actuators, tags, vehicles, and intelligent things all have the ability to communicate. The number of M2M connections is continuously increasing, and it has been predicted to see billions of machines interconnected in a near future. M2M applications provide advantages in various domains from smart cities, factories of the future, connected cars, home automation, e-health to precision agriculture. This fast-growing ecosystem is leading M2M towards a promising future. However, M2M market expansion opportunities are not straightforward. A set of challenges should be overcome to enable M2M mass-scale deployment across various industries including interoperability, complexity, and scalability issues. Currently, the M2M market is suffering from a high vertical fragmentation affecting the majority of business sectors. In fact, various vendor-specific M2M solutions have been designed independently for specific applications, which led to serious interoperability issues. To address this challenge, we designed, implemented, and experimented with the OM2M platform offering a flexible and extensible operational architecture for M2M interoperability compliant with the SmartM2M standard. To support constrained environments, we proposed an efficient naming convention relying on a non-hierarchical resource structure to reduce the payload size. To reduce the semantic gap between applications and machines, we proposed the IoT-O ontology for an effective semantic interoperability. IoT-O consists of five main parts, which are sensor, actuator, observation, actuation and service models and aims to quickly converge to a common IoT vocabulary. An interoperable M2M service platform enables one to interconnect heterogeneous devices that are widely distributed and frequently evolving according to their environment changes. Keeping M2M systems alive is costly in terms of time and money. To address this challenge, we designed, implemented, and integrated the FRAMESELF framework to retrofit self-management capabilities in M2M systems based on the autonomic computing paradigm. Extending the MAPE-K reference architecture model, FRAMESELF enables one to dynamically adapt the OM2M system behavior according to high level policies how the environment changes. We defined a set of semantic rules for reasoning about the IoT-O ontology as a knowledge model. Our goal is to enable automatic discovery of machines and applications through dynamic reconfiguration of resource architectures. Interoperability and self-management pave the way to mass-scale deployment of M2M devices. However, current M2M systems rely on current internet infrastructure, which was never designed to address such requirements, thus raising new requirements in term of scalability. To address this challenge, we designed, simulated and validated the OSCL overlay approach, a new M2M meshed network topology as an alternative to the current centralized approach. OSCL relies on the Named Data Networking (NDN) technique and supports multi-hop communication and distributed caching 5 to optimize networking and enhance data dissemination. We developed the OSCLsim simulator to validate the proposed approach. Finally, a theoretical model based on random graphs is formulated to describe the evolution and robustness of the proposed system.
102

Sécurité informationnelle des systèmes cyberphysiques et risques à la santé et sécurité : quelle responsabilité pour le fabricant ?

Fournier-Gendron, Hugo 12 1900 (has links)
No description available.
103

Quality of Service Aware Mechanisms for (Re)Configuring Data Stream Processing Applications on Highly Distributed Infrastructure / Mécanismes prenant en compte la qualité de service pour la (re)configuration d’applications de traitement de flux de données sur une infrastructure hautement distribuée

Da Silva Veith, Alexandre 23 September 2019 (has links)
Une grande partie de ces données volumineuses ont plus de valeur lorsqu'elles sont analysées rapidement, au fur et à mesure de leur génération. Dans plusieurs scénarios d'application émergents, tels que les villes intelligentes, la surveillance opérationnelle de grandes infrastructures et l'Internet des Objets (Internet of Things), des flux continus de données doivent être traités dans des délais très brefs. Dans plusieurs domaines, ce traitement est nécessaire pour détecter des modèles, identifier des défaillances et pour guider la prise de décision. Les données sont donc souvent rassemblées et analysées par des environnements logiciels conçus pour le traitement de flux continus de données. Ces environnements logiciels pour le traitement de flux de données déploient les applications sous-la forme d'un graphe orienté ou de dataflow. Un dataflow contient une ou plusieurs sources (i.e. capteurs, passerelles ou actionneurs); opérateurs qui effectuent des transformations sur les données (e.g., filtrage et agrégation); et des sinks (i.e., éviers qui consomment les requêtes ou stockent les données). Nous proposons dans cette thèse un ensemble de stratégies pour placer les opérateurs dans une infrastructure massivement distribuée cloud-edge en tenant compte des caractéristiques des ressources et des exigences des applications. En particulier, nous décomposons tout d'abord le graphe d'application en identifiant quelques comportements tels que des forks et des joints, puis nous le plaçons dynamiquement sur l'infrastructure. Des simulations et un prototype prenant en compte plusieurs paramètres d'application démontrent que notre approche peut réduire la latence de bout en bout de plus de 50% et aussi améliorer d'autres métriques de qualité de service. L'espace de recherche de solutions pour la reconfiguration des opérateurs peut être énorme en fonction du nombre d'opérateurs, de flux, de ressources et de liens réseau. De plus, il est important de minimiser le coût de la migration tout en améliorant la latence. Des travaux antérieurs, Reinforcement Learning (RL) et Monte-Carlo Tree Searh (MCTS) ont été utilisés pour résoudre les problèmes liés aux grands nombres d’actions et d’états de recherche. Nous modélisons le problème de reconfiguration d'applications sous la forme d'un processus de décision de Markov (MDP) et étudions l'utilisation des algorithmes RL et MCTS pour concevoir des plans de reconfiguration améliorant plusieurs métriques de qualité de service. / A large part of this big data is most valuable when analysed quickly, as it is generated. Under several emerging application scenarios, such as in smart cities, operational monitoring of large infrastructure, and Internet of Things (IoT), continuous data streams must be processed under very short delays. In multiple domains, there is a need for processing data streams to detect patterns, identify failures, and gain insights. Data is often gathered and analysed by Data Stream Processing Engines (DSPEs).A DSPE commonly structures an application as a directed graph or dataflow. A dataflow has one or multiple sources (i.e., gateways or actuators); operators that perform transformations on the data (e.g., filtering); and sinks (i.e., queries that consume or store the data). Most complex operator transformations store information about previously received data as new data is streamed in. Also, a dataflow has stateless operators that consider only the current data. Traditionally, Data Stream Processing (DSP) applications were conceived to run in clusters of homogeneous resources or on the cloud. In a cloud deployment, the whole application is placed on a single cloud provider to benefit from virtually unlimited resources. This approach allows for elastic DSP applications with the ability to allocate additional resources or release idle capacity on demand during runtime to match the application requirements.We introduce a set of strategies to place operators onto cloud and edge while considering characteristics of resources and meeting the requirements of applications. In particular, we first decompose the application graph by identifying behaviours such as forks and joins, and then dynamically split the dataflow graph across edge and cloud. Comprehensive simulations and a real testbed considering multiple application settings demonstrate that our approach can improve the end-to-end latency in over 50% and even other QoS metrics. The solution search space for operator reassignment can be enormous depending on the number of operators, streams, resources and network links. Moreover, it is important to minimise the cost of migration while improving latency. Reinforcement Learning (RL) and Monte-Carlo Tree Search (MCTS) have been used to tackle problems with large search spaces and states, performing at human-level or better in games such as Go. We model the application reconfiguration problem as a Markov Decision Process (MDP) and investigate the use of RL and MCTS algorithms to devise reconfiguring plans that improve QoS metrics.
104

A social Internet of Things application architecture : applying semantic web technologies for achieving interoperability and automation between the cyber, physical and social worlds / A social Internet of Things application architecture : l'application des technologies du web sémantique pour réaliser l'interopérabilité et de l'automatisation entre les mondes physiques, cyber et sociaux

Hussein Ali, Dina 04 December 2015 (has links)
Récemment, l'intégration entre les environnements informatiques et de réseautage a été largement promu pour fournir des services intelligents à des utilisateurs finaux ainsi que l'utilisation efficace des ressources. Cette convergence a ouvert la voie à l'émergence de l'internet des objets (IdO). Le paradigme de l'IdO repose principalement sur la fabrication d'objets, appelés les choses, disparaître et se tissent dans le tissu de notre vie de tous les jours pour nous soutenir dans l'accomplissement des activités quotidiennes. L'évolutivité et l'hétérogénéité sont parmi les principaux défis qui entravent la réalisation à grande échelle de services de l'IdO dans la vie quotidienne des utilisateurs. Afin de relever les défis de l'IdO, un nouveau volet de recherche est venu en avant dans la littérature comme une classe paradigmatique des Cyber-physiques systèmes sociaux (CSPR), qui est connu comme l'Internet social des choses (Siot). Le SIOT se fonde sur la notion soulignée par phénomène petite-monde où la structure sociale permettant relation sociale fondée sur la confiance entre les personnes et les objets, d'une manière qui ressemble à des services de réseaux sociaux traditionnels (SNS) est suggérée de relever les défis de l'IdO. Cependant, depuis SIOT hérite des caractéristiques de différents informatiques et de réseautage environnements (par exemple, l'IdO et SNS) cela, en fait, augmente la quantité et la variété des données contextuelles qui doit être manipulé pour Adaptive fourniture de services dans Siot, qui agit comme le principal défi adressé dans cette thèse. Autrement dit, dans cette thèse, nous proposons la notion de contexte cognitif lorsque, dans certaine situation spatio-temporelle, le raisonnement sur les aspects objectifs du cadre, ce qui représente l'environnement physique, avec le contexte subjective, qui représente les aspects comportementaux et sociaux, est considéré comme l'amélioration des services SIOT intelligence et la capacité d'adaptation aux besoins conjoncturels des utilisateurs. Nous envisageons technologies du Web sémantique pour déployer notre contexte cognitif proposé dans deux domaines d'application; sensible au contexte recommandation des tâches quotidiennes dans les maisons intelligentes et structure sociale dépendant de la situation des choses. Un prototype de preuve de concept a été développé pour chaque domaine d'application, dans le but de démontrer l'intégration harmonieuse des objets sur le Web pour la réalisation de certaines applications. Nos résultats empiriques montrent un niveau de service amélioré l'adaptabilité et la complexité en temps de fonctionner lors de l'application de notre contexte cognitif suggéré / The paradigm of the Social Internet of Things (SIoT) is being promoted in the literature to boost a new trend wherein the benefits of social network services are exhibited within the network of connected objects i.e., the Internet of Things (IoT). The novel user-friendly interaction framework of the SIoT opens the doors for enhancing the intelligence required to stimulate a shift in the IoT from a heterogeneous network of independently connected objects towards a manageable network of everything. In practice, achieving scalability within the large-scale and the heterogeneous paradigm of the IoT while maintaining on top of its user-friendly and intuitive services to bridge human-to-machine perceptions and encourage the technology’s adaptation is a major challenge which is hindering the realization and deployment of the IoT technologies and applications into people’s daily live. For the goal of handling IoT challenges, as well as improve the level of smart services adaptability to users’ situational needs, in this thesis, novel SIoT-based application architecture is provided. That is, Semantic Web Technologies are envisaged as a means to develop automated, value-added services for SIoT. While, interoperability and automation are essential requirement to seamlessly integrate such services into user life, Ontologies are used to semantically describe Web services with the aim of enabling the automatic invocation and composition of these services as well as support interactions across the cyber, physical and social worlds. On the other hand, handling the variety of contextual data in SIoT for intelligent decision making is another big challenge which is still in very early stages of research. In this thesis we propose a cognitive reasoning approach taking into consideration achieving situational-awareness (SA) in SIoT. This reasoning approach is deployed within two application domains where results show an improved level of services adaptability compared to location-aware services which are previously proposed in the literature

Page generated in 0.0963 seconds