Spelling suggestions: "subject:"[een] INTEROPERABILITY"" "subject:"[enn] INTEROPERABILITY""
451 |
Interoperability and Negotiation of Security Policies / Interopérabilité et négociation des politiques de sécuritéLi, Yanhuang 24 November 2016 (has links)
Suite au développement des technologies de l'information, et en particulier au déploiement d'infrastructures telles que le Cloud Computing, de plus en plus d'applications et plateformes coopèrent en échangeant des données et des services. Cette tendance renforce l'importance de la gestion de la sécurité. Afin d'assurer la sécurité des données et de l'interaction de service une politique de sécurité doit être appliquée. Dans cette thèse, nous nous intéressons aux politiques de contrôle d'accès. Ce type de politique spécifie les privilèges de l'utilisation des ressources et est implémentée par différents modèles selon différents scénarios. Notre objectif ici est d'aider le client du service à bien exprimer ses exigences de sécurité et à choisir les fournisseurs de services qui peuvent la déployer. La première partie de cette thèse est dédiée à la sélection des fournisseurs de service. Dans le cas où les politiques de sécurité du fournisseur sont accessibles au client, nous proposons une méthode pour mesurer la similarité entre les politiques de sécurité. Dans le cas où les politiques de sécurité ne sont pas accessibles au client ou ne sont pas explicitement spécifiées, nous proposons un cadre à base de règles permettant la dérivation à partir des exigences de sécurité aux politiques de sécurité concrètes. La seconde partie de la thèse porte sur la négociation de politiques de sécurité. Nous étudions le processus permettant aux parties en négociation de parvenir à un accord par une série d'échanges d'offres et de contre-offres. Lorsque le résultat de la négociation est positif, un contrat incluant la politique de sécurité acceptée par les parties est généré. / Security policy provides a way to define the constraints on behavior of the members belonging to a system, organization or other entities. With the development of IT technology such as Grid Computing and Cloud Computing, more and more applications and platforms exchange their data and services for cooperating. Toward this trend, security becomes an important issue and security policy has to be applied in order to ensure the safety of data and service interaction. In this thesis, we deal with one type of security policy: access control policy. Access control policy protects the privileges of resource's utilization and there exist different policy models for various scenarios. Our goal is to ensure that the service customer well expresses her security requirements and chooses the service providers that fit these requirements.The first part of this dissertation is dedicated to service provider selection. In case that the security policies of the service provider are accessible to the service customer, we provide a method for measuring the similarity between security policies. Another case is that security policies are not accessible to the service customer or not specified explicitly. Our solution is proposing a policy-based framework which enables the derivation from attribute-based security requirements to concrete security policies. The second part of the dissertation focuses on the security policy negotiation. We investigate the process of reaching agreement through bargaining process in which negotiators exchange their offers and counter offers step by step. The positive result of the negotiation generates a policy contract.
|
452 |
Deduction of inter-organizational collaborative business processes within an enterprise social network / Déduction de processus métier collaboratifs inter-organisationnels au sein d'un réseau social d'entreprisesMontarnal, Aurélie 08 October 2015 (has links)
Particulièrement lors de collaborations dans le cadre de chaînes logistiques ou d'entreprises virtuelles, établir les workflows collaboratifs est une étape laborieuse car souvent réalisée soit de façon humaine, soit avec des méthodes manquant de flexibilité. Sur la base d'un réseau social d'entreprises, cette thèse vise à faciliter cette étape en proposant un service de déduction de processus collaboratifs inter-organisationnels. Cela soulève trois problèmes: (i) trouver les activités qui doivent être exécutées pour remplir les objectifs de la collaboration (Quoi?), (ii) sélectionner les partenaires pouvant réaliser ces activités (Qui?) et (iii) ordonner ces activités en un processus métier collaboratif (Quand?). Dans le cadre d'un réseau social, il est attendu que plusieurs organisations soient capables de fournir les mêmes activités. Dans un tel contexte de concurrence entre les organisations, une optimisation globale permet de trouver un processus final quasi-optimal, en prenant en compte ces trois questions de manière simultanée : trouver l'ensemble des "meilleurs" partenaires et leurs activités dans un contexte de collaboration spécifique. A cette fin, des ontologies de collaboration ont été développées et permettent de représenter et collecter des connaissances sur les collaborations. Ainsi, quand les utilisateurs remplissent leurs profils sur le réseau social, le système peut comprendre (i) les attentes des utilisateurs lorsqu'ils fournissent leurs objectifs de collaboration et (ii) les capacités qu'ils peuvent fournir. Un outil d'aide à la décision, basé sur un algorithme d'optimisation par colonies de fourmis permet ensuite d'exploiter les ontologies de collaboration afin de trouver un processus quasi-optimal répondant aux attentes et objectifs de la collaboration. Les résultats de cette thèse s'inscrivent au sein du projet FUI OpenPaaS dont le but est d'établir un nouveau réseau social d'entreprises visant à faciliter leurs collaborations intra et inter-organisationnelles. / Especially in the context of collaborative supply chains and virtual enterprises, the step of designing the collaborative workflows remains laborious because either it is still carried out humanly or the methods lack of flexibility. Based on an enterprise social network, this thesis aims at facilitating this step by proposing a service for the deduction of collaborative processes. It raises three main issues: (i) finding the activities to execute that answer the objectives of the collaboration (What?), (ii) selecting the corresponding partners (Who?) and (iii) ordering the activities into a collaborative business process (When?). Moreover, it is expected that many companies could be able to provide the same activities, on the enterprise social network. In this competitive context, a global optimization should be set up in order to find the quasi-optimal collaborative process that answer these three questions simultaneously. A three-dimensional solution is proposed here. First, a non-functional framework has been set up in order to determine the criteria that make a « good » partner in a specific collaborative context. Then, collaborative ontologies have been implemented and enable the representation and the acquisition of collaborative knowledge, so that the IT system can understand (a) the user's needs when they model their objectives of collaboration and (b) the user's capabilities when they model their profiles on the enterprise social network. And finally, a tool for decision support has been implemented thanks to an ant colony optimization algorithm that exploits the collaborative ontologies in order to provide a quasi-optimal process that fits the context of the collaboration and answers its objective. The results are in line with the FUI French project OpenPaaS which aims at offering an enterprise social network to facilitate their collaborations.
|
453 |
Une approche ontologique pour l'interopérabilité et la composition automatique de services Web : application en astrophysique / An ontologial approach for interoperability and automatic composition of Web services : application to astrophysicsLouge, Thierry 05 July 2017 (has links)
Dans le but d’exploiter au mieux les grandes masses de données hétérogènes produites par les instruments scientifiques modernes de l’astrophysique, les scientifiques ont développé le concept d’Observatoire Virtuel (OV). Il s’agit d’une architecture orientée services, qui a pour objectif de faciliter l’identification et l’interopérabilité des données astrophysiques. Malgré le développement et les avancées permises par l’OV dans l’exploitation de ces données, certains objectifs sont partiellement atteints notamment l’interopérabilité, la sélection de services et l’identification de services connexes, etc. Par ailleurs, l’ergonomie des outils à la disposition de l’utilisateur final reste perfectible. De même l’utilisation actuelle des ressources de l’OV, s’appuyant sur des compétences humaines, gagnerait à être automatisée. Les services de données astrophysiques n’étant pas tous inscrits dans l’OV, il serait aussi souhaitable pour permettre une utilisation plus large de ces outils, qu’ils s’appuient également sur des services disponibles en-dehors de l’OV. En vue d’automatiser l’utilisation des ressources en ligne, les sciences de l’information travaillent depuis 2001 à l’élaboration du Web sémantique. Cette évolution apporte au Web des capacités de raisonnement automatiques, basées sur des algorithmes utilisant une nouvelle forme de description des contenus. Cette nouvelle forme de description sémantique se trouve exprimée dans des représentations informatiques appelées ontologies. Malheureusement, les méthodes actuelles d’élaboration du Web sémantique ne sont pas complètement compatibles avec les services OV qui utilisent des modèles de données, des formats et des protocoles d’accès aux services qui s’éloignent de ceux rencontrés habituellement dans les sciences de l’information. Dans ce contexte, cette thèse décrit une méthodologie générique de composition de services sans état, basée sur la description des services par une ontologie dont la définition est proposée dans ce document. Cette ontologie représente aussi bien des services Web que des services non accessibles par le Web. Elle prend en compte certaines spécificités qui peuvent être rencontrées dans les infrastructures de services préexistantes. L’enrichissement de l’ontologie par des concepts issus de domaines d’application spécifiques pour lesquels il n’existe que peu de représentations ontologiques est également pris en compte. La population de cette ontologie, par des services éventuellement éloignés des standards utilisés habituellement dans les sciences de l’information, est aussi traitée. La méthodologie a été appliquée avec succès dans le cadre de l’astrophysique, et a permis de développer une application Web permettant la composition automatique de services utilisable par un public non averti. / Scientists have developed the Virtual Observatory (VO) concept in order to make the most of the large masses of heterogeneous data produced by the modern scientific instruments of astrophysics. It is a service-oriented architecture, aiming to facilitate the identification and interoperability of astrophysical data. Despite the development and advances made by VO in the exploitation of these data, some objectives are partially such as interoperability, service selection and identification of related services, etc. In addition, the ergonomics of the tools available to the end user can be improved. Similarly, the current use of VO resources, based on human skills, would benefit from being automated. As not all the astrophysical data services are included in the VO, it would also be desirable to allow a wider use of these tools, as they also rely on services available outside the VO. In order to automate the use of online resources, information sciences have been working since 2001 on the development of the Semantic Web. This evolution provides the Web with automatic reasoning abilities, based on algorithms using a new form of content description. This new form of semantic description is expressed in computer representations called ontologies. Unfortunately, the current semantic Web development methods are not fully compatible with VO services that use data models, formats and protocols for accessing services that differ from those typically encountered in information sciences. In this context, this thesis describes a generic methodology for the composition of stateless services, based on the description of services by a global ontology, the definition of which is proposed in this document. This ontology represents both Web services and services that are not accessible via the Web. It takes into account certain specificities that may be encountered in preexisting service infrastructures. The enrichment of the ontology by concepts derived from specific fields of application for which there are only a few ontological representations is also taken into account. The population of this ontology, by services possibly distant from the standards usually used in the information sciences, is also treated. The methodology was applied successfully in the framework of astrophysics, and allowed to develop a Web application allowing the automatic composition of services usable by an uninformed public.
|
454 |
Contributions à la vérification de la sûreté de l'assemblage et à l'adaptation de composants réutilisables / Contributions to the formal verification of the assembly and adaptation of reusable componentsMouelhi, Sebti 30 August 2011 (has links)
Cette thèse a pour objectif de proposer une approche formelle basée sur les automates d’interface pour spécifier les contrats des composants réutilisables et vérifier leur interopérabilité fonctionnelle. Cette interopérabilité se traduit par la vérification des trois niveaux : signature, sémantique, et protocole. Le formalisme des automates d’interface est basé sur une approche « optimiste» qui prend en compte les contraintes de l’environnement. Cette approche considère que deux composants sont compatibles s’il existe un environnement convenable avec lequel ils peuvent interagir correctement. Dans un premier temps, nous proposons une approche préliminaire qui intègre la sémantique des paramètres des actions dans la vérification de la compatibilité et de la substitution des composants spécifiés par des automates d’interface. Dans un second temps, nous nous somme intéressés à adapter les composants réutilisables dont les contrats sont décrits par des automates d’interface enrichis par la sémantique des actions. En ce sens, nous avons proposé un algorithme qui permet de générer automatiquement la spécification d’un adaptateur de deux composants lorsque celui-ci existe. Dans un troisième temps, nous avons augmenté le pouvoir d’expression de notre approche proposée pour vérifier l’interopérabilité et les propriétés de sûreté des composants qui communiquent par des variables définies au niveau de leurs contrats d’interface. En particulier, nous étudions la préservation des invariants par composition et par raffinement. / The aim of this thesis is to propose a formal approach based on interface automata to specify the contracts of reusable components and to verify their functional interoperability. The functional interoperability is checked at three levels : signature, semantics, and protocol. Interface automata are based on an « optimistic » approach that takes into account the environment constraints. This approach considers that two components are compatible if there is a suitable environment with which they can interact properly. First, we propose an approach allowing the integration of the semantics of the action parameters in interface automata in order to strengthen the compatibility and substitution check between components. Second, we were interested in adapting reusable components whose contracts are described by interface automata enriched by the action semantics. In this context, we propose an algorithm of automatic generation of an adaptor of two mismatched components if possible. Third, we have increased the expressive power of our proposed approach to verify the interoperability and the safety properties of components that communicate by interface variables defined at the level of their contracts. In particular, we study the preservation of invariants by composition and refinement.
|
455 |
Transportation interoperable planning in the context of food supply chain / Planification interopérable des transports dans le cadre de chaînes logistiques alimentairesMemon, Muhammad Ali 05 November 2014 (has links)
L'alimentation est une nécessité de base de l'être humain, dont la survie dépend de la quantité et de la qualité de la nourriture ingérée. L'augmentation de la population requiert de plus en plus de nourriture, tandis que la qualité est associée aux contraintes des produits alimentaires comme une courte durée de vie ou la sensibilité à la température. L'augmentation de la demande entraîne une augmentation de la production alimentaire, répartie entre plusieurs sites de production appartenant à plusieurs entreprises de taille variée, qui peuvent utiliser les produits d'autres sites pour fabriquer leurs produits finaux. En outre, certains produits alimentaires doivent être transportés entre les sites et les produits finaux distribués à des détaillants et des consommateurs lointains en tenant compte des contraintes de produits alimentaires. Les activités exercées par ces entités incluent entre autres la production, la distribution, la vente, etc. et ces entités forment conjointement dans l'environnement de l'écosystème alimentaire une chaîne pour le traitement, l'emballage ou la livraison de nourriture. Ce réseau s'appelle une chaîne logistique alimentaire (FSC). En raison de leur nature distribuée, les FSC héritent des problèmes classiques des chaînes logistiques, mais doivent en plus gérer les problèmes découlant de la périssabilité des produits. Cette périssabilité rend extrêmement important le traitement d'enjeux tels que le maintien de la qualité, la prévision de la demande, la gestion des stocks (éviter les ruptures de stock ou les stocks excessifs), l’amélioration de l'efficacité du réapprovisionnement, de la production et du transport, la traçabilité et le suivi pour réagir aux perturbations. Il est donc nécessaire d'établir une collaboration entre les entités principales de l'écosystème alimentaire pour traiter tous ces enjeux. En outre, depuis l'arrivée des entreprises de transport spécialisées, un nouveau acteur a émergé appelé transporteur ou fournisseur de logistique. Ces transporteurs doivent collaborer avec les producteurs, les détaillants et même d'autres transporteurs afin de prendre en compte la demande future et les tendances, afin d'organiser leur réseau et les ressources, pour livrer des produits alimentaires en assurant sécurité et qualité. Ainsi, la collaboration est devenue vitale pour les FSC. La collaboration implique une bonne compréhension des informations échangées afin de minimiser les déplacements, le coût et la pollution environnementale. Des problèmes d'interopérabilité surgissent lorsque les partenaires impliqués utilisent des systèmes hétérogènes et différentes normes et terminologies. Les approches de collaborations existantes comme "Vendor Managed Inventory" (VMI) ou "Collaborative Planning Forecasting and Replenishment" (CPFR) ne prennent en compte que deux acteurs de la FSC : le producteur et le détaillant (acheteur et vendeur). En outre, elles ne considèrent pas la planification de la production et des transports comme des tâches de collaboration. En tenant compte des limitations ci-dessus, nous proposons, dans une première partie de cette thèse, une extension du modèle CPFR prennant en compte les aspects production et transport. Ce nouveau modèle C-PRIPT (Collaborative -Planning Replenishment Inventory Production and Transportation) inclut le transporteur et considère la planification de la production et des transports comme des activités de collaboration. Dans la deuxième partie, nous proposons un modèle distribué et interopérable I-POVES (Interoperable - Path Finder, Order, Vehicle, Environment and Supervisor) pour réaliser la planification des transports en collaboration avec les producteurs, les transporteurs et les détaillants, visant à une meilleure utilisation efficace des ressources de transport. Enfin, nous illustrons le fonctionnement du modèle I-POVES en l’appliquant sur un cas étude de chaîne logistique alimentaire. / Eating is human’s basic necessity whose survival depends on both quantity and quality of food. Increasing population requires increasing in quantity of food, while quality is associated with the food product constraints like short shelf-life, temperature sensitiveness, climate etc. Increasing demand causes increase in food production, which is distributed between several production sites involving several distinct entities from small to large enterprises, where sites may use the intermediate products of other sites to produce the final products. Moreover, food products need to be transported between sites and final products to be distributed to faraway retailer sites and consumers considering the food product constraints. Activities performed by these entities include but not limited to: production, distribution, sales, etc. and these entities form jointly in the environment of food ecosystem a chain for food gathering, processing, packaging, delivery etc. This distributed network of enterprises is called food supply chain (FSC). Due to FSC’s distributed nature, it inherits not only the common problems also faced by other supply chain, but in addition has to deal with the problems arising from the perishability of food products. This perishability nature makes extremely important for FSC, the handling of issues such as maintaining the quality of food products, forecasting the product demand, managing the inventory according to the forecast to reduce out of stock or excessive inventory of products, improving the efficiency of replenishment, production and transportation, taking into account product future demand and tracing and tracking to react to disturbance. Finally, it is necessary to institute collaboration between the main entities of food ecosystem to deal with all of these issues. Furthermore, since the advent of specialized transport enterprises, a new actor has emerged called transporter or logistics provider in the FSC. These transporters have to collaborate with producers, retailers and even other transporters within FSC to take into account product future demands and trends to organise their transport network and resources to make possible the delivery of the food products with security, while maintaining the quality of the food products. Thus, collaboration became vital for FSC. Collaboration involves a good understanding of exchanged information in order to minimizing number of transport travels, cost and environmental pollution. Interoperability problem arises when each of the partners involved in FSC uses heterogeneous systems and uses different standards and terminologies for representing locations, product constraints, vehicles types etc. Furthermore, existing collaborative approaches like Quick Response, Efficient Consumer Response, Vendor Managed Inventory, Collaborative Planning Forecasting and Replenishment (CPFR), etc. take into account only two types of actors of FSC: buyer and seller (producer and retailer). Additionally, they don’t consider the production and transportation planning as collaborative tasks. Taking into account above limitations, we propose, in the first phase of this thesis, an extension of CPFR model, which take into account production and transportation aspects. This new model C-PRIPT (Collaborative -Planning Replenishment Inventory Production and Transportation) includes transporter actor and elaborates production and transportation planning as collaborative activities. In the second phase, we propose a distributed and interoperable transportation planning model I-POVES (Interoperable - Path Finder, Order, Vehicle, Environment and Supervisor) to realise collaborative transportation planning by collaborating producers, transporters and retailers, aiming at a better use of transport resources. Finally, we illustrate the functioning of I-POVES model by applying it on a case study of food supply chain.
|
456 |
Podpora webových služeb v prostředí .NET framework / Web services support in the .NET frameworkFischer, Roman January 2008 (has links)
The work targets the very important part of service oriented architecture -- web services. It is focused at one of its practical implementation, from the Microsoft Corporation, especially in the last two releases of .NET Framework. The main target of this work is comprehensive summary and demonstration of Microsoft web services development. The principles of web services and their base in the .NET Framework are described here. At the beginning of this work the web services are put into the scope of service oriented architecture and their main principles are described. Subsequently the .NET Framework is explained with its main principles and with the comparison to the JAVA technology. This part is finished with the explanation of classic ASMX web services. The main part of this work focuses at detailed description of the theoretical and practical aspects of web services in the Windows Communication Foundation and the Windows Workflow Foundation context. Even the development of Windows Forms application is not left out, because they also have done a large progress and they are often consumers of web services. The options of securing web services in the .NET Framework are shown both theoretically and practically including authentication and authorization. The methods of transactional behavior are shown too. The work also focuses at the orchestration of web services including the explanation of workflows with the deployment example. At the end of the work there is revealed how to guarantee interoperability with other technologies, how to manage web services and how to ensure their versioning.
|
457 |
Intéropérabilité sémantique entre les outils de traitement d'images en neuro-imagerie / Semantic interoperability between image processing tools in neuroimagingWali, Bacem 21 June 2013 (has links)
Le domaine de la recherche en neuroimagerie nécessite de pouvoir partager, réutiliser et comparer les outils de traitement d'images des différents laboratoires. Cependant la tâche de partage de traitement sous forme de services et leur composition sous forme de workflow reste une tâche difficile et trop souvent complexe. Ceci est dû dans la plupart des cas à l'hétérogénéité des services et des plateformes qui diffèrent au niveau de leurs conceptions et de leurs implémentations. Nous travaillons dans le cadre du projet NeuroLOG, une initiative cherchant à construire un système fédéré pour le partage de données et d'outils de traitement dans le domaine de la neuroimagerie. Il adopte une approche ontologique pour assurer la médiation et le partage de ressources entre les différents collaborateurs. Notre travail de thèse vise à compléter la médiation pour assurer le partage et la composition des outils de traitement d'images et à fournir aux utilisateurs spécialistes et non-spécialistes du domaine de la neuroimagerie une plateforme de composition de service ergonomique et facile à utiliser. Nous utilisons pour cela les techniques du web sémantique afin de remédier aux différents problèmes d'interopérabilité et de cohérence de ressources utilisées et produites. La première solution proposée se fonde sur une extension de la plateforme OWL-S. Elle a été adaptée aux différents services web de la plateforme de neuroimagerie. On a déduit que finalement les outils qui ne possèdent pas le format de services web et une description conforme au standard WSDL ne peuvent pas être enchaînés sous forme de workflow. A partir de là, nous avons proposé une autre approche pour effectuer la composition de services de traitement d'images. Elle se se fonde sur un nouveau modèle ontologique de composition de services qui répond aux exigences de la neuroimagerie, qui s'articule bien avec l'ontologie de domaine OntoNeuroLOG et qui pourra remédier aux différents problèmes rencontrés lors de l'élaboration de la première approche. Ce travail a permit de remédier à la fois aux problèmes d'hétérogénéité des descripteurs des services et à l'interopérabilité des services selon les contraintes de la neuroimagerie au sein de la plateforme NeuroLOG. / The field of neuroimaging research requires the ability to share, reuse and compare image processing tools coming from different laboratories. However, sharing treatment as services and composing them as workflows, is usually difficult and a complex task. This is due in most cases to the heterogeneity of services and platforms with regards to their conception and their implementation. We work within the NeuroLOG project, which aims at developing a middleware to federate data repositories and to facilitate the sharing and reuse of processing tools to analyze the shared images. It adopts an ontological approach for data and tools mediation and for sharing resources. This work aims to provide tools mediation to enhance the sharing and composition of image processing tools and provide non-specialist and expert users of neuroimaging field with an ergonomic and easy to use composition platform. We have chosen to use the Semantic Web techniques to address the various problems of resource interoperability and consistency. The first proposed solution is based on an extension of the OWL-S framework. It has been adapted to the various web services of our neuroimaging platform. We finally concluded that services that haven't the WSDL standard as descriptor could not be chained as workflow. So, we have proposed a new approach to compose image processing tools. It is based on a new ontological model for service composition that meets the requirements of the neuroimaging domain and the constraints of our domain ontology OntoNeuroLOG and addresses the various problems encountered in the development of the first approach. This work led to solve the two major problems in the composition of services; the heterogeneity of services descriptors and the interoperability of services according to the constraints within the NeuroLOG platform.
|
458 |
Sobre a estruturação de informação em sistemas de segurança computacional: o uso de ontologias / On the structuring of information in computing security systems: the use of ontologiesLuciana Andréia Fondazzi Martimiano 18 September 2006 (has links)
Como a quantidade e a complexidade de informações disponíveis sobre incidentes de segurança é crescente, as tarefas de manipular e gerenciar essas informações tornaram-se bastante custosas. Diversas ferramentas de gerenciamento de segurança estão disponíveis para auxiliar os administradores. Essas ferramentas podem monitorar tudo que entra e saí de uma intranet, como os firewalls; podem monitorar o tráfego interno da rede para saber o que está acontecendo e detectar possíveis ataques, como os sistemas de detecção de intrusão (SDIs); podem varrer arquivos em busca de códigos maliciosos, como os antivírus; podem criar filtros de emails para evitar spams, vírus ou worms; ou podem varrer uma rede em busca de vulnerabilidades nos sistemas, como os scanners e os agentes móveis inteligentes. Essas ferramentas geram uma grande quantidade de logs com informações que são coletadas e armazenadas em formatos próprios e diferentes. Essa falta de um formato único para armazenar as informações de incidentes de segurança, faz com que o trabalho dos administradores fique ainda mais difí?cil, pois eles/elas devem ser capazes de entender todos esses formatos para identificar e correlacionar informações quando, por exemplo, há um ataque ou uma invasãoo em andamento. Esta tese descreve o projeto e o desenvolvimento de ontologias para representar em uma estrutura padronizada informações sobre incidentes de segurança. A ontologia desenvolvida é denominada OntoSec - Security Incident Ontology. Este trabalho cobre: (i) como utilizar ontologias para compartilhar e reusar informações sobre incidentes; (ii) como correlacionar incidentes por meio de ontologias; (iii) como facilitar a interoperabilidade entre diferentes ferramentas de segurança; (iv) a modelagem de um sistema de gerenciamento de incidentes com base na ontologia; e (v) o processo de avaliação da ontologia desenvolvida. Além disso, a OntoSec pretende apoiar as decisões gerenciais realizadas pelos administradores quando problemas de segurança acontecem, possibilitando que essas decisões sejam tomadas de maneira mais eficiente e eficaz / As the amount and the complexity of security incidents information have grown exponentially, managing and manipulating these information have become more expensive. Several security tools can be used to assist the administrators in performing these tasks. These tools can monitor what comes from Internet and goes to it, as the firewalls do; they can monitor the intranet traffic, as usually is done by an Intrusion Detection System (IDS); they can search for malicious codes in files or emails, as made by the antivirus; they can create filters to process spams, viruses or worms; or they can scan the intranet for vulnerabilities, as the scanners and the intelligent agents. These tools collect and store a great amount of information, using different formats. This lack of unique commonly agreed formats to store information about security incidents, make the administrators? job even harder, because they have to be able to understand all these formats to identify and to correlate information when, for instance, there is an attack or an invasion in progress. In this thesis I describe the design and development of ontologies to represent in a standard structure information about security incidents. The ontology developed is named OntoSec - Security Incident Ontology. This work covers: (i) how to use ontologies to share and reuse information about incidents; (ii) how to make it easier to correlate incidents; (iii) how to make it possible the interoperability amongs security tools; (iv) modeling of a security incident management system based on OntoSec; and (v) evaluation process of the ontology that has been developed. Besides that, the OntoSec aims to support the decisions made by the administrators when security problems happen, making the process more efficient and effective
|
459 |
Componentes para interoperabilidade entre redes sociais na Web 2.0 / Components for interoperability among Web 2.0 social networksCarlos Leonardo Herrera Muñoz 19 March 2013 (has links)
Nos últimos anos, as redes sociais na Web 2.0 vêm ganhando cada vez mais importância para trabalhar e compartilhar ideias. As redes sociais armazenam informações do usuário, como preferências, experiência profissional, dados pessoais e com quem o usuário interage. Essas informações são úteis para diversos fins, como oferecer produtos e serviços personalizados. Com a aparição de cada vez mais redes sociais, surgem problemas como a duplicação de perfis de usuários. Atualmente há algumas técnicas para interoperar as redes sociais, como serviços de autenticação única ou representação padrão para compartilhamento de dados. O objetivo deste trabalho foi realizar um estudo dessas técnicas e tecnologias disponíveis, implementá-las por meio de componentes do Groupware Workbench, e implantar e avaliar os componentes desenvolvidos na rede social Arquigrafia. A avaliação dos componentes foi realizada por meio dos aspectos e questões propostos pelo projeto DataPortability. A avaliação mostrou que as questões diretamente relacionadas com a interoperabilidade técnica e semântica foram respondidas. / In recent years, the importance of social networks for working and sharing ideas increased. Social networks store information such as user preferences, professional experience, personal data, and information about with whom the user interacts. This kind of information is useful for many purposes, such as offering personalized products and services. With the appearance of more social networks, problems as duplication of user profiles arise. Currently, there are some techniques for interoperating social networks, such as single authentication services and standard representation for data sharing. The objective of this work was to study techniques and technologies available, implement them as Groupware Workbench components, and deploy and evaluate the components in the social network Arquigrafia. The evaluation of the components was based on the DataPortability project. Issues related to technical and semantic interoperability have been successfully addressed.
|
460 |
Utilisation de l'ingénierie dirigée par les modèles pour l'agrégation continue de données hétérogènes : application à la supervision de réseaux de gaz / Model-based Interoperability IoT Hub for the aggregation of data from heterogeneous systems : application to the Smart Gas Distribution NetworksAhmed, Ahmed 17 December 2018 (has links)
Durant les dix dernières années, l'infrastructure informatique et l'infrastructure industrielle ont évolué de manière à passer de systèmes monolithiques à des systèmes hétérogènes, autonomes et largement distribués. Tous les systèmes ne peuvent pas coexister de manière isolée et exigent que leurs données soient partagées de manière à accroître la productivité de l'entreprise. En fait, nous progressons vers des systèmes complexes plus vastes où des millions des systèmes doivent être intégrés. Ainsi, l'exigence d'une solution d'interopérabilité peu coûteuse et rapide devient un besoin essentiel. Aujourd'hui, les solutions imposent les normes ou les middlewares pour gérer cette problématique. Cependant, ces solutions ne sont pas suffisantes et nécessitent souvent des développements ad-hoc spécifiques. Ainsi, ce travail propose l'étude et le développement d'une architecture d'interopérabilité générique, modulaire, agnostique et extensible basée sur des principes de l'architecture dirigée par les modèles et les concepts de la séparation de préoccupations. Il vise à promouvoir l'interopérabilité et l'échange de données entre les systèmes hétérogènes en temps réels sans obliger les systèmes à se conformer à des normes ou technologies spécifiques. La proposition s'applique à des cas d'usages industriels dans le contexte de réseau de distribution de gaz français. La validation théorique et empirique de notre proposition corrobore note hypothèses que l'interopérabilité entre les systèmes hétérogènes peut être atteinte en utilisant les concepts de la séparation de préoccupations et de l'ingénierie dirigée par les modèles et que le coût et le temps pour promouvoir l'interopérabilité est réduit en favorisant les caractéristiques de la réutilisabilité et de l'extensibilité. / Over the last decade, the information technology and industrial infrastructures have evolved from containing monolithic systems to heterogeneous, autonomous, and widely distributed systems. Most systems cannot coexist while completely isolated and need to share their data in order to increase business productivity. In fact, we are moving towards larger complex systems where millions of systems and applications need to be integrated. Thus, the requirement of an inexpensive and fast interoperability solution becomes an essential need. The existing solutions today impose standards or middleware to handle this issue. However, these solutions are not sufficient and often require specific ad-hoc developments. Thus, this work proposes the study and the development of a generic, modular, agnostic and extensible interoperability architecture based on modeling principles and software engineering aspects. It aims to promote interoperability and data exchange between heterogeneous systems in real time without requiring systems to comply with specific standards or technologies. The industrial use cases for this work takes place in the context of the French gas distribution network. The theoretical and empirical validation of our proposal corroborates assumptions that the interoperability between heterogeneous systems can be achieved by using the aspects of separation of concerns and model-driven engineering. The cost and time to promote the interoperability are also reduced by promoting the characteristics of re-usability and extensibility.
|
Page generated in 0.0505 seconds