• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 4
  • Tagged with
  • 144
  • 30
  • 26
  • 24
  • 24
  • 19
  • 13
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Web services oriented approach for privacy-preserving data sharing / Une approche orientée service pour la préservation des données confidentielles dans les compositions de services Web

Tbahriti, Salah Eddine 03 December 2012 (has links)
Bien que la technologie de composition de services Web soit considérée comme l’une des technologies les plus prometteuses pour l’intégration des sources de données hétérogènes et multiples ainsi que pour la réalisation d’opérations complexes, la question de la protection des données personnelles demeure l’une des préoccupation majeure liés à cette technologie. Ainsi, lors d’un processus de composition, l’échange de données entre toutes les entités – tels que, les services Web recueillant et fournissant des données, les individus dont les données peuvent être fournies et gérées par les services Web, les systèmes qui composent les services Web et les clients finaux des services – est une étape nécessaire et indispensable pour répondre à des requêtes complexes. En conséquence, des données personnelles sont échangées et manipulées entre toutes les entités du système. Notre objectif dans cette thèse est la conception et le développement d’un cadre permettant d’améliorer la composition des services Web avec des mécanismes de protection des données personnelles. Pour atteindre cet objectif, nous avons proposé une approche générale composée de trois éléments. Premièrement, nous avons proposé un modèle formel de confidentialité pour permettre aux services Web de décrire leurs contraintes de confidentialité liées aux données personnelles. Notre modèle permet une spécification des contraintes de confidentialité relative non seulement au niveau des données manipulées, mais aussi au niveau des opérations invoquées par les services. Deuxièmement, nous développons un algorithme de compatibilité qui permet de vérifier formellement la compatibilité entre les exigences et les politiques de confidentialité de tous les services lors d’un processus de composition. Troisièmement, dans le cas où certains services dans la composition sont incompatibles par rapport à leur spécification de confidentialité, nous avons introduit une nouvelle approche basée sur un modèle de négociation dans la perspective de trouver une composition compatible (c’est-à-dire, d’obtenir la compatibilité de toutes les spécifications de confidentialité des services impliqués dans la composition). Enfin, nous avons mis en œuvre les techniques présentées dans cette thèse au sein du prototype PAIRSE et mené une étude de performance sur les algorithmes proposés / While Web service composition technologies have been beneficial to the integration of a wealth of information sources and the realization of complex and personalized operations, the issue of privacy is considered by many as a major concern in services computing. Central to the development of the composition process is the exchange of sensitive and private data between all parties: Web services collecting and providing data, individuals whose data may be provided and managed by Web services, systems composing Web service to answer complex queries, and requesters. As a consequence, managing privacy between all parties of the system is far from being an easy task. Our goal in this thesis is to build the foundations of an integrated framework to enhance Web service composition with privacy protection capabilities. To this aim, we firstly propose a formal privacy model to allow Web services to describe their privacy specifications. Our privacy model goes beyond traditional data-oriented models by dealing with privacy not only at the data level but also service level. Secondly, we develop a compatibility-matching algorithm to check privacy compatibility between privacy requirements and policies within a composition. Thirdly, in the case where some services in the composition are incompatible regarding their privacy specifications, we introduce a novel approach based on a negotiation model to reach compatibility of concerned services (i.e. services that participate in a composition which are incompatible). Finally, we conduct an extensive performance study of the proposed algorithms. The techniques presented in this dissertation are implemented in PAIRSE prototype
132

Gouvernance et supervision décentralisée des chorégraphies inter-organisationnelles / Decentralized Monitoring of Cross-Organizational Service Choreographies

Baouab, Aymen 27 June 2013 (has links)
Durant la dernière décennie, les architectures orientées services (SOA) d'une part et la gestion des processus business (BPM) d'autre part ont beaucoup évolué et semblent maintenant en train de converger vers un but commun qui est de permettre à des organisations complètement hétérogènes de partager de manière flexible leurs ressources dans le but d'atteindre des objectifs communs, et ce, à travers des schémas de collaboration avancée. Ces derniers permettent de spécifier l'interconnexion des processus métier de différentes organisations. La nature dynamique et la complexité de ces processus posent des défis majeurs quant à leur bonne exécution. Certes, les langages de description de chorégraphie aident à réduire cette complexité en fournissant des moyens pour décrire des systèmes complexes à un niveau abstrait. Toutefois, rien ne garantit que des situations erronées ne se produisent pas suite, par exemple, à des interactions "mal" spécifiées ou encore des comportements malhonnêtes d'un des partenaires. Dans ce manuscrit, nous proposons une approche décentralisée qui permet la supervision de chorégraphies au moment de leur exécution et la détection instantanée de violations de séquences d'interaction. Nous définissons un modèle de propagation hiérarchique pour l'échange de notifications externes entre les partenaires. Notre approche permet une génération optimisée de requêtes de supervision dans un environnement événementiel, et ce, d'une façon automatique et à partir de tout modèle de chorégraphie / Cross-organizational service-based processes are increasingly adopted by different companies when they can not achieve goals on their own. The dynamic nature of these processes poses various challenges to their successful execution. In order to guarantee that all involved partners are informed about errors that may happen in the collaboration, it is necessary to monitor the execution process by continuously observing and checking message exchanges during runtime. This allows a global process tracking and evaluation of process metrics. Complex event processing can address this concern by analyzing and evaluating message exchange events, to the aim of checking if the actual behavior of the interacting entities effectively adheres to the modeled business constraints. In this thesis, we present an approach for decentralized monitoring of cross-organizational choreographies. We define a hierarchical propagation model for exchanging external notifications between the collaborating parties. We also propose a runtime event-based approach to deal with the problem of monitoring conformance of interaction sequences. Our approach allows for an automatic and optimized generation of rules. After parsing the choreography graph into a hierarchy of canonical blocks, tagging each event by its block ascendancy, an optimized set of monitoring queries is generated. We evaluate the concepts based on a scenario showing how much the number of queries can be significantly reduced
133

Architecting the deployment of cloud-hosted services for guaranteeing multitenancy isolation

Ochei, Laud Charles January 2017 (has links)
In recent years, software tools used for Global Software Development (GSD) processes (e.g., continuous integration, version control and bug tracking) are increasingly being deployed in the cloud to serve multiple users. Multitenancy is an important architectural property in cloud computing in which a single instance of an application is used to serve multiple users. There are two key challenges of implementing multitenancy: (i) ensuring isolation either between multiple tenants accessing the service or components designed (or integrated) with the service; and (ii) resolving trade-offs between varying degrees of isolation between tenants or components. The aim of this thesis is to investigate how to architect the deployment of cloud-hosted service while guaranteeing the required degree of multitenancy isolation. Existing approaches for architecting the deployment of cloud-hosted services to serve multiple users have paid little attention to evaluating the effect of the varying degrees of multitenancy isolation on the required performance, resource consumption and access privilege of tenants (or components). Approaches for isolating tenants (or components) are usually implemented at lower layers of the cloud stack and often apply to the entire system and not to individual tenants (or components). This thesis adopts a multimethod research strategy to providing a set of novel approaches for addressing these problems. Firstly, a taxonomy of deployment patterns and a general process, CLIP (CLoud-based Identification process for deployment Patterns) was developed for guiding architects in selecting applicable cloud deployment patterns (together with the supporting technologies) using the taxonomy for deploying services to the cloud. Secondly, an approach named COMITRE (COmponent-based approach to Multitenancy Isolation Through request RE-routing) was developed together with supporting algorithms and then applied to three case studies to empirically evaluate the varying degrees of isolation between tenants enabled by multitenancy patterns for three different cloud-hosted GSD processes, namely-continuous integration, version control, and bug tracking. After that, a synthesis of findings from the three case studies was carried out to provide an explanatory framework and new insights about varying degrees of multitenancy isolation. Thirdly, a model-based decision support system together with four variants of a metaheuristic solution was developed for solving the model to provide an optimal solution for deploying components of a cloud-hosted application with guarantees for multitenancy isolation. By creating and applying the taxonomy, it was learnt that most deployment patterns are related and can be implemented by combining with others, for example, in hybrid deployment scenarios to integrate data residing in multiple clouds. It has been argued that the shared component is better for reducing resource consumption while the dedicated component is better in avoiding performance interference. However, as the experimental results show, there are certain GSD processes where that might not necessarily be so, for example, in version control, where additional copies of the files are created in the repository, thus consuming more disk space. Over time, performance begins to degrade as more time is spent searching across many files on the disk. Extensive performance evaluation of the model-based decision support system showed that the optimal solutions obtained had low variability and percent deviation, and were produced with low computational effort when compared to a given target solution.
134

Supporting system deployment decisions in public clouds

Khajeh-Hosseini, Ali January 2013 (has links)
Decisions to deploy IT systems on public Infrastructure-as-a-Service clouds can be complicated as evaluating the benefits, risks and costs of using such clouds is not straightforward. The aim of this project was to investigate the challenges that enterprises face when making system deployment decisions in public clouds, and to develop vendor-neutral tools to inform decision makers during this process. Three tools were developed to support decision makers: 1. Cloud Suitability Checklist: a simple list of questions to provide a rapid assessment of the suitability of public IaaS clouds for a specific IT system. 2. Benefits and Risks Assessment tool: a spreadsheet that includes the general benefits and risks of using public clouds; this provides a starting point for risk assessment and helps organisations start discussions about cloud adoption. 3. Elastic Cost Modelling: a tool that enables decision makers to model their system deployment options in public clouds and forecast their costs. These three tools collectively enable decision makers to investigate the benefits, risks and costs of using public clouds, and effectively support them in making system deployment decisions. Data was collected from five case studies and hundreds of users to evaluate the effectiveness of the tools. This data showed that the cost effectiveness of using public clouds is situation dependent rather than universally less expensive than traditional forms of IT provisioning. Running systems on the cloud using a traditional 'always on' approach can be less cost effective than on-premise servers, and the elastic nature of the cloud has to be considered if costs are to be reduced. Decision makers have to model the variations in resource usage and their systems' deployment options to obtain accurate cost estimates. Performing upfront cost modelling is beneficial as there can be significant cost differences between different cloud providers, and different deployment options within a single cloud. During such modelling exercises, the variations in a system's load (over time) must be taken into account to produce more accurate cost estimates, and the notion of elasticity patterns that is presented in this thesis provides one simple way to do this.
135

Προσαρμοζόμενη υποστήριξη συνεργασίας με έμφαση σε θέματα επιχειρηματολογίας και οπτικής αναπαράστασης / Adaptive collaboration support with emphasis on argumentation and visualization

Γκότσης, Γιώργος 07 October 2011 (has links)
H παρούσα διδακτορική διατριβή αφορά στην ανάπτυξη καινοτόμων λύσεων για σύγχρονα, βασισμένα στη γνώση, Συστήματα Υποστήριξης Συνεργασίας. Η προτεινόμενη προσέγγιση εστιάζει στο μοντέλο αναπαράστασης της συνεργασίας, καθώς και στο μοντέλο επιχειρηματολογίας που υιοθετείται κατά περίπτωση. Σε πρακτικό επίπεδο, αναπτύχθηκε και προτάθηκε ένα σύστημα υποστήριξης συνεργασίας, του οποίου η καινοτομία έγκειται στην ικανότητα δυναμικής προσαρμογής και απεικόνισης μιας συνεργασίας. Το σύστημα αυτό επιτρέπει την ελεύθερη, μηχανικά υποστηριζόμενη μετάβαση και εναλλαγή περιβαλλόντων συνεργασίας, όπου οι οντότητες, οι πράξεις και οι παρεχόμενοι μηχανισμοί προσαρμόζονται στις απαιτήσεις της τρέχουσας αναπαράστασης. Σε θεωρητικό επίπεδο, η επιχειρηματολογία εξετάζεται ως μια συγκεκριμένη λειτουργία συνεργασίας και διεξάγεται μελέτη σχετικά με τα διαφορετικά μοντέλα επιχειρηματολογίας. Στο πλαίσιο της μελέτης αυτής, αναδείχθηκε και προτάθηκε η αξία της σύνθεσης και συσχέτισης μεταξύ επιχειρημάτων ως μια δομή που φέρει συγκεκριμένη σημασία και αποτελεί αντικείμενο αξιοποίησης. Έτσι, η διατριβή επεκτείνει ένα γενικό μοντέλο επιχειρηματολογίας, το οποίο αρχικά ανάγεται και αναλύεται σε ένα γραφοθεωρητικό μοντέλο, ώστε να περιγραφεί ένας αποδοτικός τρόπος αξιοποίησης τέτοιων δομών σε υπολογιστικό επίπεδο. Τέλος, έχοντας αναγνωρίσει την κοινωνική διάσταση της συνεργασίας αλλά και τα κενά στα αντίστοιχα συστήματα, η διατριβή προτείνει ένα πλαίσιο που εκμεταλλεύεται τα χαρακτηριστικά και τις ιδιαιτερότητες των συστημάτων συνεργασίας, προκειμένου να εκμεταλευτεί το σχηματισμό ομάδων χρηστών σε μια κοινότητα. / This thesis concerns the development of innovative solutions for modern, knowledge-based Collaboration Support Systems. The proposed approach focuses on the representation model of collaboration, and the argumentation model adopted for various cases. On a practical level, a collaboration support system was developed and proposed. Its innovation lies in the ability to adapt and visualize a collaborative session; the system allows the arbitrary, machine supported transition and switch between environments, where entities, actions and the provided mechanisms adapt in order to meet the needs of the current representation. On a theoretical level, argumentation is considered as a particular mode of collaboration and a study is conducted on different argumentation models. In this study, the value of the composition and the inter-association between arguments is explored, as a structure that carries specific semantics and constitutes an asset under exploitation. Thus, the thesis extends a general argumentation model, which is initially reduced and analyzed as a graph-theoretic model, in order to describe an effective way of assessing such structures on a computational level. Finally, having recognized the social aspects of collaboration as well as the limitations in respective systems, the thesis proposes a framework that exploits the characteristics of collaboration support systems, in order to take advantage of the formation of user groups in a community.
136

Power efficient and power attacks resistant system design and analysis using aggressive scaling with timing speculation

Rathnala, Prasanthi January 2017 (has links)
Growing usage of smart and portable electronic devices demands embedded system designers to provide solutions with better performance and reduced power consumption. Due to the new development of IoT and embedded systems usage, not only power and performance of these devices but also security of them is becoming an important design constraint. In this work, a novel aggressive scaling based on timing speculation is proposed to overcome the drawbacks of traditional DVFS and provide security from power analysis attacks at the same time. Dynamic voltage and frequency scaling (DVFS) is proven to be the most suitable technique for power efficiency in processor designs. Due to its promising benefits, the technique is still getting researchers attention to trade off power and performance of modern processor designs. The issues of traditional DVFS are: 1) Due to its pre-calculated operating points, the system is not able to suit to modern process variations. 2) Since Process Voltage and Temperature (PVT) variations are not considered, large timing margins are added to guarantee a safe operation in the presence of variations. The research work presented here addresses these issues by employing aggressive scaling mechanisms to achieve more power savings with increased performance. This approach uses in-situ timing error monitoring and recovering mechanisms to reduce extra timing margins and to account for process variations. A novel timing error detection and correction mechanism, to achieve more power savings or high performance, is presented. This novel technique has also been shown to improve security of processors against differential power analysis attacks technique. Differential power analysis attacks can extract secret information from embedded systems without knowing much details about the internal architecture of the device. Simulated and experimental data show that the novel technique can provide a performance improvement of 24% or power savings of 44% while occupying less area and power overhead. Overall, the proposed aggressive scaling technique provides an improvement in power consumption and performance while increasing the security of processors from power analysis attacks.
137

Conception et réalisation d’un lien Light-Fidelity multi-utilisateur en intérieur / Conception and realization of an indoor multi-user Light-Fidelity link

Mohammedi Merah, Mounir 08 October 2019 (has links)
De nos jours, le nombre d'appareils connectés nécessitant un accès aux données mobiles est en augmentation constante. L'arrivée d'encore plus d'ojects multimédias connectés et la demande croissante d'informations par appareil ont mis en évidence les limites de la quatrième génération de réseaux cellulaires (4G). Cela a poussé au développement de nouvelles méthodes, dont la 5G. L'objectif est d'être en mesure de prendre en charge la croissance des systèmes portables, des capteurs ou des sysèmes associés à l'internet des objets (IoT). La vision derrière la 5G est de permettre une société entièrement mobile et connectée avec une expérience consistente.Les petites cellules sont la base des normes de communication avancées telles que 4G et maintenant 5G. Ils résultent de l’utilisation de bandes de fréquences plus élevées pour l’accès radiofréquences (RF) afin de supporter de nouvelles normes et exigences croissantes en bande passante. La 5G utilise des ondes millimétriques et nécessite un déploiement dans un environnement urbain intérieur et urbain dense, ce qui peut s'avérer être un défi. C’est là que la 5G devra inclure des solutions de réseau hybrides et pouvoir coexister avec d’autres technologies d’accès sans fil. La communication par lumière visible (VLC) s’inscrit dans ce moule puisque la lumière visible correspond à la bande comprise entre 400 et 800 THz. Le spectre disponible est des milliers de fois plus large que le spectre RF et il n’interfère pas avec celui-ci. Le principe se base sur la combinaison de l'éclairage avec un lien de communication pouvant atteindre des dizaines de gigabits par seconde. Le potentiel est d’offrir un complément à la 5G dans un réseau hybride, offrant une vitesse élevée, aucune interférence et une sécurité accrue au prix d’une couverture limitée et d’une faible maturité technologique.L’objectif de cette thèse est donc de proposer et d’évaluer une implémentation expérimentale d’un système VLC en intérieur et multi-utilisateurs afin de répondre aux objectifs de la configuration light-fidelity (Li-Fi) dans le contexte d’une petite cellule. La première étape de cette étude est un état de l'art détaillé sur le principe de VLC dans la communication sans fil en intérieur et de l’accès multi-utilisateur. Cela permet de mieux expliquer le concept de notre désign et de comparer notre approche aux travaux existants. La deuxième étape consiste en une analyse des principes et des hypothèses pour le système VLC multi-utilisateurs en intérieur portant à la fois sur la technique de modulation et sur les schémas d’accès multi-utilisateurs. Les conclusions tirées des analyses théoriques et numériques servent de base pour la suite du travail. La troisième étape consiste en plusieurs analyses expérimentales sur l'optimisation des performances de diffusion pour un utilisateur unique, puis sur les performances multi-utilisateurs du système à l'aide de divers schémas d'accès. Le débit total avec une LED blanche commerciale atteint 163 Mb/s avec un taux d'erreur réduit d'un facteur de 3,55 grâce au processus d'optimisation des performances. Cette technique a l'avantage d'augmenter la flexibilité pour un scénario avec plusieurs utilisateurs sans augmenter la complexité car seuls les paramètres des filtres de modulation sont altérés. La taille de la cellule obtenue est de 4.56 m² à une distance de 2,15 mètres du transmetteur. Le capacité peut atteindre jusqu'à 40 utilisateurs, ou 40.62 Mb/s dans un scénario à 4 utilisateurs. Il est donc démontré que le système proposé pourrait fonctionner comme une cellule à une distance réaliste, avec un débit de données élevé et la capacité de répondre aux besoins d’un grand nombre d’utilisateurs tout en limitant les coûts de mise en œuvre. / Nowadays, the number of connected devices requiring access to mobile data is considerably increasing. The arrival of even more connected multimedia objects and the growing demand for more information per device highlighted the limits of the fourth generation of broadband cellular networks (4G). This pushed for the development of new methods, one of which is 5G. The goal is to be able to support the growth of wearable, sensors, or related internet-of-object (IoT) systems. The vision behind 5G is to enable a fully mobile and connected society with a consistent experience. In consequence, there is a fundamental need to achieve a seamless and consistent user experience across time and space.Small cells are the basis of advanced communications standards such as 4G and now, 5G. They exist as a result of using higher frequency bands for RF access in order to support new standards and the increasing demands in bandwidth. 5G use millimeter waves and requires a deployment across indoor and dense urban environment which may prove to be a challenge. This is where 5G will need to include hybrid networking solutions and be able to coexist with other wireless access technologies. Visible light communication (VLC) fits into that mold since visible light corresponds to the band between 400 and 800 THz. The available spectrum is multiple thousand times the size of the RF spectrum and it does not interfere with it. The technique combines illumination with communication at possibly tens of gigabits per second. It has the potential to offer a synergistic pairing with 5G in a hybrid network, offering high speed, no interferences, and more security at the cost of limited coverage and low technological maturity.The goal of this thesis is thus to propose and evaluate an experimental implementation of an indoor multi-user VLC system in order to answer the objectives of Li-Fi setup in the context of a small cell. The first step of this study is a detailed state-of-the-art on VLC in indoor wireless communication and multi-user access. It allows the design of our work to be better explained and to compare our approach with existing works. The second step is an analysis of the principles and hypothesis supporting the indoor multi-user VLC system in the study both on the modulation technique and the multi-user access schemes. The conclusions drawn from theoretical and numerical analysis are used as a basis for the rest of the work. The third step is the experimental setup investigations on the single-user broadcast performances optimization and then on the multi-user performances of the system using various schemes. The total throughput using an off-the-shelf white LED reaches 163 Mb/s with a bit-error rate decreased by a factor of 3.55 thanks to the performance optimization process. This technique has the advantage of increasing the flexibility for a multi-access scenario while not augmenting the complexity as it only optimizes the modulation filter parameters. The multi-user access is obtained for a cell size of 4.56 m² at a distance of 2.15 meter away from the transmitter. The user capacity can reach up to 40 users, or 40.62 Mb/s in a 4-user scenario. It is thus demonstrated that the proposed system could function as a cell at a realistic range, with high data rate and the ability to provide for a large amount of users while limiting the cost of implementation.
138

Dissémination multi-contenus opportuniste : monitorage passif et adaptation aux conditions du réseau / Opportunistic multi-content dissemination : Passive monitoring and adaptation to network conditions

Sammarco, Matteo 28 May 2014 (has links)
La pénétration du marché des appareils mobiles a connu une croissance impressionnante ces dernières années. Smartphones, tablettes et ordinateurs portables sont devenus soit producteurs soit consommateurs de contenus générés par les utilisateurs. Les communications opportunistes permettent une couverture étendue dans les endroits où il n'existe aucune infrastructure réseau disponible et des stratégies de délestage de données pour aider les opérateurs à soulager la charge de leurs infrastructures. Dans cette thèse, nous considérons le cas de la diffusion opportuniste de plusieurs grands contenus d'un point de vue expérimental. Dans la première partie nous commençons par implémenter EPICS, un protocole réseau conçu pour l'échange opportuniste de grands contenus, dans des terminaux Android. Après sa évaluation nous proposons DAD, un nouveau protocole, qui envoie une rafale de paquets de données de façon adaptative. Nous comparons les deux protocoles expérimentalement et, à l'aide des traces de contacts, soit réelles, soit synthétiques, nous obtenons des gains importants avec cette nouvelle approche. La deuxième partie est dédiée au passage à l'échelle des systèmes de surveillance passive. Nous proposons deux approches. La première est basée sur la similarité des traces et des algorithmes de détection de communautés. La deuxième est basée sur des mesures collaboratives. / The market penetration of mobile devices has experienced an impressive growth. Smartphones, tablets, and laptops have become both producers and consumers of user-generated contents. They also motivate novel communication paradigms such as the possibility to establish, in an opportunistic fashion, direct device-to-device links whenever two mobile nodes enter within the wireless range of each other. In this thesis, we consider the case of opportunistic dissemination of multiple large contents from an experimental point of view. This implies revisiting, among others, the common assumption that contacts have enough capacity to transfer any amount of data.In the first part of this thesis, we start from an Android implementation of EPICS, a network protocol designed for exchanging large contents in opportunistic networks, on off-the-shelf devices. After an deep analysis of application-level logs and captured wireless traces we found out limitations and uncovered improving possibilities. We then propose DAD, a new content dissemination protocol that adaptively sends bursts of data instead of the per-fragment transmission strategy of EPICS.The second part of this thesis deals with the scalability of legacy WLAN monitoring systems. We propose two original approaches. With the first one, based on trace similarity and community detection algorithms, we are able to identify how many monitor we need in a target area and where to place them. The second approach in based on collaborative measurements. In this case we face the risk of biased measures due attacks of malicious users generating adulterated traces. We then propose a method to detect such malicious behaviors.
139

Sécurité pour les réseaux du futur : gestion sécurisée des identités / Security for future networks : secure identity management

Aissaoui Mehrez, Hassane 10 July 2015 (has links)
Aujourd'hui, l'Internet change radicalement nos habitudes, avec l'arrivée massive du nomadisme, l'internet des objets, l'utilisation croissante de l'informatique en grille, les services Web, les réseaux sociaux et l'émergence de nouvelles approches dans ces dernières années. La virtualisation des infrastructures informatiques et le Cloud Computing ont particulièrement, permis de définir des nouveaux paradigmes, appelés X as a Service (XaaS), introduisant ainsi une rupture assez franche avec les modèles traditionnels, qui sont perçus comme une étape préparatoire vers l'Internet du Futur. En effet, la mise en œuvre de ces paradigmes, permet de mutualiser et de réorganiser le système informatique de manière différente, de dématérialiser les infrastructures physiques, de déporter les systèmes ou les applications sur des conteneurs virtuels distants. Par conséquent, l'architecture globale de l'Internet doit évoluer, en s'appuyant fortement sur ces nouvelles approches, en particulier, le Cloud Computing et la virtualisation. Malheureusement, comme toute technologie nouvelle, elle crée de nouveaux risques, qui viennent se greffer aux problèmes traditionnels : la séparation des privilèges, la gestion des accès, la gestion de l'identité, les failles des logiciels de virtualisation, l'isolation des machines virtuelles (VM), la protection des données personnelles, la vie privée, la réversibilité pendant l'externalisation (Outsourcing), etc. Les services basés sur les Clouds requièrent des fonctions de collaboration inter-fonctionnelles sécurisées ainsi que des systèmes de protection contre l'utilisation abusive des ressources. Ces systèmes doivent être équilibrés de façon raisonnable avec les besoins de confidentialité, d’intégrité, de protection de la vie privée des utilisateurs. Ils doivent permettre l’authentification des utilisateurs sans révéler des informations sur leur identité. Ainsi, une offre de services personnalisés aux clients dans un environnement virtuel et/ou transorganisationnel, en utilisant des mécanismes de sécurité adaptés à des infrastructures traditionnelles, peut prendre une dimension très complexe dans le modèle Cloud Computing, et peut constituer des défis à soulever pour les fournisseurs de ces services. Parmi ces défis à résoudre, la gestion d’identités des ressources, qui constitue un élément crucial pour authentifier les services à consommer, minimiser le risque d’accès frauduleux à des données personnelles, qui peut conduire à des conséquences désastreuses pour une entreprise ou un client. Les solutions existantes sont insuffisantes pour répondre aux défis soulevés par ces nouvelles approches. La mise en œuvre de ces modèles et ces outils posent des défis sécuritaires à la fois d’ordre organisationnel, architectural et protocolaire, pour garantir à chaque client des niveaux de sécurité. Ces niveaux doivent être identifiés pour guider les choix architecturaux et techniques à prendre, pour répondre en particulier aux exigences (LoA : Level of Assurance) et (LoT : Level of Trust), qu’un fournisseur de Cloud doit mettre en place pour garantir et protéger ses ressources. En effet, ces verrous et ces défis sécuritaires vont être relevés dans ce travail de recherche qui se situe dans le cadre du projet sécurité pour les réseaux du futur (SecFuNet : Security for Future Networks). C’est un projet collaboratif entre l’Europe et le Brésil, qui implique neuf partenaires européens répartis sur (la France, la Pologne, l'Allemagne et le Portugal) et 7 partenaires académiques brésiliens. Ce projet a pour ambition de proposer une nouvelle infrastructure de sécurité générale pour la communication des informations des utilisateurs sur Internet. L’objectif principal est de concevoir et développer une nouvelle architecture de sécurité cohérente pour les réseaux virtuels. / Today, the Internet is changing radically our habits, especially with the massive influx of the nomadic techniques, the Internet of objects, the growing use of grid computing, wireless networks and the emergence of new approaches in recent years. In particular, the virtualization of the computing infrastructures, which allowed defining a new model called Cloud Computing, introducing an enough frank breakdown with the traditional models, can be perceived as a preparatory stage towards the Internet of future.The implementation of these approaches allows, in a different way : mutualization and organization of the computer system. It allows to dematerialize the physical infrastructures and to deport applications on distant containers. Therefore, the global architecture of Internet should be evolved. It will rely strongly on these new approaches and in particular, Cloud Computing and virtualization. However, no system is infallible especially if resources are distributed and mutualized. They raise a number of problems and involve directly security issues, which remain one of the main barriers to the adoption of these technologies.Like any new technology, Cloud Computing and virtualization create new risks, which come to graft to traditional threats of the outsourcing management of the privilege separation, the identity and accesses management, the robustness of the virtualization software, the virtual machine isolation, the personal data protection, reversibility, privacy... The traditional Internet architecture cannot provide the adequate solutions to the challenges raised by these new approaches: mobility, flexibility, security requirements, reliability and robustness. Thus, a research project (SecFuNet : Security For Future Networks) was validated by the European Commission, to provide some answers, to make a state of the art of these security mechanisms and a comprehensive study of orchestration and integration techniques based on protection components within overall security architecture.
140

Etude des interactions réseaux véhiculaires et Cloud / Study of VANETs and Cloud interactions

Wilhelm, Geoffrey 06 December 2018 (has links)
Les réseaux véhiculaires sont des réseaux émergents qui permettent de connecter des véhicules entre eux et avec les infrastructures routières. Ils permettent de mettre en œuvre des applications de sécurité (évitement des collisions, prévention des travaux, etc.), des applications temps-réel (aide à la conduite automatisée), des applications des systèmes de transport intelligents (gestion du trafic, proposition de détours, etc.), des applications de confort (péage automatique des autoroutes, connexion à du contenu multimédia en ligne, etc.). Pour fonctionner pleinement, le véhicule a besoin d’une puissance de calcul de plus en plus grande et d’une connexion quasi-continue. Afin de garantir cette contrainte, les réseaux véhiculaires font de plus en plus appel au Cloud. Cette thèse vise à explorer les différentes interactions entre les réseaux véhiculaire et Cloud. / Vehicular Ad-hoc Networks (VANETs) are a new kind of networks which allow to connect vehicles between them and with the road infrastructures. It make possible to deploy safety applications (colision avoidance, roadworks advertisement, etc.), real time application (driver assistance, automated driving, etc.), comfort application (automatic toll payment, access to multimedia contents via internet, etc.). In order to be functioning completely, the vehicle needs more and more computing power and a connection with almost no interruption. To guarantee this constraints, VANETs are using more and more often the Cloud Computing. This thesis aims to explore the differents intereactions between VANETs and the Cloud

Page generated in 0.0317 seconds