• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 779
  • 217
  • 122
  • 65
  • 54
  • 34
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1600
  • 1600
  • 392
  • 281
  • 244
  • 242
  • 235
  • 231
  • 231
  • 227
  • 218
  • 210
  • 176
  • 175
  • 154
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Optimization of routing and wireless resource allocation in hybrid data center networks / Optimisation du routage et de l'allocation de ressources sans fil dans les réseaux des centres de données hybrides

Dab, Boutheina 05 July 2017 (has links)
L’arrivée de la prochaine technologie 5G va permettre la connectivité des billions de terminaux mobiles et donc une énorme augmentation du trafic de données. A cet égard, les fournisseurs des services Cloud doivent posséder les infrastructures physiques capables de supporter cette explosion de trafic. Malheureusement, les architectures filaires conventionnelles des centres de données deviennent staturées et la congestion des équipements d’interconnexion est souvent atteinte. Dans cette thèse, nous explorons une approche récente qui consiste à augmenter le réseau filaire du centre de données avec l’infrastructure sans fil. En effet, nous exploitons une nouvelle technologie émergente, la technologie 60 GHz, qui assure un débit de l’ordre de 7 Gbits/s afin d’améliorer la QoS. Nous concevons une architecture hybride (filaire/sans fil) du réseau de centre de données basée sur : i) le modèle "Cisco’s Massively Scalable Data Center" (MSDC), et ii) le standard IEEE 802.11ad. Dans une telle architecture, les serveurs sont regroupés dans des racks, et sont interconnectés à travers un switch Ethernet, appelé top-of-rack (ToR) switch. Chaque ToR switch possède plusieurs antennes utilisées en parallèle sur différents canaux sans fil. L’objectif final consiste à minimiser la congestion du réseau filaire, en acheminant le maximum du trafic sur les canaux sans fil. Pour ce faire, cette thèse se focalise sur l’optimisation du routage et de l’allocation des canaux sans fil pour les communications inter-rack, au sein d’un centre de données hybride (HDCN). Ce problème étant NP-difficile, nous allons procéder en trois étapes. En premier lieu, on considère le cas des communications à un saut, où les racks sont placés dans le même rayon de transmission. Nous proposons un nouvel algorithme d’allocation des canaux sans fil dans les HDCN, qui permet d’acheminer le maximum des communications en sans-fil, tout en améliorant les performances réseau en termes de débit et délai. En second lieu, nous nous adressons au cas des communications à plusieurs sauts, où les racks ne sont pas dans le même rayon de transmission. Nous allons proposer une nouvelle approche optimale traitant conjointement le problème du routage et de l’allocation de canaux sans fils dans le HDCN, pour chaque communication, dans un mode online. En troisième étape, nous proposons un nouvel algorithme qui calcule conjointement le routage et l’allocation des canaux pour un ensemble des communications arrivant en mode batch (i.e., par lot). En utilisant le simulateur réseau QualNet, considérant toute la pile TCP/IP, les résultats obtenus montrent que nos propositions améliorent les performances comparées aux méthodes de l’état de l’art / The high proliferation of smart devices and online services allows billions of users to connect with network while deploying a vast range of applications. Particularly, with the advent of the future 5G technology, it is expected that a tremendous mobile and data traffic will be crossing Internet network. In this regard, Cloud service providers are urged to rethink their data center architectures in order to cope with this unprecedented traffic explosion. Unfortunately, the conventional wired infrastructures struggle to resist to such a traffic growth and become prone to serious congestion problems. Therefore, new innovative techniques are required. In this thesis, we investigate a recent promising approach that augments the wired Data Center Network (DCN) with wireless communications. Indeed, motivated by the feasibility of the new emerging 60 GHz technology, offering an impressive data rate (≈ 7 Gbps), we envision, a Hybrid (wireless/wired) DCN (HDCN) architecture. Our HDCN is based on i) Cisco’s Massively Scalable Data Center (MSDC) model and ii) IEEE 802.11ad standard. Servers in the HDCN are regrouped into racks, where each rack is equipped with a: i) Ethernet top-of-rack (ToR) switch and ii) set of wireless antennas. Our research aims to optimize the routing and the allocation of wireless resources for inter-rack communications in HDCN while enhancing network performance and minimizing congestion. The problem of routing and resource allocation in HDCN is NP-hard. To deal with this difficulty, we will tackle the problem into three stages. In the first stage, we consider only one-hop inter-rack communications in HDCN, where all communicating racks are in the same transmission range. We will propound a new wireless channel allocation approach in HDCN to hardness both wireless and wired interfaces for incoming flows while enhancing network throughput. In the second stage, we deal with the multi-hop communications in HDCN where communicating racks can not communicate in one single-hop wireless path. We propose a new approach to jointly route and allocate channels for each single communication flow, in an online way. Finally, in the third stage, we address the batched arrival of inter-rack communications to the HDCN so as to further optimize the usage of wireless and wired resources. For that end, we propose: i) a heuristic-based and ii) an approximate, solutions, to solve the joint batch routing and channel assignment. Based on extensive simulations conducted in QualNet simulator while considering the full protocol stack, the obtained results for both real workload and uniform traces, show that our proposals outperform the prominent related strategies
422

GreenMACC - Uma arquitetura para metaescalonamento verde com provisão de QoS em uma nuvem privada / GreenMACC - an architecture for green metascheduling with QoS provisioning in a private cloud

Osvaldo Adilson de Carvalho Junior 15 December 2014 (has links)
Esta tese de Doutorado tem como objetivo apresentar uma arquitetura para metaescalonamento verde com provisão de qualidade de serviço em uma nuvem privada denominada GreenMACC. Essa nova arquitetura oferece a automatização na escolha de políticas em quatro estágios de escalonamento de uma nuvem privada, permitindo cumprir a negociação que foi estabelecida com o usuário. Devido a essa função, é possível garantir que o GreenMACC se comporte seguindo os princípios da computação verde sem deixar de se preocupar com a qualidade do serviço. Nesta tese o GreenMACC é apresentado, detalhado, discutido, validado e avaliado. Com os resultados apresentados pode-se concluir que a arquitetura proposta mostrou-se consistente, permitindo a execução dos serviços requisitados com diversas políticas de escalonamento em todos os seus estágios. Além disso, demonstrou flexibilidade em receber novas políticas, com focos verde e de qualidade de serviço, e eficiência na escolha das políticas de escalonamento de acordo com a negociação feita com o usuário. / This PhD thesis aims to present an architecture for green metascheduling with provision of quality of service in a private cloud called GreenMACC. This new architecture offers the possibility of choosing automatically the four stage scheduling policies of a private cloud, allowing to reach the users negotiation. As a result of this function, it is possible to ensure that GreenMACCs behavior follows the green computing principles and also is worried about the quality of the service. In this thesis Green- MACC is presented, particularized, discussed, validated and evaluated. The results show that the proposed architecture is consistent, allowing the execution of the requested services considering various scheduling policies in the stages. Moreover, GreenMACC proves to be flexible as allows new policies, focusing on green and quality of service, and to be efficient as chooses the scheduling policies following the users negotiation.
423

Modelos par análise de disponibilidade em uma plataforma de mobile backend as a service

COSTA, Igor de Oliveira 31 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-03-15T13:05:35Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Disserta__o_Igor_Costa__Copy_(1).pdf: 11507063 bytes, checksum: f631fc6dd87314e89ea560a118301875 (MD5) / Made available in DSpace on 2016-03-15T13:05:35Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Disserta__o_Igor_Costa__Copy_(1).pdf: 11507063 bytes, checksum: f631fc6dd87314e89ea560a118301875 (MD5) Previous issue date: 2015-08-31 / As limitações da computação móvel abrem caminhos para utilizar recursos de computação em nuvem voltadas à dispositivos móveis, sendo este o principal objetivo da Mobile Cloud Computing (MCC). Questões como armazenamento e processamento podem afetar a disponibilidade de um serviço no dispositivo móvel, assim, para minimizar esses problemas é possível o particionamento da aplicação em frontend e backend. Os serviços de nuvem auxiliam esse processo com a utilização de ambientes Mobile Backend-as-a-Service (MBaaS), que permitem os desenvolvedores conectar o backend de suas aplicações para o armazenamento em nuvem. Uma plataforma de MBaaS oferece um serviço de sincronização completa para aplicações móveis. Uma vez que os dados armazenados no dispositivo móvel estão sincronizados com os centros de dados distribuídos, a disponibilidade do sistema no lado servidor é um atributo fundamental que requer investigação, pois sistemas computacionais tendem a falhar. As falhas podem ocorrer em hardwares, softwares e meios de conexão, acarretando assim, em prejuízos financeiros e comprometendo a credibilidade das empresas provedoras do serviço. Os administradores necessitam de mecanismos para estimar a disponibilidade de seus sistemas, podendo definir Service Level Agreement (SLA) com mais propriedade. Assim, modelos analíticos podem ser utilizados para avaliar a disponibilidade destes tipos de ambientes, bem como auxiliar a mitigar o downtime, aumentando a disponibilidade do serviço. Este trabalho propõe modelos analíticos para avaliar a disponibilidade desses ambientes. Para tanto, foi adotada uma metodologia: primeiramente definiu-se a arquitetura básica do serviço; a qual foi modelada a partir de um modelo hierárquico, composto de diagramas de blocos de confiabilidade (RBD) e cadeias de Markov de tempo contínuo (CTMC) e validado através de um testbed de injeção de falhas e reparos em um ambiente real. Baseado no modelo de serviço proposto, foi efetuada a análise de sensibilidade, que identificou o sistema como componente crítico. A partir disto, foram sugeridos modelos hierárquicos que representem o ambiente de nuvem, e com base neste ambiente, através da técnica de análise de sensibilidade, foram propostas quatro arquiteturas, sendo estas avaliados em termos de disponibilidade e downtime anual. Os resultados demonstram que a implementação de um processo de recuperação automática sobre o componente de software, Java Virtual Machine, reduz o downtime anual na arquitetura básica em cerca de 10%, bem como é possível observar que no ambiente de nuvem utilizando o mecanismo de redundância warm-standby nos nós e no frontend apresenta efetiva melhora na disponibilidade. Desta forma, a presente pesquisa pode orientar os administradores de sistemas MBaaS no planejamento de suas políticas de manutenção. / The mobile computer restrictions propose new ways to use cloud computing resources aimed at mobile devices, this is the Mobile Cloud Computing (MCC) primary goal. Issues such as storage and processing can impact the service availability on the mobile device. With the reducing purpose, these questions are its possible divide the application into two pieces, frontend, and backend. The cloud services assist this process with the Mobile Backend-as-a- Service (MBaaS) use. This tool allows the developers connect yours application backend to cloud storage. The MBaaS OpenMobster platform offers complete synchronization service to mobile applications. Since the data stored on mobile was synchronized distributed data center, the server’s system availability is an essential attribute and request attention, because computer systems will sometimes fail. The failures can happen on components variety as hardware, software and connections, causing financial losses and reliability compromising of the companies, which offer this services. The administrators need tools to project the system availability, with this they can define the SLA with more assurance. Analytic models can be used to availability evaluate in this environment and mitigate the downtime risk, this improves the service availability. This work primary goal is proposed analytic models to availability evaluated in these environments. It was adopted a methodology as follow: First, define the base service architecture. It was modeled by use a hierarchical model, using a reliability block diagram (RBD) and continuous-time Markov chain (CTMC). The validation considers a fault injection testbed and repairs on real environment. Considering the model proposed, it was done sensitivity analysis, these results present the system as a critical component. This analysis was proposed hierarchical models to represents cloud environment. On these sensibility analysis, a background was offered four scenarios. The scenarios were evaluated to determine the availability and annual downtime. The results show that the an automatic recovery implementation process on the software component, Java Virtual Machine, decrease the annual downtime on base architecture to 10%. The results present the availability improvement when adopted redundancy strategy as warm standby on a cloud environment. This way, the work can guide the MBaaS system administrators in planning their maintenance policies.
424

Digital Transformation - Rollen för Big Data, Internet of Things och CloudComputing / Digital Transformation - The role of Big Data, Internet of Things and CloudComputing

Eide, Linn, Paredes Degollar, Daniel January 2016 (has links)
Förändringar i affärsvärlden och på marknaden leder till att företag idag ständigt ställs införnya utmaningar. Vi befinner oss i ett digitaliserat samhälle som är under ständig förändring.Det är något som företag måste förhålla sig till. Företagen står inför utmaningen attdigitalisera sin verksamhet för att förhålla sig till en förändrande marknad och allt merdigitaliserade kunder. Utökande av kommunikationsnät och infrastruktur har möjliggjort förkunder att verka i en mer uppkopplad miljö än tidigare. För att verksamheter ska vara med ispelet bland de konkurrenskraftiga organisationerna, leder det till en av anledningarna till attföretagen kommer i kontakt med IT-trender inom digitalisering som Big Data, Internet ofThings och Cloud Computing. Affärsmodellen är en huvudsaklig aspekt att ta hänsyn till ochjustera vid digitalisering. Studien syftar därmed till att undersöka rollen för de tre nämnda ITtrendernai en verksamhet och hur affärsmodellen faktiskt påverkas. Studiens slutsatser visarpå att användandet av de tre IT-trenderna är låg idag och vad gäller affärsmodellen har detskett en låg påverkan på även om medvetenhet finns i hur den bör påverkas. IT-trendernafinns dock ständigt på agendan och kommer spela en stor roll framöver inom verksamhetersamtidigt som affärsmodellen kommer få en större påverkan. / Changes in the business world and on the market means that companies today are constantlyfaced with new challenges. We are in a digitized society that is constantly changing. It issomething that companies must adhere to. The companies face the challenge of digitizing itsoperations to respond to a changing market and increasingly digitized customers. Extension ofnetworks and infrastructure has enabled customers to work in a more connected world thanbefore. For businesses to be included in the game among the competitive organizations, itleads to one of the reasons that companies will use the IT trends in digitization as Big Data,Internet of Things and Cloud Computing. The business model is a main aspect to be takeninto account and adjust for digitization. The study thus aims to examine the role of these threeIT trends in the business and how the business model actually is affected. The study's findingsshow that the use of the three IT trends are low today, and in terms of the business model hasbeen a low impact on even if consciousness is how it should be affected. The IT trends are,however, constantly on the agenda and will play a big role in the future in the activities whilethe business model will have a larger impact.
425

Monitoring et détection d'anomalie par apprentissage dans les infrastructures virtualisées / Monitoring and detection of learning abnormalities in virtualized infrastructures

Sauvanaud, Carla 13 December 2016 (has links)
Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entraînement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats. / Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.
426

Automation of The SLA Life Cycle in Cloud Computing

Ghumman, Waheed Aslam 09 October 2017 (has links) (PDF)
Cloud computing has become a prominent paradigm to offer on-demand services for softwares, infrastructures and platforms. Cloud services are contracted by a service level agreement (SLA) between a cloud service provider (CSP) and a cloud service user (CSU) which contains service definitions, quality of service (QoS) parameters, guarantees and obligations. Cloud service providers mostly offer SLAs in descriptive format which is not directly consumable by a machine or a system. The SLA written in natural language may impede the utility of rapid elasticity in a cloud service. Manual management of SLAs with growing usage of cloud services can be a challenging, erroneous and tedious task especially for the CSUs acquiring multiple cloud services. The necessity of automating the complete SLA life cycle (which includes SLA description in machine readable format, negotiation, monitoring and management) becomes imminent due to complex requirements for the precise measurement of QoS parameters. Current approaches toward automating the complete SLA life cycle, lack in standardization, completeness and applicability to cloud services. Automation of different phases of the SLA life cycle (e.g. negotiation, monitoring and management) is dependent on the availability of a machine readable SLA. In this work, a structural specification for the SLAs in cloud computing (S3LACC in short) is presented which is designed specifically for cloud services, covers complete SLA life cycle and conforms with the available standards. A time efficient SLA negotiation technique is accomplished (based on the S3LACC) for concurrently negotiating with multiple CSPs. After successful negotiation process, next leading task in the SLA life cycle is to monitor the cloud services for ensuring the quality of service according to the agreed SLA. A distributed monitoring approach for the cloud SLAs is presented, in this work, which is suitable for services being used at single or multiple locations. The proposed approach reduces the number of communications of SLA violations to a monitoring coordinator by eliminating the unnecessary communications. The presented work on the complete SLA life cycle automation is evaluated and validated with the help of use cases, experiments and simulations.
427

Plateforme ouverte, évolutive, sécurisée et orientée utilisateur pour l'e-commerce / Open, scalable, secure and user-centric platform for e-commerce

Delettre, Christian 12 December 2014 (has links)
De nos jours, l’e-commerce est devenu un écosystème complexe où de multiples solutions (en termes de plateforme) sont possibles et réalisables pour un e-commerçant. En parallèle, un nouveau paradigme a fait son apparition, celui du Cloud Computing. Malgré les avantages certains qu’il apporte, peu des plateformes existantes sont pensées pour fonctionner sur une architecture Cloud. De plus, face à la complexité d’obtenir une plateforme d’e-commerce (PE) sécurisée, flexible et évolutive s’appuyant sur des applications et services hétérogènes existants et répondant aux besoins des e-commerçants, il est légitime de se demander si une PE basée sur le Cloud permettrait de réellement simplifier les difficultés rencontrées par les e-commerçants. Cette thèse propose de valider la pertinence de l’utilisation du Cloud dans un contexte d’e-commerce avant de proposer les principes architecturaux d’une PE ouverte, évolutive et sécurisée basée sur une architecture de Cloud. De plus, la mise en œuvre d’une PE par un e-commerçant, n’est pas orientée utilisateur. Face à ceci, nous proposons un mécanisme orienté utilisateur simplifiant la mise en œuvre d’une PE tout en assurant un haut degré de sécurité au sein de celle-ci. Enfin, nous nous sommes également intéressés à répondre à la question suivante dans un contexte d’e-commerce : Comment assurer qu’aucune inférence d’activités sur une taille constatée d’une BD ne puisse être réalisée par des entités non autorisées ? Pour y répondre, nous proposons une solution de sécurité de dissimulation de données orientée utilisateur permettant de résoudre la propriété de confidentialité forte des données au sein des SGBDR. / Nowadays, e-commerce has become a complex ecosystem where multiple solutions (in terms of platforms) are possible and feasible for e-merchant. Concurrently, a new paradigm called Cloud Computing has emerged. Despite some advantages it brings, few of these platforms have been designed to operate on a Cloud architecture. Thus, because of the complexity to design a flexible and scalable e-commerce platform (EP), based on existing heterogeneous applications/services and fulfilling the needs of e-merchants, it is legitimate to ask ourself if a PE based on the Cloud would really simplify the difficulties faced by e-merchants. This thesis aims to validate the relevance of using the Cloud Computing in the e-commerce context and propose the architectural principles of an open, scalable and secure EP based on a Cloud architecture. In addition, the EP used by e-merchants are not user-centric EP. As a consequence, we propose a user-centric mechanism simplifying the design and implementation of an EP while ensuring a high security level. Finally, we tried to answer the following question: How to ensure that no activity inference on a database size, in an e-commerce context, can be achieved by unauthorized entities? As a response, we propose a user-centric security solution of data concealment to resolve the property of strong data confidentiality within relational database management system (RDBMS).
428

Security for the cloud / Sécurité pour le cloud

Cornejo-Ramirez, Mario 17 November 2016 (has links)
La cryptographie a été un facteur clé pour permettre la vente de services et du commerce par Internet. Le cloud computing a amplifié cette révolution et est devenu un service très demandé grâce à ses avantages comme : puissance de calcul importante, services à bas coûts, rendement, évolutivité, accessibilité et disponibilité. Parallèlement à la hausse de nouveaux business, des protocoles pour des calculs sécurisés ont aussi émergé. Le but de cette thèse est de contribuer à la sécurité des protocoles d’Internet existants en fournissant une analyse de la source aléatoire de ces protocoles et en introduisant des protocoles mieux adaptés pour les environnements des cloud computing. Nous proposons de nouvelles constructions en améliorant l'efficacité des solutions actuelles afin de les rendre plus accessibles et pratiques. Nous fournissons une analyse de sécurité détaillée pour chaque schéma avec des hypothèses raisonnables. Nous étudions la sécurité du cloud computing à différents niveaux. D'une part, nous formalisons un cadre pour analyser quelques-uns des générateurs de nombres pseudo-aléatoires populaires à ce jour qui sont utilisés dans presque chaque application cryptographique. D'autre part, nous proposons deux approches efficaces pour des calculs en cloud. Le premier permet à un utilisateur de partager publiquement son secret de haute entropie avec des serveurs différents pour plus tard le récupérer par interaction avec certains de ces serveurs en utilisant seulement son mot de passe et sans données authentifiées. Le second permet à un client d'externaliser à un serveur une base de données en toute sécurité, qui peut être recherchée et modifiée ultérieurement. / Cryptography has been a key factor in enabling services and products trading over the Internet. Cloud computing has expanded this revolution and it has become a highly demanded service or utility due to the advantages of high computing power, cheap cost of services, high performance, scalability, accessibility as well as availability. Along with the rise of new businesses, protocols for secure computation have as well emerged. The goal of this thesis is to contribute in the direction of securing existing Internet protocols by providing an analysis of the sources of randomness of these protocols and to introduce better protocols for cloud computing environments. We propose new constructions, improving the efficiency of current solutions in order to make them more accessible and practical. We provide a detailed security analysis for each scheme under reasonable assumptions. We study the security in a cloud computing environment in different levels. On one hand, we formalize a framework to study some popular real-life pseudorandom number generators used in almost every cryptographic application. On the other, we propose two efficient applications for cloud computing. The first allows a user to publicly share its high-entropy secret across different servers and to later recover it by interacting with some of these servers using only his password without requiring any authenticated data. The second, allows a client to securely outsource to a server an encrypted database that can be searched and modified later.
429

Description and evaluation of elasticity strategies for business processes in the Cloud / Description et évaluation de stratégies d'élasticité des processus métiers dans le Cloud

Ben Jrad, Aicha 05 July 2019 (has links)
Le principe d'élasticité est d'assurer que juste les ressources nécessaires sont provisionnées pour préserver le bon fonctionnement des services Cloud. La propriété d'élasticité permet d'éviter la sous-utilisation et la sur-utilisation des ressources. La propriété d'élasticité a attiré beaucoup d'attention ces dernières années comme une tâche pivot qui permet d'assurer un bon compromis entre les QdS désirées et les coûts opérationnels des AbSs. Toutefois, le contrôle d'élasticité des AbSs et la définition des stratégies d'élasticité non-triviales sont encore des tâches difficiles à réaliser. Une stratégie d'élasticité est utilisée pour gérer l'élasticité en décidant des trois éléments essentiels: 'quand', 'où' et 'comment' utiliser les mécanismes d'élasticité (par exemple, les opérations de duplication/consolidation de services) qui permettent d'assurer les objectifs de QdS avec une consommation optimisée des ressources. La complexité de définition de stratégies d'élasticité augmente avec les métriques de QdS considérées. La difficulté de cette tâche est de plus accentuée avec l'absence d'un langage unifiée pour exprimer ces stratégies. Notre travail de thèse vise à remédier aux limites des approches existantes pour la gestion des stratégies d'élasticité. Il consiste à développer un langage pour décrire différents types des stratégies d'élasticité d'une façon unifiée. Nous définissons un modèle formel qui cadre l'ensemble de métriques à considérer, définit les opérations d'élasticité à appliquer et spécifie les lois d'émission de requêtes. Ce modèle servira aussi pour appliquer et valider les stratégies spécifiées. Nous travaillons en plus sur l'alignement des contrats de qualités de services (Service Level Agreement) avec les stratégies d'élasticité. / Elasticity is the ability of a system to be adjustable to workload change by allocating and releasing as many resources as needed while ensuring the agreed QoS. It has played a pivotal role in many research works for ensuring QoS. Therefore, Elasticity management is witnessing a lot of attention from IT community as a pivotal issue for finding the right tradeoffs between QoS levels and operational costs by working on developing novel methods and mechanisms. However, controlling business process elasticity and defining non-trivial elasticity strategies are challenging issues. Elasticity strategies are policies that are used to manage elasticity by deciding when, where and how to use elasticity mechanisms (e.g, adding or removing resources). Many strategies can be defined to ensure applications elasticity. The abundance of possible strategies requires their evaluation and validation in order to guarantee their effectiveness before using them in real Cloud environments. Our thesis work aims to overcome the limitations of the existing approaches for elasticity strategies management. It consists in developing a configurable Domain-Specific language to describe different types of elasticity strategies in a unified way. We define a formal model that captures a set of QoS metrics and defines elasticity operations. This model will also be used to define and verify elasticity strategies. We will also work on the alignment of Service Level Agreements with the elasticity strategies.
430

Leistungsoptimierung der persistenten Datenverwaltung in DSP-Architekturen zur Live-Analyse von Sensordaten

Weißbach, Manuel 28 October 2021 (has links)
Aufgrund der in vielen Bereichen stets wachsenden Menge an zu verarbeitenden Daten haben sich Big-Data-Anwendungen in den letzten Jahren zunehmend verbreitet. Twitter gab bereits im Jahr 2011 an, täglich 15 Millionen URLs in Echtzeit zu untersuchen, um die Verbreitung von Spamlinks zu unterbinden [1]. Facebook verarbeitet pro Minute über vier Millionen „Gefällt mir“-Klicks und verwaltet über 300 Petabyte Daten [2]. Über das Businessportal LinkedIn wurden 2011 rund eine Milliarde Nachrichten pro Tag zugestellt, 2015 waren es laut Angaben des Unternehmens bereits 1,1 Billionen täglich versendete Nachrichten [3]. Diesem starken Anstieg liegt ein exponentielles Wachstum zugrunde, das für Big Data typisch ist. Gartner definiert den Begriff „Big Data“ auf Basis seiner spezifischen Eigenschaften, die in englischer Sprache auch als die „drei V´s“ bezeichnet werden: „Volume“, „Variety“ und „Velocity“ [4]. Neben der enormen Menge an zu verarbeitenden Daten („Volume“) und ihrer Vielfalt und Unstrukturiertheit („Variety“), ist demnach auch die Geschwindigkeit („Velocity“), in der die Daten generiert werden, ein wesentliches Merkmal von Big Data [5, 6]. Soll trotz der ständigen und immer schneller werdenden Generierung neuer Daten ein Verarbeitungsrückstau vermieden werden, so folgt daraus auch die Notwendigkeit, die kontinuierlich wachsenden Datenmengen immer schneller zu verarbeiten.

Page generated in 0.0766 seconds