• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 59
  • 1
  • Tagged with
  • 356
  • 192
  • 159
  • 115
  • 99
  • 34
  • 30
  • 29
  • 28
  • 28
  • 28
  • 27
  • 26
  • 26
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Dois pesos, duas medidas : gerenciamento de identidades orientado a desafios adaptativos para contenção de Sybils. / TwoWeights and two measures: using adaptive puzzles in identity management for sybil contention

Mauch, Gustavo Huff January 2010 (has links)
O ataque Sybil consiste na criação indiscriminada de identidades forjadas por um usuário malicioso (atacante). Uma abordagem promissora para mitigar esse ataque consiste em conceder novas identidades mediante a resolução de desafios computacionais. Apesar de suas potencialidades, as soluções baseadas em tal abordagem não distinguem solicitações de usuários corretos das de atacantes, fazendo com que ambos paguem o mesmo preço por identidade solicitada. Por conta disso, essas soluções podem não ser efetivas quando os recursos computacionais dos atacantes são muito superiores aos que os usuários legítimos dispõem. Assumindo desafios de uma determinada dificuldade, atacantes com hardware de maior capacidade conseguiriam resolver um conjunto muito superior de desafios e, com isso, obter um número elevado de identidades. Aumentar uniformemente a dificuldade dos desafios poderia, no outro extremo, tornar proibitivo o ingresso de pares a rede. Para lidar com esse problema, nesta dissertação propi5e-se o use de desafios adaptativos como limitante a disseminação de Sybils. Estima-se um grau de confiança da fonte de onde partem as solicitações de identidade em relação as demais. Quanto maior a frequência de solicitação de identidades, menor o grau de confiança e, consequentemente, maior a complexidade do desafio a ser resolvido pelo(s) usuário(s) associado(s) Aquela fonte. Resultados obtidos por meio de experimentação mostram a capacidade da solução de atribuir desafios mais complexos a potenciais atacantes, penalizando minimamente usuários legítimos. / The Sybil attack consists on the indiscriminate creation of counterfeit identities by a malicious user (attacker). An effective approach to tackle such attack consists of establishing computational puzzles to be solved prior to granting new identities. Despite its potentialities, solutions based on such approach do not distinguish between identity requests from correct users and attackers, and thus require both to afford the same cost per identity requested. Therefore, those approaches may not be effective when the attacker's computational resources are superior than those used by correct users. Assuming any choice of puzzle hardness, attackers that have access to high-performance computing resources will be able to solve puzzles several order of magnitude faster than legitimate users and thus obtain a large amount of identities. On the other way, raising the cost to solve the puzzles could restrict legitimate users too much. To tackle this problem, in this paper we propose the use of adaptive computational puzzles to limit the spread of Sybils. We estimate a trust score of the source of identity requests in regard to the behavior of others. The higher the frequency a source requests identities, the lower its trust score and, consequently, the higher the complexity of the puzzle to be solved by the user(s) associated to that source. Results achieved by means of an experimental evaluation evidence our solution's ability to establish more complex puzzles to potential attackers, while minimally penalizing legitimate users.
92

Metodologia para detecção de incoerências entre regras em filtros de pacotes / Methodology for incoherencies identification among packet filters rules

Favero, Andre Luis January 2007 (has links)
Embora firewall seja um assunto bastante discutido na área de segurança da informação, existem lacunas em termos de verificação de firewalls. Verificações de firewalls têm o intuito de garantir a correta implementação dos mecanismos de filtragem e podem ser realizadas em diferentes níveis: sintaxe das regras; conformidade com a política; e relacionamento entre as regras. Os aspectos referentes a erros de sintaxe das regras são geralmente tratados pela ferramenta de filtragem em uso. O segundo nível, no entanto, depende da existência de uma política formal e documentada, algo não encontrado na maioria das organizações, e de uma metodologia eficaz que, através da entrada da política de segurança e do conjunto de regras de firewall implementado, possa comparálas e apontar as discrepâncias lógicas entre a especificação (política) e a implementação (regras). O último, verificação dos relacionamentos entre regras, não requer qualquer documentação, uma vez que somente o conjunto de regras do firewall é necessário para a identificação de incoerências entre elas.Baseado nessas considerações, este trabalho objetivou o estudo e a definição de uma metodologia para a análise de relacionamentos entre regras, apontando erros e possíveis falhas de configuração. Três metodologias já existentes foram estudadas, analisadas e utilizadas como base inicial para uma nova metodologia que atingisse os requisitos descritos neste trabalho. Para garantir a efetividade da nova metodologia, uma ferramenta protótipo foi implementada e aplicada a três estudos de caso. / Although firewalls are a well discussed issue in the information security field, there are gaps in terms of firewall verification. Firewall verification is aimed at enforce the correct filtering mecanisms implementation and can be executed in three distinct levels: rules syntax, policy compliance and rules relationship. The aspects related to rule syntax errors are usually addressed by the filtering tool in use. However, the second level depends on the existance of a formalized and documented policy, something not usual in most organizations, and on an efficient metodology that, receiving the security policy and the firewall rules set as inputs, could compare them and point logical discrepancies between the specification (policy) and the implementation (rules set). The last level, rules relationship verification, doesn't require any previous documentation, indeed only the firewall rule set is required to conduct a process of rules incoherencies identification. Based on those considerations, this work aimed at studying and defining a methodology for analysis of rules relationships, pointing errors and possible misconfigurations. Three already existent methodologies were studied, analyzed and used as a initial foundation to a new methodology that achieve the requirements described in this work. To assure the effectivity of the new methodology, a prototype tool were implemented and applied to three case studies.
93

Estudo sobre a extração de políticas de firewall e uma proposta de metodologia / A Study about firewall policy extraction and a proposal for a methodology

Horowitz, Eduardo January 2007 (has links)
Com o aumento das ameaças na Internet, firewalls tornaram-se mecanismos de defesa cada vez mais utilizados. No entanto, sua configuração é notadamente complexa, podendo resultar em erros. Vários estudos foram realizados com o intuito de resolver tais problemas, mas a grande maioria deles se concentrou em trabalhar diretamente no nível de configuração, o que possui limitações. O presente trabalho investiga maneiras de extrair políticas em mais alto nível a partir de regras de firewall em baixo nível, o que é mais intuitivo. A fim de extrair as políticas reais a partir de regras de firewall, o problema do descorrelacionamento é estudado e algoritmos anteriormente propostos para resolvê-lo são apresentados e discutidos. É apresentado, também, um tipo de grafo para a melhor visualização e análise de correlacionamento entre regras. Além disso, é pesquisado o agrupamento de regras descorrelacionadas, que tem o objetivo de elevar o nível das mesmas. São apresentados dois algoritmos para realizar o agrupamento, sendo um deles novo. A seguir, é proposta uma nova metodologia de extração de políticas de firewall. A primeira parte desta consiste na utilização de um novo tipo de descorrelacionamento, o descorrelacionamento hierárquico. Este é acompanhado por uma nova maneira de agrupar regras descorrelacionadas hierarquicamente, o agrupamento hierárquico. A segunda parte é uma nova modelagem de regras de firewall que fazem parte de blacklist ou whitelist, separando-as das demais regras na extração de políticas. Algumas maneiras de realizar esta separação também são discutidas. Por fim, são relatadas as conclusões e possibilidades de trabalhos futuros. / As the number of threats in the Internet grows, firewalls have become a very important defense mechanism. However, configuring a firewall is not an easy task and is prone to errors. Several investigations have been made towards solving these issue. However, most of them have focused on working directly at the configuration level and have a number of limitations. This work investigates methods to extract higher level policies from low level firewall rules. Aiming at extracting real policies from firewall rules, we analyse the firewall decorrelation problem and previously proposed algoritmhs to solve it. In addition, a new type of graph is presented aiming at better visualising and analysing rules’ correlation. We also investigate the merging of decorrelated rules, with the goal of defining more abstract rules. Two algorithms are then presented and a new methodology for the extraction of firewall policies is proposed. This methodology is twofold. The first part consists of the use a new type of decorrelation: the hierachical decorrelation, which is introduced along with a new way of hierarchically merging decorrelated rules. The second part is a new model for blacklist or whitelist firewall rules, separating them from the other rules in the policy extraction. We also present alternatives for accomplishing this separation. Finally, we conclpude and point out directions for future work.
94

Técnicas para o projeto de hardware criptográfico tolerante a falhas

Moratelli, Carlos Roberto January 2007 (has links)
Este trabalho tem como foco principal o estudo de um tipo específico de ataque a sistemas criptográficos. A implementação em hardware, de algoritmos criptográficos, apresenta uma série de vulnerabilidades, as quais, não foram previstas no projeto original de tais algoritmos. Os principais alvos destes tipos de ataque são dispositivos portáteis que implementam algoritmos criptográfico em hardware devido as limitações de seus processadores embarcados. Um exemplo deste tipo de dispositivo são os Smart Cards, os quais, são extensamente utilizados nos sistemas GSM de telefonia móvel e estão sendo adotados no ramo bancário. Tais dispositivos podem ser atacados de diferentes maneiras, por exemplo, analisando-se a energia consumida pelo dispositivo, o tempo gasto no processamento ou ainda explorando a suscetibilidade do hardware a ocorrência de falhas transientes. O objetivo de tais ataques é a extração de informações sigilosas armazenadas no cartão como, por exemplo, a chave criptográfica. Ataques por injeção maliciosa de falhas no hardware são comumente chamados de DFA (Differencial Fault Attack) ou simplesmente fault attack. O objetivo deste trabalho foi estudar como ataques por DFA ocorrem em diferentes algoritmos e propor soluções para impedir tais ataques. Os algoritmos criptográficos abordados foram o DES e o AES, por serem amplamente conhecidos e utilizados. São apresentadas diferentes soluções capazes de ajudar a impedir a execução de ataques por DFA. Tais soluções são baseadas em técnicas de tolerância a falhas, as quais, foram incorporadas à implementações em hardware dos algoritmos estudados. As soluções apresentadas são capazes de lidar com múltiplas falhas simultaneamente e, em muitos casos a ocorrência de falhas torna-se transparente ao usuário ou atacante. Isso confere um novo nível de segurança, na qual, o atacante é incapaz de ter certeza a respeito da eficácio de seu método de injeção de falhas. A validação foi realizada através de simulações de injeção de falhas simples e múltiplas. Os resultados mostram uma boa eficácia dos mecanismos propostos, desta forma, elevando o nível de segurança nos sistemas protegidos. Além disso, foram mantidos os compromissos com área e desempenho. / This work focuses on the study of a particular kind of attack against cryptographic systems. The hardware implementation of cryptographic algorithms present a number of vulnerabilities not taken into account in the original design of the algorithms. The main targets of such attacks are portable devices which include cryptographic hardware due to limitations in their embedded processors, like the Smart Cards, which are already largely used in GSM mobile phones and are beginning to spread in banking applications. These devices can be attacked in several ways, e.g., by analysing the power consummed by the device, the time it takes to perform an operation, or even by exploring the susceptibility of the hardware to the occurrence of transient faults. These attacks aim to extract sensitive information stored in the device, such as a cryptographic key. Attacks based on the malicious injection of hardware faults are commonly called Differential Fault Attacks (DFA), or simply fault attacks. The goal of the present work was to study how fault attacks are executed against different algorithms, and to propose solutions to avoid such attacks. The algorithms selected for this study were the DES and the AES, both well known and largely deployed. Different solutions to help avoid fault attacks are presented. The solutions are based on fault tolerance techniques, and were included in hardware implementations of the selected algorithms.The proposed solutions are capable to handle multiple simultaneous faults, and, in many cases, the faults are detected and corrected in a way that is transparent for the user and the attacker. This provides a new level of security, where the attacker is unable to verify the efficiency of the fault injection procedure. Validation was performed through single and multiple fault injection simulations. The results showed the efficiency of the proposed mechanisms, thus providing more security to the protected systems. A performance and area compromise was kept as well.
95

Uma metodologia para computação com DNA / A DNA computing methodology

Isaia Filho, Eduardo January 2004 (has links)
A computação com DNA é um campo da Bioinformática que, através da manipulação de seqüências de DNA, busca a solução de problemas. Em 1994, o matemático Leonard Adleman, utilizando operações biológicas e manipulação de seqüências de DNA, solucionou uma instância de um problema intratável pela computação convencional, estabelecendo assim, o início da computação com DNA. Desde então, uma série de problemas combinatoriais vem sendo solucionada através deste modelo de programação. Este trabalho analisa a computação com DNA, com o objetivo de traçar algumas linhas básicas para quem deseja programar nesse ambiente. Para isso, são apresentadas algumas vantagens e desvantagens da computação com DNA e, também, alguns de seus métodos de programação encontrados na literatura. Dentre os métodos estudados, o método de filtragem parece ser o mais promissor e, por isso, uma metodologia de programação, através deste método, é estabelecida. Para ilustrar o método de Filtragem Seqüencial, são mostrados alguns exemplos de problemas solucionados a partir deste método. / DNA computing is a field of Bioinformatics that, through the manipulation of DNA sequences, looks for the solution of problems. In 1994 the mathematician Leonard Adleman, using biological operations and DNA sequences manipulation, solved an instance of a problem considered as intractable by the conventional computation, thus establishing the beginning of the DNA computing. Since then, a series of combinatorial problems were solved through this model of programming. This work studies the DNA computing, aiming to present some basic guide lines for those people interested in this field. Advantages and disadvantages of the DNA computing are contrasted and some methods of programming found in literature are presented. Amongst the studied methods, the filtering method appears to be the most promising and for this reason it was chosen to establish a programming methodology. To illustrate the sequential filtering method, some examples of problems solved by this method are shown.
96

Uma proposta de infraestrutura com segurança para PACS em nuvem através de identidade federada

Souza, Ricardo Ferraro de January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:33:20Z (GMT). No. of bitstreams: 1 323384.pdf: 3708384 bytes, checksum: 789006398eb34e6de7b6dc9698758eeb (MD5) Previous issue date: 2013 / Clínicas e hospitais vêm adquirindo cada vez mais recursos tecnológicos que auxiliam em um diagnóstico mais rápido e preciso, a fim de torná-lo mais dinâmico e eficaz. Isso vem fazendo com que entidades de saúde busquem equipamentos mais modernos e com recursos tecnológicos avançados. Os exames chegam aos médicos com muitas informações processadas em diferentes softwares e hardwares. Com o elevado número de informações contidas no exame, aumenta-se o tamanho e a quantidade de imagens presentes no exame do paciente. Com o passar do tempo, o volume de imagens cresce exponencialmente, saturando a capacidade de retenção de informações contidas nos dispositivos de armazenamento. A aquisição de novos hardwares para suportar tamanho acúmulo de informações tem-se mostrado um problema grave nestas instituições. Os sistemas PACS (Picture Archive and Communications System) podem adquirir, transmitir, armazenar e exibir informações de imagens médicas. O dcm4chee é um projeto de código aberto muito usado por provedores de sistemas de saúde, projetos de pesquisa e aplicações comerciais que fornece um conjunto de aplicações e bibliotecas usadas para implementar sistemas PACS. Normalmente, os sistemas PACS desenvolvidos são executados localmente em cada uma das instituições, nos seus servidores locais. Os médicos devem se cadastrar localmente em cada sistema PACS de cada uma das instituições de saúde nas quais exerçam sua profissão, para poder ter acesso às imagens médicas. Este trabalho propõe a implantação de sistemas PACS em ambientes de nuvem usando identidades federadas. Ambientes de nuvem auxiliam na eficiência do armazenamento de imagens médicas, possibilitando o acesso ao exame/laudo do paciente a partir de qualquer localidade, sendo independente a plataforma utilizada para o acesso. O acesso aos exames na nuvem é garantido e seguro através do conceito de federação que garante a confiança e segurança entre as partes. Foi desenvolvida a integração do sistema Shibboleth, que provê identidades federadas, com o sistema dcm4chee. Esta integração demonstra a utilização de PACS em nuvem através de identidades federadas.<br> / Abstract : Clinics and hospitals are acquiring increasingly technological resources that improve the diagnosis, turning it quicker, more accurate and effective. This way, the exams come to doctors with information that is processed on different software and hardware across the datacenter. With the large number of information required to make an exam, increases the size and number of images present on the examination file of the patient. The volume of images grows exponentially out of the storage devices. Then, the acquisition of new hardware to support increase on information has been a serious problem in these institutions. The PACS (Picture Archive and Communications System) may acquire, transmit, store and display information from medical images. The dcm4chee is an open source project used by providers of health systems, research projects and commercial applications that provides a set of applications and libraries used to implement PACS. Normally, developed systems PACS run locally in each of the institutions on local servers. Doctors must register locally on each system PACS of each health institutions in which they exercise their profession in order to have access to medical images. This paper proposes the implementation of PACS systems on cloud environments using federated identities. Cloud environments assist the efficient storage of medical images, enabling access to the report of the patient from any location, anywhere at any time. It was extended the dcm4chee application to integrate with the Shibboleth System, which provides federated identity. This integration demonstrates the use of cloud based PACS through the federated identity. This way the is secured and safe through the concept of federation that ensures trust and confidence between the involved parties.
97

Suporte a rollback em sistemas de gerenciamento de mudanças em TI. / Roolback support in IT change management systems

Machado, Guilherme Sperb January 2008 (has links)
As atuais pesquisas em gerência de mudança em um ambiente de TI (Tecnologia de Informação) têm explorado diferentes aspectos desta nova disciplina, porém normalmente assumindo que as mudanças expressas em documentos de Requisição de Mudanças (RFC – Request for Change) são sempre executadas com sucesso sobre uma determinada infraestrutura de TI. Esse cenário, muitas vezes, pode não refletir a realidade em sistemas de TI, pois falhas durante a execução de mudanças podem ocorrer e não devem ser simplesmente ignoradas. Para abordar esta questão, esta dissertação propõe uma solução onde atividades em um plano de mudança podem ser agrupadas, formando grupos atômicos. Esses grupos são atômicos no sentido de que quando uma atividade falha, todas as outras atividades já executadas do mesmo grupo precisam retroceder para o último estado consistente. Automatizar o processo de rollback em mudanças pode ser especialmente conveniente no sentido de que não seja necessário um operador humano desfazer manualmente as atividades que falharam de um determinado grupo atômico. Para avaliar a solução proposta e a sua viabilidade técnica foi implementado um protótipo que, usando elementos da linguagem BPEL (Business Process Execution Language), torna-se possível definir como sistemas de gerenciamento de mudanças em TI devem se comportar para capturar e identificar falhas. Os resultados mostram que a solução proposta não somente gera planos completos e corretos com base em marcações de atomicidade, mas também que a geração dos planos de rollback interfere minimamente no processo de agendamento de mudanças. / The current research on IT change management has been investigating several aspects of this new discipline, but they are usually carried out assuming that changes expressed in Requests for Change (RFC) documents will be successfully executed over the managed IT infrastructure. This assumption, however, is not realistic in actual IT systems because failures during the execution of changes do happen and cannot be ignored. In order to address this issue, we propose a solution where tightly-related change activities are grouped together forming atomic groups of activities. These groups are atomic in the sense that if one activity fails, all other already executed activities of the same group must rollback to move the system backwards to the previous consistent state. The automation of change rollback is especially convenient because it relieves the IT human operator of manually undoing the activities of a change group that has failed. To prove concept and technical feasibility of our proposed solution, we have implemented a prototype system that, using elements of the Business Process Execution Language (BPEL), is able to control how atomic groups of activities must be handled in IT change management systems. Results showed that the rollback solution not only generates complete and correct plans given a set of atomicity marks, but also that the rollback plan generation minimally interferes in the change scheduling process.
98

Efficient online embedding of secure virtual nteworks / Mapeamento eficiente e on-line de redes virtuais seguras

Bays, Leonardo Richter January 2013 (has links)
A virtualização de redes tem se tornado cada vez mais proeminente nos últimos anos. Tal técnica permite a criação de infraestruturas de rede que se adaptam a necessidades específicas de aplicações de rede distintas, além de dar suporte à instanciação de ambientes favoráveis para o desenvolvimento e avaliação de novas arquiteturas e protocolos. Apesar de esforços recentes (motivados principalmente pela busca de mecanismos para avaliar propostas relacionadas à Internet do Futuro) terem contribuído substancialmente para a materialização desse conceito, nenhum preocupou-se em conciliar alocação eficiente de recursos e satisfação de requisitos de segurança (e.g., confidencialidade). É importante ressaltar que, no contexto de redes virtuais, a proteção de infraestruturas de rede compartilhadas constitui condição fundamental para seu uso em larga escala. É de grande importância que o impacto negativo causado pelo aprovisionamento de segurança seja considerado no processo de mapeamento de redes virtuais, de forma a permitir o uso integral dos recursos físicos sem subestimar requisitos de capacidade. Portanto, nesta dissertação, são propostos um modelo ótimo e um al- goritmo heurístico para realizar o mapeamento de redes virtuais em substratos físicos que têm por objetivo otimizar a utilização de recursos físicos garantindo a satisfação de requisitos de segurança. Ambas as abordagens possuem uma modelagem precisa de custos adicionais associados a mecanismos de segurança usados para proteger re- des virtuais, e são capazes de atender requisições de redes virtuais de forma online. Além disso, são apresentados os resultados de um extensivo processo de avaliação realizado, incluindo uma comparação detalhada entre o modelo ótimo e o algoritmo heurístico. Os experimentos revelam que o modelo baseado em Programação Linear Inteira é capaz de alocar redes virtuais de forma ótima em substratos físicos com até cem roteadores, enquanto que o algoritmo heurístico é capaz de adaptar-se a infraestruturas maiores, provendo mapeamentos sub-ótimos em um curto espaço de tempo. / Network virtualization has become increasingly prominent in recent years. It enables the creation of network infrastructures that are specifically tailored to the needs of distinct network applications and supports the instantiation of favorable en- vironments for the development and evaluation of new architectures and protocols. Although recent efforts (motivated mainly by the search for mechanisms to eval- uate Future Internet proposals) have contributed substantially to materialize this concept, none of them has attempted to combine efficient resource mapping with ful- fillment of security requirements (e.g., confidentiality). It is important to note that, in the context of virtual networks, the protection of shared network infrastructures constitutes a fundamental condition to enable its use in large scale. Considering the negative impact of security provisions in the virtual network embedding process is of paramount importance in order to fully utilize physical re- sources without underestimating capacity requirements. Therefore, in this thesis we propose both an optimal model and a heuristic algorithm for embedding virtual networks on physical substrates that aim to optimize physical resource usage while meeting security requirements. Both approaches feature precise modeling of over- head costs of security mechanisms used to protect virtual networks, and are able to handle virtual network requests in an online manner. In addition, we present the results of an extensive evaluation we carried out, including a detailed comparison of both the optimal model and the heuristic algorithm. Our experiments show that the Integer Linear Programming (ILP) model is capable of optimally embedding virtual networks on physical infrastructures with up to a hundred routers, while the heuristic algorithm is capable of scaling to larger infrastructures, providing timely, sub-optimal mappings.
99

Análise de desempenho da camada de segurança de aplicações DPWS / Performance analysis of security layer of DPWS application

Marcelo, Alisson January 2013 (has links)
A disseminação dos dispositivos embarcados por diferentes domínios de aplicação torna necessário que a interação entre eles dispense ao máximo a intervenção humana. Diversos protocolos e tecnologias foram criados para a atingir este objetivo. Uma destas tecnologias é o Device Profile for Web Services (DPWS), que tem tido relativa aceitação tanto em ambientes industriais quanto residenciais. A expressividade e flexibilidade do DPWS tem permitido integrar dispositivos com recursos reduzidos diretamente com os sistema de gerenciamento das organizações. Com a diversidade dos dispositivos disponíveis e o crescimento das aplicações de redes sem fio, torna-se importante que os dados possam ser protegidos para manter a sua integridade e sigilo. Em aplicações como controle de processos, aquisição de dados estratégicos, medição de consumo de energia, entre outras, os prejuízos causados por interferências indevidas justificam a aplicação de estratégias de proteção dos dados, mesmo com o custo que elas podem gerar. Neste trabalho, são estudados os impactos da união da flexibilidade e expressividade do DPWS com a criptografia e compressão, fornecendo subsídios para que seja avaliado o custo de cada combinação destas soluções para definir quais níveis de proteção e otimização são mais adequados a cada cenário em que o DPWS possa ser aplicado. Ao fim do estudo realizado, demonstra-se o custo da criptografia na proteção dos dados, avaliando-se diferentes suítes de cifragem nas quais os algoritmos RC4 e o AES se mostram como opções viáveis em ambientes embarcados apesar do custo inerente ao processo de criptografia. Outro ponto importante é a comprovação estatística de que a compressão dos dados propicia um ganho de desempenho com redução de banda ocupada capaz de compensar o custo computacional da sua aplicação. Estas análises comprovam que o uso do tráfego seguro não pode ser aplicado a todos os casos devido às suas exigências de recursos. Em certas aplicações é possível achar um ponto intermediário onde se garanta apenas a autenticidade dos dados, deixando a criptografia completa para os casos mais críticos. Por fim, a conclusão à qual se chega é que o DPWS pode ser um substituto para as opções atuais de gerenciamento, sobre as quais tem como principal vantagem a capacidade de crescer em representatividade e complexidade de acordo com os recursos computacionais disponíveis. / The growth of use of embedded devices in several application domains makes necessary the reduction of human interaction for the devices control and has motivated the development of new technologies to achieve this goal. The Device Profile for Web Services (DPWS) is one of such technologies. It has been adopted on both industrial and home applications due to its flexibility, scalability and interoperability that allows the direct integration between deeply embedded devices and enterprise management systems. The remote device management requires a high level of data protection that could guarantee the integrity and confidentiality needed by industrial applications. In applications such as process control, strategic data acquisition, power consumption measurement, the possible harm caused by undue interference justify the use of data protection strategies despite the increasing of cost added by security technologies. This paper presents the results of a statistically proven study on the security layer applications of DPWS embedded devices using compressed data. The main objective of this work is to provide the background required to DPWS secure devices design, estimating the impact of many combinations of compression and security algorithms such as gzip, RC4 and AES. It proves that these technologies fit in embedded devices applications when data security is a strong requirement. Additionally, it is shown that performance degradation caused by data compression is compensated by the reduction of the amount of data to be encrypted. Best results were obtained when the compressed data fit in one Ethernet packet. Finally, is concluded that DPWS can replace the current alternatives to process management, having the advantages of scalability direct connection between deeply embedded devices and enterprise management systems.
100

Segurança em serviços de banco de dados em nuvem

Grezele, Fábio January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:43:04Z (GMT). No. of bitstreams: 1 323393.pdf: 898568 bytes, checksum: 82a66fa50c2585ef42883396a7b89de1 (MD5) Previous issue date: 2013 / Computação em nuvem surgiu como meio para economia de recursos através do compartilhamento de estruturas em sistemas distribuídos. Dentre os diversos modelos de entrega de serviços em nuvem estão os bancos de dados. No entanto, em ambientes corporativos, a segurança das aplicações com bancos de dados em nuvem, torna-se uma preocupação. Desde 1997, trabalhos de pesquisa vêm sendo desenvolvidos com o objetivo de minimizar alguns dos diversos problemas de segurança apontados, principalmente os relativos aos requisitos de confidencialidade. Esta dissertação focaliza o problema de segurança que pode ser encontrado, quando se celebram acordos de níveis de serviço (SLA) e contratos de serviço para bancos de dados em nuvem. No sentido de averiguar a segurança e tratar riscos, é proposto a utilização de um framework conceitual construído com um conjunto de controles internos para orientar clientes e provedores no estabelecimento de níveis de segurança. Com a utilização deste framework, controles internos foram implantados em ambientes de laboratório para nuvens públicas e privadas. Estudos de caso e análise de vulnerabilidades foram realizados para verificação da segurança, permitindo obter importantes resultados, tais como: viabilizar a escolha de provedores de serviços que possuem os controle desejados; criar métricas para o monitoramento de serviços; adequar e utilizar o PCMONS (Private Cloud MONitoring System) para realizar o monitoramento; integrar controles aos contratos de serviços e fiscalizar acordos de níveis de serviços.<br> / Abstract : Cloud computing enables resource savings through IT infrastructure sharing in distributed systems. Databases are one of cloud service delivery models. However, application security in cloud databases is a concern in enterprise environments. Since 1997, scientific researches have been developed in or- der to minimize some of these security problems, especially those relating to confidentiality. This master thesis focuses on the security problem, which can be found when entering into service level agreements (SLA) and service contracts. In order to investigate the security levels and risk treatment, we have proposed the use of a conceptual framework built with a set of internal controls to guide clients and providers for establishing acceptable security levels. By using this framework, internal controls were implemented in laboratory environment for public and private clouds. Case studies and vulnerabilities analysis were executed in order to investigate the security assurance. Important results were achieved, such as: to guide the choice of service providers holding the desired controls; create metrics for monitoring services; adapt and use of PCMONS (Private Cloud MONitoring System) monitoring tool; include controls into service contracts and manage service level agreements.

Page generated in 0.0582 seconds