• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 7
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 25
  • 25
  • 17
  • 12
  • 11
  • 10
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

GERAU : um mecanismo de gerenciamento de segurança autonômico baseado em detecção de novidades e mudança de conceito / GERAU: An Autonomic Security Management Mechanism based on Novelty Detection and Concept Drift (Inglês)

Lopes, Gesiel Rios 19 December 2011 (has links)
Made available in DSpace on 2019-03-29T23:28:05Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-12-19 / The growth in the number of elements and services in current computer networks based on the integration of several technologies, in order to provide connectivity and services every time and everywhere, have rendered the computing infrastructure complex and susceptible to malicious activities. In this sense, the use of autonomic computing principles arises as an alternative to face these challenges, in special to deal with the development of security mechanisms capable of inferring malicious activities with the purpose of self-protecting the infrastructure against attacks. This work models, implements and evaluates an autonomic element, which is based on the concepts of novelty detection and concept drift. The element is able to infer new malicious activities that may compromise the proper functioning of the network. Experimental results, based on real samples of network traffic, indicate that the autonomic element in fact is very useful. Keywords: Autonomic network, autonomic element, novelty detection, concept drift. / O crescimento do número de elementos e serviços nas atuais redes de computadores baseado na integração de diversas tecnologias, a fim de proporcionar conectividade e serviços a todo tempo e em todo lugar, vêm tornando a infraestrutura computacional complexa e suscetível a diversas atividades maliciosas. Nesse sentido, a utilização dos princípios da computação autonômica surge como uma alternativa para enfrentar estes desafios, em especial, para lidar com o desenvolvimento de mecanismos de segurança capazes de inferir atividades maliciosas, com o objetivo de autoproteger a infraestrutura contra ataques. Este trabalho modela, implementa e avalia um elemento autonômico baseado no conceito de detecção de novidades e mudança de conceito, o qual é capaz de inferir novas atividades maliciosas que podem comprometer o bom funcionamento da rede. Os resultados experimentais, obtidos com base em amostras reais de tráfego de rede, indicam que o elemento autonômico proposto é bastante promissor. Palavras chaves: Redes Autonômicas, elemento autonômico, detecção de novidades, mudança de conceito.
2

Network security metrics for the Internet of things / Métricas de Segurança de Rede para a Internet das Coisas (Português / inglês)

Ramos, Alex Lacerda 26 November 2018 (has links)
Made available in DSpace on 2019-03-30T00:02:10Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-11-26 / Recent advances in networking technologies, such as the IPv6 over Low-Power Wireless Personal Area Networks (6LoWPAN) standard, have allowed to interconnect wireless sensor networks (WSNs) to the Internet, thus forming the Internet of Things (IoT). Despite the availability of different message security mechanisms, sensor networks are still vulnerable to several types of attack. To identify such attacks, an Intrusion Detection System (IDS) can be deployed. However, IDSs can generate several false positives and false negatives. Moreover, the alerts raised by IDSs provide no information regarding the impact an attack has on the security of a sensor network. As a consequence, it becomes difficult for WSN administrators and users to take proper responsive actions when attacks occur. To address these issues, this thesis proposes three security metrics. The first metric, called Trust Probability, quantifies by how much an IDS output could be trusted (to be correct). Such metric can help administrators decide which alerts deserve careful attention or which alerts might be safely ignored. Since this type of metric provides a measure of IDS effectiveness, it can also be used to compare different IDSs as well as to fine-tune a given IDS. The second metric, named Damage Level, quantifies the severity of an attack. This metric, when combined with the Trust Probability metric, enables the administrator to correctly prioritize and respond to alerts by evaluating them in terms of accuracy and attack impact. Finally, the third metric, namely Data Security Level, quantifies the degree to which sensor data can be trusted when the sensor is under attack. The security situational awareness provided by this metric helps WSN users make better decisions about the use of the gathered sensor data. Experimental results show that the proposed metrics can accurately quantify security level with low performance overhead and power consumption. Keywords: Network Security Metrics, Quantitative Security Analysis, Security Situational Awareness, Internet of Things, Wireless Sensor Networks. / Recentes avanços nas tecnologias de rede, tais como o padrão IPv6 over Low-Power Wireless Personal Area Networks (6LoWPAN), permitiram a interconexão de redes de sensores sem fio (RSSF) à Internet, formando assim a Internet das Coisas (Internet of Things -- IoT). Apesar da disponibilidade de diferentes mecanismos de segurança de mensagens, as redes de sensores ainda são vulneráveis a vários tipos de ataques. Para identificar esses ataques, um Sistema de Detecção de Intrusão (Intrusion Detection System -- IDS) pode ser implantado. No entanto, os IDSs podem gerar vários falsos positivos e falsos negativos. Além disso, os alertas gerados pelos IDSs não fornecem nenhuma informação sobre o impacto de um ataque sobre a segurança de uma RSSF. Consequentemente, torna-se difícil para os administradores e usuários da rede tomarem as devidas ações responsivas quando ataques ocorrerem. Para tratar estas questões, esta tese propõe três métricas de segurança. A primeira delas, chamada Trust Probability, quantifica o quão confiável (correto) é um output de um IDS. Essa métrica pode ajudar os administradores a decidir quais alertas merecem mais atenção ou quais podem ser ignorados com segurança. Já que essa métrica fornece uma medida da efetividade de um IDS, ela também pode ser usada para comparar diferentes IDSs, bem como para otimizar um dado IDS. A segunda métrica, denominada Damage Level, quantifica a gravidade de um ataque. Esta métrica, quando combinada com a Trust Probability, permite ao administrador priorizar e responder corretamente a alertas, avaliando-os em termos de precisão e impacto de ataque. Por fim, a terceira métrica, chamada de Data Security Level, quantifica quão confiáveis os dados dos sensores são quando a rede está sob ataque. Conhecer a informação fornecida por esta métrica ajuda os usuários a tomar melhores decisões sobre o uso dos dados coletados pelos sensores. Os resultados experimentais mostram que as métricas propostas podem quantificar com precisão o nível de segurança da rede, com baixo consumo de energia e sobrecarga de desempenho. Palavras-chave:Métricas de Segurança de Rede, Análise Quantitativa de Segurança, Consciência Situacional de Segurança, Internet das Coisas, Redes de Sensores sem Fio.
3

Improving cloud based encrypted databases. / Aprimoramento de banco de dados cifrados na nuvem.

Cominetti, Eduardo Lopes 18 March 2019 (has links)
Databases are a cornerstone for the operation of many services, such as banking, web stores and even health care. The cost of maintaining such a large collection of data on-premise is high, and the cloud can be used to share computational resources and mitigate this problem. Unfortunately, a great amount of data may be private or confidential, thus requiring to be protected from agents. Moreover, this data needs to be manipulated to provide useful information to its owner. Hence, encrypted databases that allow the manipulation of data without compromising its privacy have surfaced in the recent years. Albeit promising, the solutions available in the literature can still be improved in terms of eciency, flexibility and even security. In this work, we propose modifications to CryptDB, a state-of-the-art encrypted cloud database, aiming to enhance its eciency, flexibility and security; this is accomplished by improving or changing its underlying cryptographic primitives. The eciency of CryptDB was improved by substituting a new homomorphic algorithm proposed by us for the Paillier cryptosystem. The flexibility of the cloud database was augmented by modifying how a text is encrypted using the Song, Wagner and Perrig algorithm, thus enabling wildcard searches. Finally, the security of the system was enhanced by substituting the Song, Wagner and Perrig algorithm for the AES in CMC mode at the deterministic layer. / Bancos de Dados são essenciais para a operação de diversos serviços, como bancos, lojas onlines e até mesmo assistência médica. O custo de manutenção local dessa grande coleção de dados é alto, e a nuvem pode ser utilizada para compartilhar recursos computacionais e atenuar esse problema. Infelizmente, grande parte desses dados pode ser confidencial ou privada, necessitando, portanto, de proteção contra terceiros. Além disso, esses dados precisam ser manipulados para que seu dono consiga extrair informações relevantes. Nesse cenário, bancos de dados cifrados na nuvem que permitam a manipulação de seus dados foram desenvolvidos nos últimos anos. Embora promissoras, as soluções propostas até então apresentam oportunidades de melhorias em termos de eficiência, flexibilidade e também segurança. Neste trabalho, modificações são propostas para o CryptDB, uma solução de banco de dados cifrado na nuvem que faz parte do estado da arte, visando melhorar sua eficiência, flexibilidade e segurança, através do aprimoramento ou troca das primitivas criptográficas utilizadas. A eficiência foi melhorada através da substituição do algoritmo de Paillier presente no CryptDB por um novo algoritmo homomórfico proposto neste trabalho. A flexibilidade foi aprimorada através de uma modificação prévia no texto antes de sua cifração com o algoritmo de Song, Wagner e Perrig, o que permite a busca por wildcards no banco de dados. Por fim, a segurança foi incrementada através da substituição do algoritmo AES em modo CMC na camada determinística do banco de dados pelo algoritmo de Song, Wagner e Perrig.
4

Complexidade, acoplamento e criticalidade (C²A) como indicadores de risco em projetos de sistemas. / Complexity, coupling and criticality (C²A) as risk indicators in system\'s design.

Lemes, Marcelo José Ruv 29 November 2011 (has links)
A crescente complexidade dos sistemas embarcados de uso aeronáutico tem sido objeto de preocupação por parte de especialistas no que se refere à segurança. A complexidade implica não somente em novos tipos de perigos como também os tornam mais difíceis de serem identificados. O cenário exige maior atenção quando um sistema complexo apresenta também alto acoplamento entre seus elementos. A maioria dos métodos utilizados na análise de segurança foi concebida para sistemas mecânicos e adaptados para sistemas eletrônicos. De maneira geral, a evolução no campo das tecnologias não tem sido refletida nas abordagens adotadas para a segurança de sistemas. A Teoria de Acidentes Normais proposta por Charles Perrow estabelece uma importante ligação entre complexidade, acoplamento e acidentes. Entretanto, entende-se que somente estes dois parâmetros não são suficientes para se ter um indicador capaz de capturar potenciais riscos relativos à segurança de sistemas. É necessário identificar também o quão critica é contribuição de cada elemento do sistema para a segurança. Complexidade, acoplamento e criticalidade formam a base do índice C²A desenvolvido nesta Tese como um indicador de risco para a segurança de sistemas. A aplicação do índice C²A é exercitada em um estudo de caso que utiliza um sistema de controle ambiental de uma aeronave de transporte regional. Adicionalmente são realizadas considerações sobre como implantar a utilização do índice C²A no processo de desenvolvimento de sistemas proposto pela norma ARP4754A. / The increasing complexity of on board systems for aeronautical applications has been a concern for experts in regard to safety. The complexity involves not only new kinds of hazards as well as makes them more difficult to identify. The scenario requires more attention when a complex system also presents high coupled elements. Most methods used in the safety analysis were designed for mechanical systems and adapted for electronic systems. In general, the advances in the technology field have not been reflected in the system safety methods. The Normal Accident Theory created by Charles Perrow proposed an important link between complexity, coupling and accidents. However, only these two parameters are not sufficient to have a metric of the potential risks relating to safety. It is also necessary to identify how critical is the contribution of each element of the system to the safety. Complexity, coupling and criticality are the basis of the C²A index developed in this thesis as a risk indicator related to safety aspects. The application of the C²A index is exercised in a case study using an environmental control system of a regional transport aircraft. Additionally considerations are made about how to deploy the use of the index C²A in the systems development process as proposed by the standard ARP4754A.
5

ELICERE: o processo de elicitação de metas de dependabilidade para sistemas computacionais críticos: estudo de caso aplicado a área espacial. / ELICERE: a process for defining dependability goals for critical computer system: case study apply to space area.

Lahoz, Carlos Henrique Netto 06 August 2009 (has links)
Os avanços tecnológicos na eletrônica e no software têm sido rapidamente assimilados pelos sistemas computacionais demandando novas abordagens para a engenharia de sistemas e de software prover produtos confiáveis, sob critérios bem estabelecidos de qualidade. Dentro deste contexto, o processo de elicitação de requisitos tem um papel estratégico no desenvolvimento de projetos. Problemas na atividade de elicitação contribuem para produzir requisitos pobres, inadequados ou mesmo inexistentes que podem causar a perda de uma missão, desastres materiais e financeiros, a extinção prematura de um projeto ou promover uma crise organizacional. Esta tese apresenta o processo de elicitação de metas de dependabilidade, chamado ELICERE, aplicado em sistemas computacionais críticos, que se fundamenta nas técnicas de engenharia de requisitos orientada a metas, chamada i*, e nas técnicas de engenharia de segurança HAZOP e FMEA, que identificam e analisam perigos operacionais de um sistema. Depois de criar os modelos do sistema usando os diagramas i*, eles são analisados através de palavras-guia baseadas no HAZOP e FMEA, de onde as metas relacionadas à dependabilidade são extraídas. Através desta abordagem interdisciplinar, ELICERE promove a identificação de metas, que atendam aos requisitos de qualidade, relativos à dependabilidade, para sistemas computacionais críticos ainda na fase de concepção de um projeto. A abordagem do estudo de caso é baseada em um estudo qualitativo e descritivo de um caso único, usando o projeto de um foguete lançador hipotético, chamado V-ALFA. A aplicação do ELICERE neste projeto espacial teve a intenção de aperfeiçoar as atividades de engenharia de requisitos do sistema computacional do Veículo Lançador de Satélites Brasileiro, e também como forma de explicar como o processo ELICERE funciona. / The technological advances in electronic and software have been rapidly assimilated by computer systems, demanding new approaches for software and system engineering to provide reliable products, under well-known quality criteria. In this context, requirements engineering has a strategic role in project development. Problems in the elicitation activity contribute to producing poor, inadequate or even non-existent requirements that can cause mission losses, material or financial disasters, premature project termination or promote an organizational crisis. This thesis introduces the dependability goals elicitation process, called ELICERE, applied to critical computer systems based on a goal-oriented requirement engineering technique, called i*, and the safety engineering techniques HAZOP and FMEA, which will be applied for the identification and analysis of operational risks of a system. After creating the system models using i* diagrams, they are analyzed through guidewords based on HAZOP and FMEA, from which goals related to dependability are extracted. Through this interdisciplinary approach, ELICERE promotes the identification of goals that meet the quality requirements, related to dependability for critical systems, still in the project conception phase. The case study approach is based on a qualitative and descriptive single-case, using a computer system project of a hypothetical launching rocket, called V-ALFA. The ELICERE application in this space project intends to improve the requirement engineering activities in the computer system of the Brazilian Satellite Launch Vehicle, and also a way to explain how the ELICERE process works.
6

Securetrade: a secure protocol based on transferable E-cash for exchanging cards in P2P trading card games. / Um protocolo de segurança baseado em moeda eletrônica para troca de cartas em jogos de cartas colecionáveisP2P.

Silva, Marcos Vinicius Maciel da 02 August 2016 (has links)
Trading card games (TCG) are distinct from traditional card games mainly because, in the former, the cards are not shared among players in a match. Instead, users play with the cards they own (e.g., that have been purchased or traded with other players), which correspond to a subset of all cards produced by the game provider. Even though most computer-based TCGs rely on a trusted third-party (TTP) for preventing cheating during trades, allowing them to securely do so in the absence of such entity, as in a Peer-to-Peer (P2P) scenario, remains a challenging task. Potential solutions for this challenge can be based on e-cash protocols, but not without adaptations, as those scenarios display different requirements: for example, TCGs should allow users to play with the cards under their possession, not only to be able to pass those cards over as with digital coins. In this work, we present and discuss the security requirements for allowing cards to be traded in TCGs and how they relate to e-cash. We then propose a concrete and efficient TTP-free protocol for trading cards in a privacy-preserving manner. The construction is based on a secure transferable e-cash protocol and on a P-signature scheme converted to the asymmetric pairing setting. According to our experimental results, the proposed protocol is quite efficient for use in practice: an entire deck is stored in less than 5 MB, while it takes a few seconds to be prepared for a match; the verification of the cards, on its turn, takes less time than an usual match, and can be performed in background while the game is played. / Jogos de cartas colecionáveis (TCG, do inglês Trading Card Game) diferem de jogos de cartas tradicionais principalmente porque as cartas não são compartilhadas em uma partida. Especificamente, os jogadores usam suas próprias cartas (obtidas, e.g., por meio de compra ou troca com outros jogadores), as quais correspondem a um subconjunto de todas as cartas criadas pelo produtor do jogo. Embora a maioria dos TCGs digitais atuais dependam de um terceiro confiável (TTP, do ingês Trusted Third-Party) para prevenir trapaças durante trocas, permitir que os jogadores troquem cartas de maneira segura sem tal entidade, como é o caso em um cenário peer-to-peer (P2P), ainda é uma tarefa desafiadora. Possíveis soluções para esse desafio podem ser baseadas em protocolos de moeda eletrônica, mas não sem adaptações decorrentes dos requisitos diferentes de cada cenário: por exemplo, TCGs devem permitir que usuários joguem com as suas cartas, não apenas que passem-nas adiante como ocorre com moedas eletrônicas. Neste trabalho, são apresentados e discutidos os principais requisitos de segurança para trocas de cartas TCGs e como eles se relacionam com moedas eletrônicas. Também é proposto um protocolo eficiente que permite trocas de cartas sem a necessidade de um TTP e com suporte a privacidade. A construção usa como base um protocolo seguro de moeda eletrônica e um protocolo de assinatura-P adaptado para utilizar emparelhamentos assimétricos, mais seguros que os simétricos. De acordo com os experimentos realizados, o protocolo proposto é bastante eficiente para uso na prática: são necessários apenas 5 MB para armazenar um baralho inteiro, enquanto a preparação do mesmo leva apenas alguns segundos; a verificação das cartas, por sua vez, é mais rápida que a duração comum de uma partida e pode ser executada em plano de fundo, durante a própria partida.
7

Nonparametric change point detection algorithms and applications in data networks.

Hellinton Hatsuo Takada 00 December 2004 (has links)
Nonparametric change point detection algorithms have been applied in intrusion detection problems and network management. Specifically, applications considering denial of service detection and traffic control are focused in this work. The algorithms studied are inspired by the CUSUM (Cumulative Sum) and SP (Shiryaev-Pollak) parametric procedures. New nonparametric sequential and batch-sequential SP inspired algorithms are introduced and they are compared with existent solutions based on CUSUM procedure in terms of the evolution of the test sequences and the detection threshold using real data containing denial of service attacks with different patterns. The results show that our sequential approach generally has better performance concerning the detection delay and false alarm rate, while our batchsequential approach can decrease the false alarm rate when they are compared to their analogous CUSUM inspired procedures. In terms of traffic control, the Leaky Bucket (LB) algorithm, the most popular traffic regulation mechanism, is proved to be a kind of CUSUM procedure. This new interpretation and the mathematical framework introduced provided a simple compact notation for this algorithm. In addition, it was possible to interpret the Fractal LB (FLB), a traffic regulator developed to deal with self-similar traffic, as a sequential test. A modification in the FLB algorithm is made, resulting in an algorithm with improved performance in terms of number of well-behaved cells marked with lower priority or discarded and punishment of bad-behaved cells. Finally, the self-similarity influence on the nonparametric sequential algorithms under study is analyzed. The consideration of the selfsimilar nature of the traffic plays a crucial role in the performance and thresholds of these algorithms. In this work, it is presented an approach to improve the performance of the nonparametric sequential CUSUM based procedure in the presence of self-similar traffic.
8

Um sistema de detecção de intrusão em tempo real para redes IEEE 802.11.

Evandro do Nascimento Delatin 01 September 2006 (has links)
Nos últimos anos, as redes locais cabeadas têm sido estendidas através de redes sem fio. A vantagem desse tipo de rede é que as empresas economizam custo em infra-estrutura e conseguem prover mobilidade e flexibilidade para os usuários. Entretanto as redes sem fio estão sujeitas a ataques devido ao uso de ondas de rádio como meio de transmissão. Apesar do IEEE ter definido o WEP como mecanismo de segurança ele não é suficientemente seguro. Algumas soluções como sistemas de detecção de intrusão são desenvolvidas para mitigar as fraquezas do WEP. Um sistema de detecção de intrusão sem fio é uma ferramenta que captura todas as comunicações locais sem fio e gera alertas baseados em assinaturas pré-definidas ou anomalias no tráfego. Os sistemas existentes de código aberto atualmente são pré-definidos em termos de assinatura ou têm restrições nos tipos de ataques que podem detectar. Neste trabalho é proposto um sistema de detecção de intrusão em tempo real que detecta a presença de elementos não autorizados tais como usuários, pontos de acesso, ferramentas de Wardriving e ataques de negação de serviço.
9

ELICERE: o processo de elicitação de metas de dependabilidade para sistemas computacionais críticos: estudo de caso aplicado a área espacial. / ELICERE: a process for defining dependability goals for critical computer system: case study apply to space area.

Carlos Henrique Netto Lahoz 06 August 2009 (has links)
Os avanços tecnológicos na eletrônica e no software têm sido rapidamente assimilados pelos sistemas computacionais demandando novas abordagens para a engenharia de sistemas e de software prover produtos confiáveis, sob critérios bem estabelecidos de qualidade. Dentro deste contexto, o processo de elicitação de requisitos tem um papel estratégico no desenvolvimento de projetos. Problemas na atividade de elicitação contribuem para produzir requisitos pobres, inadequados ou mesmo inexistentes que podem causar a perda de uma missão, desastres materiais e financeiros, a extinção prematura de um projeto ou promover uma crise organizacional. Esta tese apresenta o processo de elicitação de metas de dependabilidade, chamado ELICERE, aplicado em sistemas computacionais críticos, que se fundamenta nas técnicas de engenharia de requisitos orientada a metas, chamada i*, e nas técnicas de engenharia de segurança HAZOP e FMEA, que identificam e analisam perigos operacionais de um sistema. Depois de criar os modelos do sistema usando os diagramas i*, eles são analisados através de palavras-guia baseadas no HAZOP e FMEA, de onde as metas relacionadas à dependabilidade são extraídas. Através desta abordagem interdisciplinar, ELICERE promove a identificação de metas, que atendam aos requisitos de qualidade, relativos à dependabilidade, para sistemas computacionais críticos ainda na fase de concepção de um projeto. A abordagem do estudo de caso é baseada em um estudo qualitativo e descritivo de um caso único, usando o projeto de um foguete lançador hipotético, chamado V-ALFA. A aplicação do ELICERE neste projeto espacial teve a intenção de aperfeiçoar as atividades de engenharia de requisitos do sistema computacional do Veículo Lançador de Satélites Brasileiro, e também como forma de explicar como o processo ELICERE funciona. / The technological advances in electronic and software have been rapidly assimilated by computer systems, demanding new approaches for software and system engineering to provide reliable products, under well-known quality criteria. In this context, requirements engineering has a strategic role in project development. Problems in the elicitation activity contribute to producing poor, inadequate or even non-existent requirements that can cause mission losses, material or financial disasters, premature project termination or promote an organizational crisis. This thesis introduces the dependability goals elicitation process, called ELICERE, applied to critical computer systems based on a goal-oriented requirement engineering technique, called i*, and the safety engineering techniques HAZOP and FMEA, which will be applied for the identification and analysis of operational risks of a system. After creating the system models using i* diagrams, they are analyzed through guidewords based on HAZOP and FMEA, from which goals related to dependability are extracted. Through this interdisciplinary approach, ELICERE promotes the identification of goals that meet the quality requirements, related to dependability for critical systems, still in the project conception phase. The case study approach is based on a qualitative and descriptive single-case, using a computer system project of a hypothetical launching rocket, called V-ALFA. The ELICERE application in this space project intends to improve the requirement engineering activities in the computer system of the Brazilian Satellite Launch Vehicle, and also a way to explain how the ELICERE process works.
10

Securetrade: a secure protocol based on transferable E-cash for exchanging cards in P2P trading card games. / Um protocolo de segurança baseado em moeda eletrônica para troca de cartas em jogos de cartas colecionáveisP2P.

Marcos Vinicius Maciel da Silva 02 August 2016 (has links)
Trading card games (TCG) are distinct from traditional card games mainly because, in the former, the cards are not shared among players in a match. Instead, users play with the cards they own (e.g., that have been purchased or traded with other players), which correspond to a subset of all cards produced by the game provider. Even though most computer-based TCGs rely on a trusted third-party (TTP) for preventing cheating during trades, allowing them to securely do so in the absence of such entity, as in a Peer-to-Peer (P2P) scenario, remains a challenging task. Potential solutions for this challenge can be based on e-cash protocols, but not without adaptations, as those scenarios display different requirements: for example, TCGs should allow users to play with the cards under their possession, not only to be able to pass those cards over as with digital coins. In this work, we present and discuss the security requirements for allowing cards to be traded in TCGs and how they relate to e-cash. We then propose a concrete and efficient TTP-free protocol for trading cards in a privacy-preserving manner. The construction is based on a secure transferable e-cash protocol and on a P-signature scheme converted to the asymmetric pairing setting. According to our experimental results, the proposed protocol is quite efficient for use in practice: an entire deck is stored in less than 5 MB, while it takes a few seconds to be prepared for a match; the verification of the cards, on its turn, takes less time than an usual match, and can be performed in background while the game is played. / Jogos de cartas colecionáveis (TCG, do inglês Trading Card Game) diferem de jogos de cartas tradicionais principalmente porque as cartas não são compartilhadas em uma partida. Especificamente, os jogadores usam suas próprias cartas (obtidas, e.g., por meio de compra ou troca com outros jogadores), as quais correspondem a um subconjunto de todas as cartas criadas pelo produtor do jogo. Embora a maioria dos TCGs digitais atuais dependam de um terceiro confiável (TTP, do ingês Trusted Third-Party) para prevenir trapaças durante trocas, permitir que os jogadores troquem cartas de maneira segura sem tal entidade, como é o caso em um cenário peer-to-peer (P2P), ainda é uma tarefa desafiadora. Possíveis soluções para esse desafio podem ser baseadas em protocolos de moeda eletrônica, mas não sem adaptações decorrentes dos requisitos diferentes de cada cenário: por exemplo, TCGs devem permitir que usuários joguem com as suas cartas, não apenas que passem-nas adiante como ocorre com moedas eletrônicas. Neste trabalho, são apresentados e discutidos os principais requisitos de segurança para trocas de cartas TCGs e como eles se relacionam com moedas eletrônicas. Também é proposto um protocolo eficiente que permite trocas de cartas sem a necessidade de um TTP e com suporte a privacidade. A construção usa como base um protocolo seguro de moeda eletrônica e um protocolo de assinatura-P adaptado para utilizar emparelhamentos assimétricos, mais seguros que os simétricos. De acordo com os experimentos realizados, o protocolo proposto é bastante eficiente para uso na prática: são necessários apenas 5 MB para armazenar um baralho inteiro, enquanto a preparação do mesmo leva apenas alguns segundos; a verificação das cartas, por sua vez, é mais rápida que a duração comum de uma partida e pode ser executada em plano de fundo, durante a própria partida.

Page generated in 0.4978 seconds