• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 52
  • 31
  • 17
  • 10
  • 7
  • 4
  • 4
  • 1
  • Tagged with
  • 430
  • 430
  • 178
  • 88
  • 80
  • 79
  • 71
  • 68
  • 63
  • 58
  • 51
  • 51
  • 50
  • 49
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Hur ser säkerheten ut? : En bättre IT-miljö för alla små verksamheter

Grenholm, Lisa January 2018 (has links)
Examensarbete ”hur ser säkerheten ut” valdes på ett eget initiativ då jag upplever att det finns ett stort behov av att engagera verksamheter att lära sig mer om hur information och nätverk ska hanteras på ett säkerhet sätt. Genom en kvantitetundersökning bland verksamheter kunde en kartläggning göras av hur verksamheterna hanterar sin information och nätverksmiljö. Med hjälp av undersökningen resultat och faktainsamling kunde fakta om säkerhet tas fram till verksamheterna. För att presentera informationen på bästa sätt skapades en webbapplikation. Arbete med webbapplikationen innebar att en server sattes upp som en back-front och serverar HTML, CSS och Python kod för att kunna generera unika data till användarna. I slutet av projektet fick tredjeparts program analysera webbapplikationen samt en testgrupp utvärdera informationen och ett underlag för vidare utveckling av webbapplikation tas fram. / The thesis ”how does the security look like” was chosen on my own initiative, becasue there is a great need to engeage small bussnies in leraning more about how information and networks should handle safely. Through a quantitative survey among small businsses a survey could be made of how small businsses handle their information and network environment. Using the results of the survey and the collection of facts, customer facts about how security should look like can be created för small businesses. To present facts in the best way, a web application was created. Working with the web application meant that a server was installed. As well as a website with HTML and CSS code. Scripts were created to generate unique data for the user (small businesses) At the end of the project, third party programs were able to analyze the web application and a test group evaluate the information and web application to provide a basis for further development.
272

Classificação de conteúdo malicioso baseado em Floresta de Caminhos Ótimos / Malicious content classification based on Optimum-path Forest

Fernandes, Dheny [UNESP] 19 May 2016 (has links)
Submitted by DHENY FERNANDES null (dfernandes@fc.unesp.br) on 2016-06-15T17:19:42Z No. of bitstreams: 1 Dissertação.pdf: 1456402 bytes, checksum: 56f028f949d37b33c377e1c247b0fd43 (MD5) / Approved for entry into archive by Ana Paula Grisoto (grisotoana@reitoria.unesp.br) on 2016-06-21T17:18:53Z (GMT) No. of bitstreams: 1 fernandes_d_me_bauru.pdf: 1456402 bytes, checksum: 56f028f949d37b33c377e1c247b0fd43 (MD5) / Made available in DSpace on 2016-06-21T17:18:53Z (GMT). No. of bitstreams: 1 fernandes_d_me_bauru.pdf: 1456402 bytes, checksum: 56f028f949d37b33c377e1c247b0fd43 (MD5) Previous issue date: 2016-05-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O advento da Internet trouxe amplos benefícios nas áreas de comunicação, entretenimento, compras, relações sociais, entre outras. Entretanto, várias ameaças começaram a surgir nesse cenário, levando pesquisadores a criar ferramentas para lidar com elas. Spam, malwares, con- teúdos maliciosos, pishing, fraudes e falsas URLs são exemplos de ameaças. Em contrapartida, sistemas antivírus, firewalls e sistemas de detecção e prevenção de intrusão são exemplos de ferramentas de combate às tais ameaças. Principalmente a partir de 2010, encabeçado pelo malware Stuxnet, as ameaças tornaram-se muito mais complexas e persistentes, fazendo com que as ferramentas até então utilizadas se tornassem obsoletas. O motivo é que tais ferra- mentas, baseadas em assinaturas e anomalias, não conseguem acompanhar tanto a velocidade de desenvolvimento das ameaças quanto sua complexidade. Desde então, pesquisadores têm voltado suas atenções a métodos mais eficazes para se combater ciberameaças. Nesse contexto, algoritmos de aprendizagem de máquina estão sendo explorados na busca por soluções que analisem em tempo real ameaças provenientes da internet. Assim sendo, este trabalho tem como objetivo analisar o desempenho dos classificadores baseados em Floresta de Caminhos Ótimos, do inglês Optimum-path Forest (OPF), comparando-os com os demais classificadores do estado-da-arte. Para tanto, serão analisados dois métodos de extração de características: um baseado em tokens e o outro baseado em Ngrams, sendo N igual a 3. De maneira geral, o OPF mais se destacou no não bloqueio de mensagens legítimas e no tempo de treinamento. Em algumas bases a quantidade de spam corretamente classificada também foi alta. A versão do OPF que utiliza grafo completo foi melhor, apesar de que em alguns casos a versão com grafo knn se sobressaiu. Devido às exigências atuais em questões de segurança, o OPF, pelo seu rápido tempo de treinamento, pode ser melhorado em sua eficácia visando uma aplicação real. Em relação aos métodos de extração de características, 3gram foi superior, melhorando os resultados obtidos pelo OPF. / The advent of Internet has brought widespread benefits in the areas of communication, entertainment, shopping, social relations, among others. However, several threats began to emerge in this scenario, leading researchers to create tools to deal with them. Spam, malware, malicious content, phishing, fraud and false URLs are some examples of these threats. In contrast, anti-virus systems, firewalls and intrusion detection and prevention systems are examples of tools to combat such threats. Especially since 2010, headed by the Stuxnet malware, threats have become more complex and persistent, making the tools previously used became obsolete. The reason is that such tools based on signatures and anomalies can not follow both the speed of development of the threats and their complexity. Since then, researchers have turned their attention to more effective methods to combat cyber threats. In this context, machine learning algorithms are being exploited in the search for solutions to analyze real-time threats from the internet. Therefore, this study aims to analyze the performance of classifiers based on Optimum-path Forest, OPF, comparing them with the other state-of-the-art classifiers. To do so, two features extraction methods will be analyzed: one based on tokens and other based on Ngrams, considering N equal 3. Overall, OPF stood out in not blocking legitimate messages and training time. In some bases the amount of spam classified correctly was high as well. The version that uses complete graph was better, although in some cases the version that makes use of knn graph outperformed it. Due to the current demands on security issues, OPF, considering its fast training time, can be improved in its effectiveness aiming at a real application. In relation to feature extraction methods, 3gram was better, improving OPF’s results.
273

Detecção de eventos de segurança de redes por intermédio de técnicas estatísticas e associativas aplicadas a fluxos de dados

Proto, André [UNESP] 01 August 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-08-01Bitstream added on 2014-06-13T18:59:20Z : No. of bitstreams: 1 proto_a_me_sjrp.pdf: 1013912 bytes, checksum: 6c409f2d9d7693eb241046a3ee776c64 (MD5) / Este trabalho desenvolve e consolida um sistema de identificação e correlação de comportamentos de usuários e serviços em redes de computadores. A definição destes perfis auxiliará a identificação de comportamentos anômalos ao perfil de um grupo de usuários e serviços e a detecção de ataques em redes de computadores. Este sistema possui como estrutura base a utilização do padrão IPFIX – IP Flow Information Export – como exportador de informações sumarizadas de uma rede de computadores. O projeto prevê duas etapas principais: o desenvolvimento de um coletor de fluxos baseado no protocolo NetFlow, formalizado pela Internet Engineering Task Force (IETF) como padrão IPFIX, que acrescente melhorias na sumarização das informações oferecidas, consumindo menor espaço de armazenamento; a utilização de técnicas de mineração de dados estatísticas e associativas para detecção, correlação e classificação de comportamentos e eventos em redes de computadores. Este modelo de sistema mostra-se inovador na análise de fluxos de rede por meio da mineração de dados, empreendendo características importantes aos sistemas de monitoramento e segurança computacional, como escalabilidade de redes de alta velocidade e a detecção rápida de atividades ilícitas, varreduras de rede, intrusão, ataques de negação de serviço e de força bruta, sendo tais eventos considerados como grandes ameaças na Internet. Além disso, possibilita aos administradores de redes um melhor conhecimento do perfil da rede administrada / This work develops and consolidates an identification and correlation system of users and services behaviors on computer networks. The definition about these profiles assists in identifying anomalous behavior for the users and services profile and detecting attacks on computer networks. This system is based on the use of standard IPFIX – IP Flow Information Export – as a summarizing information exporter of a computer network. The project provides two main steps: the development of a flow collector based on the NetFlow protocol, formalized by Internet Engineering Task Force (IETF) as IPFIX standard, which improves the summarization of provided information, resulting in less storage space; the use of data mining association techniques for the detection, correlation and classification of behaviors and events in computer networks. This system model innovates in the analysis through IPFIX flow mining, adding important features to the monitoring of systems and computer security, such as scalability for high speed networks and fast detection of illicit activities, network scan, intrusion, DoS and brute force attacks, which are events considered big threats on the Internet. Also, it enables network administrators to have a better profile of the managed network
274

Uma proposta para medição de complexidade e estimação de custos de segurança em procedimentos de tecnologia da informação / An approach to measure the complexity and estimate the cost associated to Information Technology Security Procedures

Moura, Giovane Cesar Moreira January 2008 (has links)
Segurança de TI tornou-se nos últimos anos uma grande preocupação para empresas em geral. Entretanto, não é possível atingir níveis satisfatórios de segurança sem que estes venham acompanhados tanto de grandes investimentos para adquirir ferramentas que satisfaçam os requisitos de segurança quanto de procedimentos, em geral, complexos para instalar e manter a infra-estrutura protegida. A comunidade científica propôs, no passado recente, modelos e técnicas para medir a complexidade de procedimentos de configuração de TI, cientes de que eles são responsáveis por uma parcela significativa do custo operacional, freqüentemente dominando o total cost of ownership. No entanto, apesar do papel central de segurança neste contexto, ela não foi objeto de investigação até então. Para abordar este problema, neste trabalho aplica-se um modelo de complexidade proposto na literatura para mensurar o impacto de segurança na complexidade de procedimentos de TI. A proposta deste trabalho foi materializada através da implementação de um protótipo para análise de complexidade chamado Security Complexity Analyzer (SCA). Como prova de conceito e viabilidade de nossa proposta, o SCA foi utilizado para avaliar a complexidade de cenários reais de segurança. Além disso, foi conduzido um estudo para investigar a relação entre as métricas propostas no modelo de complexidade e o tempo gasto pelo administrador durante a execução dos procedimentos de segurança, através de um modelo quantitativo baseado em regressão linear, com o objetivo de prever custos associados à segurança. / IT security has become over the recent years a major concern for organizations. However, it doest not come without large investments on both the acquisition of tools to satisfy particular security requirements and complex procedures to deploy and maintain a protected infrastructure. The scientific community has proposed in the recent past models and techniques to estimate the complexity of configuration procedures, aware that they represent a significant operational cost, often dominating total cost of ownership. However, despite the central role played by security within this context, it has not been subject to any investigation to date. To address this issue, we apply a model of configuration complexity proposed in the literature in order to be able to estimate security impact on the complexity of IT procedures. Our proposal has been materialized through a prototypical implementation of a complexity scorer system called Security Complexity Analyzer (SCA). To prove concept and technical feasibility of our proposal, we have used SCA to evaluate real-life security scenarios. In addition, we have conducted a study in order to investigate the relation between the metrics proposed in the model and the time spent by the administrator while executing security procedures, with a quantitative model built using multiple regression analysis, in order to predict the costs associated to security.
275

Policy Viewer : ferramenta para visualização de politicas de segurança em grafos / Policy Viewer: a tool for security policy visualization using graphs

Kropiwiec, Diogo Ditzel 23 March 2005 (has links)
Orientador: Paulo Licio de Geus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-04T19:10:45Z (GMT). No. of bitstreams: 1 Kropiwiec_DiogoDitzel_M.pdf: 1443116 bytes, checksum: e21c7e873f831958ffc9ce27db574054 (MD5) Previous issue date: 2005 / Resumo: A Internet trouxe grandes benefícios às organizações e usuários de computadores, porém causou também uma maior exposição dos sistemas computacionais interligados em rede. Inúmeros têm sido os esforços para conter o crescente aumento dos ataques que ocorrem no mundo todo, dentre os quais inclui-se o desenvolvimento de sistemas operacionais mais seguros. Entretanto, a adoção desses sistemas ainda é incipiente, devido a várias dificul-dades envolvidas no processo, dentre as quais destaca-se a complexidade de configuração e gerenciamento de políticas de segurança. Nesta dissertação, são apresentados os aspectos estudados durante o desenvolvimento do mestrado, que permitiram a identificação dos problemas atuais associados a segu-rança de sistemas operacionais e políticas de segurança. Isso resultou no projeto e imple-mentação do Policy Viewer, uma ferramenta de visualização de políticas de segurança. Sua finalidade é auxiliar o administrador de políticas na compreensão, visualização e verificação das políticas de segurança especificadas para o sistema operacional. Utilizando as características apresentadas no projeto, foi desenvolvida uma imple-mentação parcial da ferramenta contendo um subconjunto das funcionalidades previstas, sobre o qual foram elaborados exemplos para demonstrar sua utilidade no auxilio da configuração de políticas e na identificação de problemas da política especificada / Abstract: The Internet brought great benefits to organizations and computer users, but has also caused a larger exposure of the computing systems connected to the network. Countless efforts are being made to contain the increasingly higher leveI of attacks that happen ali over the world, among which stands the development of safer operating systems. Un-fortunately, the adoption of these systems is still incipient, because of several obstacles involved in the processo One of them is the complexity of configuring and managing security policies.This dissertation shows aspects of operating system security and security policies stu-died during the Masters program, leading to the identification of current problems asso-ciated with them. This resulted in the project and implementation of Policy Viewer, a tool for the visualization of security policies. Its purpose is to aid the policy administrator in the comprehension, visualization and validation of operating systems security policies. The tool has been partialiy implemented with a subset of the intended functions, using the features presented in the project. Also, examples are shown to demonstrate its utility toward aiding in the process of policy configuration and in the identification of possible problems of such policies / Mestrado / Mestre em Ciência da Computação
276

Método híbrido de detecção de intrusão aplicando inteligência artificial / Hybrid intrusion detection applying artificial inteligence

Souza, Cristiano Antonio de 09 February 2018 (has links)
Submitted by Miriam Lucas (miriam.lucas@unioeste.br) on 2018-04-06T14:31:39Z No. of bitstreams: 2 Cristiano_Antonio_de_Souza_2018.pdf: 2020023 bytes, checksum: 1105b369d497031759e007333c20cad9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-04-06T14:31:39Z (GMT). No. of bitstreams: 2 Cristiano_Antonio_de_Souza_2018.pdf: 2020023 bytes, checksum: 1105b369d497031759e007333c20cad9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-02-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The last decades have been marked by rapid technological development, which was accelerated by the creation of computer networks, and emphatically by the spread and growth of the Internet. As a consequence of this context, private and confidential data of the most diverse areas began to be treated and stored in distributed environments, making vital the security of this data. Due to this fact, the number and variety of attacks on computer systems increased, mainly due to the exploitation of vulnerabilities. Thence, the area of intrusion detection research has gained notoriety, and hybrid detection methods using Artificial Intelligence techniques have been achieving more satisfactory results than the use of such approaches individually. This work consists of a Hybrid method of intrusion detection combining Artificial Neural Network (ANN) and K-Nearest Neighbors KNN techniques. The evaluation of the proposed Hybrid method and the comparison with ANN and KNN techniques individually were developed according to the steps of the Knowledge Discovery in Databases process. For the realization of the experiments, the NSL-KDD public database was selected and, with the attribute selection task, five sub-bases were derived. The experimental results showed that the Hybrid method had better accuracy in relation to ANN in all configurations, whereas in relation to KNN, it reached equivalent accuracy and showed a significant reduction in processing time. Finally, it should be emphasized that among the hybrid configurations evaluated quantitatively and statistically, the best performances in terms of accuracy and classification time were obtained by the hybrid approaches HIB(P25-N75)-C, HIB(P25-N75)-30 and HIB(P25-N75)-20. / As últimas décadas têm sido marcadas pelo rápido desenvolvimento tecnológico, o qual foi acelerado pela criação das redes de computadores, e enfaticamente pela disseminação e crescimento da Internet. Como consequência deste contexto, dados privados e sigilosos das mais diversas áreas passaram a ser tratados e armazenados em ambientes distribuídos, tornando-se vital a segurança dos mesmos. Decorrente ao fato, observa-se um crescimento na quantidade e variedade de ataques a sistemas computacionais, principalmente pela exploração de vulnerabilidades. Em função desse contexto, a área de pesquisa em detecção de intrusão tem ganhado notoriedade, e os métodos híbridos de detecção utilizando técnicas de Inteligência Artificial vêm alcançando resultados mais satisfatórios do que a utilização de tais abordagens de modo individual. Este trabalho consiste em um método Híbrido de detecção de intrusão combinando as técnicas Redes Neurais Artificiais (RNA) e K-Nearest Neighbors (KNN). A avaliação do método Híbrido proposto e a comparação com as técnicas de RNA e KNN isoladamente foram desenvolvidas de acordo com as etapas do processo de Knowledge Discovery in Databases (KDD) . Para a realização dos experimentos selecionou-se a base de dados pública NSL-KDD, sendo que com o processo de seleção de atributos derivou-se cinco sub-bases. Os resultados experimentais comprovaram que o método Híbrido teve melhor acurácia em relação a RNA em todas as configurações, ao passo que em relação ao KNN, alcançou acurácia equivalente e apresentou relevante redução no tempo de processamento. Por fim, cabe ressaltar que dentre as configurações híbridas avaliadas quantitativa e estatisticamente, os melhores desempenhos em termos de acurácia e tempo de classificação foram obtidos pelas abordagens híbridas HIB(P25- N75)-C, HIB(P25-N75)-30 e HIB(P25-N75)-20.
277

AutonomicSec: Um Mecanismo Autonômico para Segurança de Redes baseado em Decepção / AutonomicSec: A Autonomic Mechanism for Networks Security based on Deception

TELES, Ariel Soares 21 March 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:20Z (GMT). No. of bitstreams: 1 dissertacao Ariel Soares.pdf: 2676523 bytes, checksum: 253ad7139526979b18118267bd40d607 (MD5) Previous issue date: 2012-03-21 / FUNDAÇÃO DE AMPARO À PESQUISA E AO DESENVOLVIMENTO CIENTIFICO E TECNOLÓGICO DO MARANHÃO / Security in computer networks is the area responsible for protecting the data passing through it. The research for better security strategies has increased considerably since exists a vast number of attempted attacks. These attacks have caused financial loss and reputation damage to companies, institutions and individuals. There are several obstacles to achieve security into networks and it led to increase the problem complexity of security management. For this reason, it is interesting using the resources offered by Autonomic Computing (AC). AC systems are capable of manage themselves and to adapt dynamically to changes in order to restore its balance according to policies and business goals. The architecture and properties of AC to implement systems offers many advantages to be applied to network security. In this work, we present the concepts of AC and demonstrate its applicability on the network computer security context. The AC concepts application in network security introduces the auto-security capability to the system. To show the feasibility of achieving auto-security, we developed and present an autonomic mechanism for network protection. This mechanism is represented, initially, by an autonomic framework, which is organized according to MAPE-K model. In this model, autonomic managers perform the sensing activities on the execution environment, context analysis, planning and execution of dynamic reconfiguration actions. Then, we implemented two autonomic cycles. The first cycle aims to generate firewall rules based on honeypots log files. The second cycle is responsible for manipulate, dynamically, virtual honeypots that are classified as compromised. The results show that it is possible to obtain integration and cooperation between security systems; intelligence, through the deployment of autonomic strategies that turn the protection process dynamic; and autonomy, to achieve self-security on the network. / Segurança em redes de computadores compreende a área responsável pela proteção dos dados que a transitam. A busca por melhores estratégias de segurança tem aumentado consideravelmente, tendo em vista a grande quantidade de tentativas de ataques que vem sendo realizados. Esses ataques tem causado prejuízos financeiros e de imagem para empresas, instituições e pessoas físicas. Vários obstáculos a serem enfrentados para se alcançar redes realmente seguras existem e isso eleva a complexidade do problema da gerência de segurança. Por esse motivo é interessante a utilização de recursos oferecidos pela Computação Autonômica (CA). Sistemas de CA são capazes de gerenciarem a si próprios e se adaptarem dinamicamente às mudanças a fim de restabelecer seu equilíbrio de acordo com as políticas e os objetivos de negócio. A arquitetura e as propriedades de CA para a implementação de sistemas propõe uma abordagem com muitas vantagens para ser aplicada à segurança de redes. Neste trabalho, apresentamos os conceitos de CA e mostramos sua aplicabilidade ao contexto de segurança em redes de computadores. A aplicação dos conceitos de CA à segurança de redes introduz no sistema a capacidade de auto-segurança. Para mostrar a viabilidade em conseguir auto-segurança, desenvolvemos e apresentamos um mecanismo autonômico para segurança de redes. Este mecanismo é representado, inicialmente, por um framework autonômico, no qual é organizado seguindo o modelo MAPE-K. Neste modelo gerentes autonômicos realizam as atividades de sensoriamento do ambiente de execução, análise de contexto, planejamento e execução de ações de reconfiguração dinâmica. Em seguida, implementamos dois ciclos autonômicos. O primeiro tem a funcionalidade de gerar regras de firewall baseadas em logs de honeypots. O segundo ciclo é responsável por manipular dinamicamente honeypots virtuais que são considerados comprometidos. Os resultados mostram que é possível obter integração e cooperação entre os sistemas de segurança; inteligência, através da implantação de estratégias autonômicas que dinamizam o processo de proteção; e autonomia, para alcançar autossegurança na rede.
278

Client-side threats and a honeyclient-based defense mechanism, Honeyscout

Clementson, Christian January 2009 (has links)
Client-side computers connected to the Internet today are exposed to a lot malicious activity. Browsing the web can easily result in malware infection even if the user only visits well known and trusted sites. Attackers use website vulnerabilities and ad-networks to expose their malicious code to a large user base. The continuing trend of the attackers seems to be botnet construction that collects large amounts of data which could be a serious threat to company secrets and personal integrity. Meanwhile security researches are using a technology known as honeypots/honeyclients to find and analyze new malware. This thesis takes the concept of honeyclients and combines it with a proxy and database software to construct a new kind of real time defense mechanism usable in live environments. The concept is given the name Honeyscout and it analyzes any content before it reaches the user by using visited sites as a starting point for further crawling, blacklisting any malicious content found. A proof-of-concept honeyscout has been developed using the honeyclient Monkey-Spider by Ali Ikinci as a base. Results from the evaluation shows that the concept has potential as an effective and user-friendly defense technology. There are however large needs to further optimize and speed up the crawling process.
279

Mobile One Time Passwords and RC4 Encryption for Cloud Computing

Azam, A.S.M Faruque, Johnsson, Markus January 2011 (has links)
Cloud services have grown very quickly over the past couple of years, giving consumers and companies the chance to put services, resources and infrastructures in the hands of a provider. Therefore removing the need of providing these services themselves. This can for example lead to cost savings, better resource utilization and removing the need of technical expertise for the customers. There is big security concerns when using cloud services. Security is very important in cloud computing since people and companies store confidential data in the cloud. It must also be easy to use the services provided, since cloud services have so many users with different technical background. Since the control of services and data needed for the everyday-run of a corporation is being handled by another company, further issues needs to be concerned. The consumer needs to trust the provider, and know that they handle their data in a correct manner, and that resources can be accessed when needed. This thesis focuses on authentication and transmission encryption in cloud services. The current solutions used today to login to cloud services have been investigated and concluded that they don't satisfy the needs for cloud services. They are either insecure, complex or costly. It can also be concluded that the best encryption algorithm to use in a cloud environment is RC4, which is secure and at the same time a fast algorithm. Compared to AES, which together with RC4, are the most common encryption methods used over the Internet today, RC4 is the better choice. This thesis have resulted in an authentication and registration method that is both secure and easy to use, therefore fulfilling the needs of cloud service authentication. The method have been implemented in a fully working finished solution, that use a regular mobile phone to generate one time passwords that is used to login to cloud services. All of the data transmissions between the client and the server have been configured to use RC4 encryption. The conclusions that can be drawn is that the security proposal implemented in this thesis work functions very well, and provide good security together with an ease of use for clients that don't have so much technical knowledge.
280

Information Hiding in Networks : Covert Channels

Ríos del Pozo, Rubén January 2007 (has links)
Covert Channels have existed for more than twenty years now. Although they did not receive a special attention in their early years, they are being more and more studied nowadays. This work focuses on network covert channels and it attempts to give an overview on their basics to later analyse several existing implementations which may compromise the security perimeter of a corporate network. The features under study are the bandwidth provided by the channel and the ease of detection. The studied tools have turned out to be in most cases unreliable and easy to detect with current detection techniques and the bandwidth provided is usually moderate but they might pose a threat if not taken into consideration.

Page generated in 0.0721 seconds