• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Protocolo flexível de autenticação multi-fator

Spagnuelo, Dayana Pierina Brustolin January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:25:59Z (GMT). No. of bitstreams: 1 324632.pdf: 2203014 bytes, checksum: 0b739de1d743377925f3658bc13ef316 (MD5) Previous issue date: 2013 / Sistemas de telemedicina e telessaúde necessitam de serviços de autenticação fortes para garantir a identidade e a privacidade dos dados e, ao mesmo tempo, flexíveis para atender as necessidade de profissionais e pacientes. O foco deste trabalho é o processo de autenticação. Nós propomos um protocolo de autenticação multi-fator flexível e uma implementação do mesmo baseada em tecnologias de web services voltado ao ambiente de telessaúde. Este serviço faz uso de métodos escaláveis em um processo de autenticação de dois fatores. No novo modelo o usuário se autentica da mesma forma que fazia anteriormente e, em um segundo passo, informa algum dado que prove que ele tem a posse de determinado dispositivo único (token). Suas principais características são a flexibilidade de configuração dos mecanismos de autenticação, assim como o uso de um sistema robusto para o registro de eventos. Neste trabalho são tratados a engenharia de requisitos de segurança, e os detalhes da sua implementação. Também são discutidos sua adequação no ambiente de telemedicina e telessaúde e a integração do uso de diferentes métodos de autenticação.<br> / Abstract: Telemedicine and telehealth systems require authentication services that are strong enough to ensure identification and privacy, and flexible to meet the needs of health professionals and patients. The focus of this work is the authentication process. We propose a multi-factor authentication protocol and an implementation based on web service technology for telemedicine environment. This service makes use of scalable authentication methods based on two-factor authentication mechanisms. In the new model users authenticate exactly the same way they use to do and, in a second step, they have to provide some information that proves that they possess some specific device (token). Its main characteristics are: flexibility of configuration for the authentication mechanisms, as well as the use of a robust system for recording events. In this dissertation we deal with the engineering requirements of the security system and the details of its implementation. We also discuss the efficacy and ease of use of different authentication methods.
72

Using combinatorial group testing to solve integrity issues

Idalino, Thaís Bardini January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015 / Made available in DSpace on 2016-10-19T13:20:16Z (GMT). No. of bitstreams: 1 336415.pdf: 822253 bytes, checksum: 9704a2d81140ede18af8530f9cbebddd (MD5) Previous issue date: 2015 / O uso de documentos eletrônicos para compartilhar informações é de fundamental importância, assim como a garantia de integridade e autenticidade dos mesmos. Para provar que alguém é dono ou concorda com o conteúdo de um documento em papel, essa pessoa precisa assiná-lo. Se o documento foi modificado após a assinatura, geralmente é possível localizar essas modificações através de rasuras. Existem técnicas similares em documentos digitais, conhecidas como assinaturas digitais, porém, propriedades como as de identificar as modificações são perdidas.Ao determinar quais partes de um documento foram modificadas, o receptor da mensagem seria capaz de verificar se essas modificações ocorreram em partes importantes, irrelevantes ou até esperadas do documento. Em algumas aplicações, uma quantidade limitada de modificações são permitidas mas é necessário manter o controle do local em que elas ocorreram, como em formulários eletrônicos. Em outras aplicações modificações não são permitidas, mas é importante poder acessar partes das informações que tem integridade garantida ou até mesmo utilizar a localização das modificações para investigação.Neste trabalho é considerado o problema de garantia parcial de integridade e autenticidade de dados assinados. Dois cenários são estudados: o primeiro está relacionado com a localização de modificações em um documento assinado e o segundo está relacionado com a localização de assinaturas inválidas em um conjunto de dados assinados individualmente. No primeiro cenário é proposto um esquema de assinatura digital capaz de detectar e localizar modificações num documento. O documento a ser assinado é primeiramente dividido em n blocos, tendo em conta um limite d para a quantidade máxima de blocos modificados que o esquema de assinatura consegue localizar. São propostos algoritmos eficientes para as etapas de assinatura e verificação, resultando em uma assinatura de tamanho razoavelmente compacto. Por exemplo, para d fixo, são adicionados O(log n) hashes ao tamanho de uma assinatura tradicional, ao mesmo tempo permitindo a identificação de até d blocos modificados.No cenário de localização de assinaturas inválidas em um conjunto de dados assinados individualmente é introduzido o conceito de níveis de agregação de assinatura. Com esse método o verificador pode distinguir os dados válidos dos inválidos, em contraste com a agregação de assinaturas tradicional, na qual até mesmo um único dado modificado invalidaria todo o conjunto de dados. Além disso, o número de assinaturas transmitidas é muito menor que num método de verificação em lotes, que requer o envio de todas as assinaturas individualmente. Nesse cenário é estudada uma aplicação em bancos de dados terceirizados, onde cada tupla armazenada é individualmente assinada. Como resultado de uma consulta ao banco de dados, são retornadas n tuplas e um conjunto de t assinaturas agregadas pelo servidor (com t muito menor que n). Quem realizou a consulta executa até t verificações de assinatura de maneira a verificar a integridade das n tuplas. Mesmo que algumas dessas tuplas sejam inválidas, pode-se identificar exatamente quais são as tuplas válidas. São propostos algoritmos eficientes para agregar, verificar as assinaturas e identificar as tuplas modificadas.Os dois esquemas propostos são baseados em testes combinatórios de grupo e matrizes cover-free. Nesse contexto são apresentadas construções detalhadas de matrizes cover-free presentes na literatura e a aplicação das mesmas nos esquemas propostos. Finalmente, são apresentadas análises de complexidade e resultados experimentais desses esquemas, comprovando a sua eficiência. <br> / Abstract : We consider the problem of partially ensuring the integrity and authenticity of signed data. Two scenarios are considered: the first is related to locating modifications in a signed document, and the second is related to locating invalid signatures in a set of individually signed data. In the first scenario we propose a digital signature scheme capable of locating modifications in a document. We divide the document to be signed into n blocks and assume a threshold d for the maximum amount of modified blocks that the signature scheme can locate. We propose efficient algorithms for signature and verification steps which provide a reasonably compact signature size. For instance, for fixed d we increase the size of a traditional signature by adding a factor of O(log n) hashes, while providing the identification of up to d modified blocks. In the scenario of locating invalid signatures in a set of individually signed data we introduce the concept of levels of signature aggregation. With this method the verifier can distinguish the valid data from the invalid ones, in contrast to traditional aggregation, where even a single invalid piece of data would invalidate the whole set. Moreover, the number of signatures transmitted is much smaller than in a batch verification method, which requires sending all the signatures individually. We consider an application in outsourced databases in which every tuple stored is individually signed. As a result from a query in the database, we return n tuples and a set of t signatures aggregated by the database server (with t much smaller than n). The querier performs t signature verifications in order to verify the integrity of all n tuples. Even if some of the tuples were modified, we can identify exactly which ones are valid. We provide efficient algorithms to aggregate, verify and identify the modified tuples. Both schemes are based on nonadaptive combinatorial group testing and cover-free matrices.
73

Uma estratégia de estimação da PRNU de dispositivos de aquisição equipados com um arranjo de filtros de cor

Costa, Hermeson Barbosa da January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2016-12-13T03:09:04Z (GMT). No. of bitstreams: 1 342957.pdf: 1434861 bytes, checksum: 4195176fb5bae37c4fbdb4d7c531b961 (MD5) Previous issue date: 2016 / Em análise forense, as técnicas de identificação de dispositivos de aquisição são usadas para verificar se uma imagem investigada foi adquirida por um determinado dispositivo suspeito (câmera digital, por exemplo). Para tentar solucionar esse problema, uma característica dos equipamentos de aquisição de imagens que vem sendo amplamente explorada é a não uniformidade da fotorresposta (photo-response nonuniformity - PRNU). A PRNU é um padrão de ruído, originário das imperfeições do processo de manufatura, que caracteriza cada fotossensor de forma única. Atualmente, a taxa de sucesso (identificação correta da fonte da imagem) das técnicas baseadas em PRNU, utilizando imagens de baixa resolução, tende a ser limitada. Tal limitação se deve ao fato de que imagens de baixa resolução possuem poucas amostras (pixels) para estimar a PRNU, diferente de imagens de alta resolução. Este trabalho propõe uma nova abordagem baseada em PRNU para identificação de dispositivos de aquisição de imagens. Tal abordagem baseia-se na decomposição da imagem em subimagens, visando reduzir o efeito da interpolação da imagem no processo de estimação da PRNU. Além disso, essa abordagem utiliza todos os canais da imagem, sem distinção entre eles, para obter uma estimativa da PRNU. Assim, resultados melhores são obtidos para identificação da fonte, tanto de imagens de alta resolução quanto de baixa resolução, conforme observado em experimentos realizados com imagens adquiridas por câmeras digitais e câmeras digitais de telefones celulares.<br> / Abstract : In forensic analysis, techniques of acquisition device identification are used for checking whether an image under investigation has been acquired by a particular suspect device (digital camera, for example). For trying to solve this problem, a characteristic of image acquisition device that has been widely explored is the photo-response nonuniformity (PRNU). The PRNU is a pattern noise originating from the imperfections of the manufacturing process, which characterizes each photo sensor. Currently, the success rate (correct identification of the image source) of techniques based on PRNU, using low-resolution images, tends to be limited. Such a limitation is due to the fact that low-resolution images have few samples (pixels) to estimate the PRNU, unlike high-resolution images. This paper proposes a new approach based on PRNU to perform image acquisition device identification. This approach is based on the decomposition of the image into sub-images, aiming to reduce the image interpolation effect in the PRNU estimation process. Moreover, this approach uses all image channels, without distinguishing among them, to estimate the PRNU. Thereby, improved results are obtained for identifying the source for both high-resolution and low-resolution images, as illustrated in experiments carried out by using images from digital cameras and cellphone digital cameras.
74

Um modelo computacional para o funcionamento da assinatura digital no sistema de informatização processual

Ishikawa, Eliana Cláudia Mayumi January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T17:00:19Z (GMT). No. of bitstreams: 1 227681.pdf: 1179182 bytes, checksum: 63d6677f8cd0a33b985953c40976e80c (MD5) / A assinatura digital surgiu da necessidade de se garantir a confiabilidade e autenticidade de informações em ambientes computacionais moldados nas tecnologias atuais. O conceito de assinatura digital é aplicado para documentos digitais da mesma forma que o conceito de assinatura comum é usado para documentos impressos que autentica a origem dos dados contidos no mesmo. O objetivo desta dissertação é apresentar um modelo que possibilite a integração da técnica da assinatura digital no Sistema de Informatização Processual (SIP), desenvolvido pelo Tribunal Regional do Trabalho 14ª Região Rondônia/Acre em parceria com o Departamento de Expressão Gráfica da Universidade Federal de Santa Catarina. Com a integração do modelo proposto, pretende-se aperfeiçoar a segurança do sistema atual e garantir a integridade e a autenticação informatizada de todo e qualquer trâmite processual criado ou alterado pelos usuários do sistema.
75

Adaptando padrões, atividades e serviços das bibliotecas tradicionais para as bibliotecas digitais

Silva, Edilene Cristiana da January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T22:56:19Z (GMT). No. of bitstreams: 0
76

Um componente computacional para auxiliar o desenvolvimento de uma assinatura digital no sistema de informações processuais

Deliberador, Paulo de Tarso January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T12:08:47Z (GMT). No. of bitstreams: 1 224557.pdf: 1212811 bytes, checksum: c91f4be822629b0125c694ad72430332 (MD5) / Este trabalho apresenta conceitos relacionados à assinatura digital, e a necessidade de garantir a confiabilidade e autenticidade de informações em ambientes computacionais. O intuito da assinatura digital é fazer com que os documentos digitais tenham o mesmo valor legal do que um documento escrito e assinado de maneira comum, com a finalidade de garantir a autoria e autenticar a origem dos dados contidos no documento. Esta dissertação tem como objetivo apresentar um componente computacional para auxiliar programadores e analistas de sistemas, facilitando a aplicação da técnica de assinatura digital na integração do Sistema de Informações Processuais (SIP), desenvolvido pelo DesignLAB para aplicação na Justiça Trabalhista Brasileira em parceria com o Departamento de Expressão Gráfica da Universidade Federal de Santa Catarina. Com o componente computacional proposto, pretende-se facilitar a implementação da assinatura digital, aperfeiçoando a segurança do sistema atual, garantindo a integridade e autenticação informatizada dos documentos criados ou alterados pelos usuários do sistema.
77

Análise dos métodos de indexação para busca em conteúdos de imagens

Moraes, Leonivan Dias January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T04:34:10Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:07:55Z : No. of bitstreams: 1 194494.pdf: 33838097 bytes, checksum: 030b0c9e6cc8eeaadb6e19bda32424c4 (MD5) / Este trabalho apresenta uma análise de métodos de indexação de imagens utilizando os atributos cor, forma e textura e elabora uma análise dos resultados apresentados pelos motores de busca. Nas análises, dois tipos de imagens utilizadas como exemplos para a realização da busca, a primeira, gerada via software, apresenta cores e formas homogêneas e pouca presença de textura, a segunda, cores e formas heterogêneas e texturas bem definidas. Com a separação das análises foi possível discriminar quais os atributos que apresentam melhor desempenho no processo de busca, disponibilizando ao usuário informações que possibilitam um embasamento teórico para auxílio quando na efetiva escolha do atributo adequado para realização da busca nas coleções de imagens das bibliotecas digitais. Para a realização dos processos de pesquisa foram utilizados os motores de busca e a base de dados de imagens da ferramenta Excalibur VisualRetrievalWare.
78

Correlação de imagens digitais

Strauch, Julia Celia Mercedes January 1991 (has links)
Resumo: Esta dissertação tem por objetivo elaborar a automação do processo de medição de alvo s ou feições imageados com a câmara de TV-HR-600. Neste processo de medição são empregados dois métodos de correlação . O primeiro método consiste em aplicar uma função de correlação a janelas de um estereopar de imagens digitais , para obter a correlação de áreas ao nível do pix el. O segundo método trata a correlação encontrada empregando a t e o r ia dos mínimos quadrados a um modelo matemático que remove as distorções geométricas e as diferenças sistemática s radiometricas inerente s ao processo de aquisição da imagem refinando o processo e elevando a precisão .
79

Operadores aritméticos de baixo consumo para arquiteturas de circuitos DSP

Costa, Eduardo Antonio Cesar da January 2002 (has links)
Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.
80

CSAR : um compilador de silício voltado a execução de operações paralelas

Gomes, Rogerio Figurelli January 1990 (has links)
Apesar de o termo Compilador de Silício ser recente, as idéias envolvidas na sua construção são antigas e conhecidas. Este trabalho apresenta todos os passos para a construção do CSAR, um compilador de silício voltado à execusão de operações paralelas. A arquitetura alvo gerada pelo CSAR é distribuída, bem como os algoritmos implementados.

Page generated in 0.0276 seconds