• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

ARPREM : Autoria de Regras de Produção para Remediação de Erros com Múltiplas Representações Externas

Ferreira, Leandro Rodrigues January 2015 (has links)
Orientador : Prof. Dr. Andrey Ricardo Pimentel / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 18/11/2015 / Inclui referências : f. 96-101 / Resumo: A utilização de Múltiplas Representações Externas em Sistemas Tutores Inteligentes, com a finalidade de elucidar conceitos do domínio a serem estudados pelo aluno, vem sendo explorada em vários estudos. Além disso, verificou-se que se aplicadas corretamente em quaisquer domínios estudados, as Múltiplas Representações Externas podem ser úteis no apoio ao aprendizado, em especial como itens importantes para remediar possíveis erros dos alunos durante o processo de resolução dos exercícios. Apoiados a esta motivação, alguns estudos abordam a relação entre as funções das Múltiplas Representações Externas e os tipos de erros cometidos pelo aluno, mediante uma classificação entre estes dois conceitos que possibilite a seleção das Múltiplas Representações Externas que melhor contribuam para a remediação do erro. É comum ferramentas de autoria para sistemas tutores inteligentes que sejam projetadas cuidadosamente, pois interferem em vários aspectos do resultado final, tais como a eficácia do sistema em passar o conhecimento, a autonomia de interferência do autor e do aluno, o nível de conhecimento do autor e o tempo de projeto do sistema. Múltiplas Representações Externas aliadas a uma arquitetura funcionalista de remediação de erros matemáticos juntamente com teorias cognitivas conceituadas, é proposta neste trabalho uma ferramenta de autoria das regras de produção integrada a esta arquitetura, de uma forma natural para professores sem conhecimento de programação. Após a contextualização da arquitetura, é apresentado um estudo de caso com uma simulação de autoria de um exercício e simulações de interações de estudantes, além de avaliar se as saídas esperadas das regras de produção são compatíveis com a autoria simulada. / Abstract: The use of multiple external representations in intelligent tutoring systems, in order to elucidate domain concepts to be studied by the student, has been explored in several studies. In addition it was found that, if properly applied in any studied domains, the multiple external representations can be useful in supporting the learning, especially as important items to remedy possible errors of the students during the process of solving exercises. Relying on this motivation, some studies address the relationship between the functions of multiple external representations and the types of errors made by the learner through a rating between these two concepts that enables the selection of best multiple external representations that contribute to the error remediation. Authoring tools for intelligent tutoring systems should be designed carefully by interfering in various aspects of the final result, like system efficiency in transmitting knowledge, the author interference autonomy and learner, author knowledge level and design time of system. Multiple External Representations allied to a functionalist architecture mathematical errors remediation along with reputable cognitive theories, this work proposes an authoring tool of integrated production rules to this architecture, in a natural form to non-programmers. After the context of this architecture, a case study with a simulation of an exercise authoring and simulations of student interactions is showed, in order to evaluate whether the expected outputs of the production rules are compatible with the simulated authoring.
412

Controle de acesso baseado em criptografia para a distribuição segura de conteúdo multimídia em redes centradas de informação

Mannes, Elisa January 2016 (has links)
Orientador : Carlos Alberto Maziero / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 17/06/2016 / Inclui referências : f. 79-93 / Área de concentração : Ciência da computação / Resumo: O uso cada vez maior da Internet destaca o seu grande sucesso, mas também revela as deficiências de uma arquitetura que sustenta uma rede de distribuição de conteúdo com um modelo inicialmente planejado para a comunicação ponto a ponto. As redes centradas em informação (Information-Centric Network - ICN) representam uma abordagem promissora ao abordar esse problema com um modelo mais adequado para a distribuição de conteúdo, no qual o conteúdo é a entidade principal da camada de rede. Para isso, o roteamento e o encaminhamento são realizados pelo nome dos conteúdos ao invés de endereços de máquina, e os conteúdos podem ser armazenados em caches na rede. Essa mudança traz diversos benefícios para a rede, principalmente para conteúdos muito acessados, como músicas e vídeos, mas gera preocupações com relação ao acesso não autorizado a conteúdos protegidos, pois os provedores não são consultados em requisições que são atendidas pelos caches. As soluções propostas para o controle de acesso em ICN geralmente limitam os benefícios trazidos pelos caches ou não garantem um nível de segurança adequado. Assim, este trabalho propõe uma solução para controle de acesso que permita que o conteúdo seja armazenado nos caches, que seja segura contra o acesso não autorizado e que não interfira no funcionamento das arquiteturas de ICN. Para isso, a solução proposta utiliza o esquema de recifragem por proxy, em que um conteúdo cifrado com uma chave pública pk(u1) pode ser transformado em um conteúdo cifrado com uma chave pública pk(u2), sem expor o conteúdo original nem as chaves privadas correspondentes. Essa transformação é tradicionalmente feita por uma entidade semi-confiável denominada proxy, usando uma chave de recifragem definida e criada por u1 a partir da sua chave privada e da chave pública de u2. Na solução proposta, a recifragem por proxy é adaptada ao transferir as funções do proxy para o próprio usuário, que recebe a chave de recifragem diretamente do provedor de conteúdo. Desta forma, o provedor distribui seus conteúdos cifrados e cada usuário, ao acessar um conteúdo, solicita uma chave de recifragem correspondente para o provedor. A chave de recifragem enviada é exclusiva do usuário para determinado conteúdo e só funciona com o conhecimento da chave privada do usuário que solicitou o acesso. Assim, ao receber uma requisição para a chave de recifragem de um conteúdo, o provedor pode aplicar as políticas de controle de acesso necessárias, impedindo que usuários não autorizados possam decifrar os conteúdos recuperados dos caches. A solução proposta é analisada em quatro aspectos: desempenho de uma arquitetura de ICN na distribuição de conteúdos multimídia, desempenho do esquema de recifragem por proxy, desempenho da solução proposta nos provedores e nos usuários e comparação com outras soluções criptográficas. Os resultados confirmam os benefícios da ICN na distribuição de conteúdo multimídia, e revelam que enquanto o esquema de recifragem por proxy tem desempenho adequado no domínio do provedor, a operação de decifragem no domínio do usuário se mostra inadequada para o fluxo de conteúdos maiores que 1GB por hora. Assim, é proposta uma otimização que diminui o tempo da operação de decifragem em até 96%, tornando o esquema atrativo para o controle de acesso de conteúdos em ICN. Em comparação com outras soluções, a solução proposta é mais segura, mais eficiente e faz o melhor uso dos caches na rede. Palavras-chave: recifragem por proxy, controle de acesso, redes centradas em informação. / Abstract: The increasing use of the Internet by the users in their daily routines highlights the Internet great success whilst reveals the shortcomings of an architecture that supports a content distribution network with an architectural model originally designed for point to point communication. In this context, the Information-Centric Network (ICN) paradigm is a promising approach to address the current shortcomings of the Internet with an architecture more suitable for content distribution. In ICN, the content is the main entity on the network layer, thus routing and forwarding are performed on named content rather than host addresses, and content can be stored on in-network caches. This change brings many benefits to the network, especially for popular contents such as music and video, but also raises concerns about unauthorized access, since the provider does not interact with users which have their requests satisfied by caches. Existing solutions for access control in ICN often limit the benefits of caches or do not guarantee an adequate level of security. Thus, this work proposes an access control solution for ICN that allows content to be stored in caches and recovered by any user, is safe against unauthorized access, and does not interfere on ICN functioning. The proposed solution employs a proxy reencryption scheme, in which a content encrypted with a public key pk(u1) can be transformed into a content encrypted with a public key pk(u2), without exposing the original content nor the corresponding private keys. This transformation is traditionally done by a semi-trusted entity called the proxy, using a reencryption key defined and created by u1 from its private key and u2 public key. In the proposed solution, the proxy reencryption is adapted to transfer proxy functions to the user himself, who receives the reencryption key directly from the content provider. Thus, the content provider distributes encrypted content, and each user requests a reencryption key for each content they wish to access. The reencryption key sent by the content provider is exclusive to that user and to the requested content; consequently, it works only with the corresponding public-private key pair of the user requesting the content. Therefore, before issuing a reencryption key, the content provider can apply access control policies, preventing malicious users to decrypt the contents retrieved from in-network caches. The proposed solution is evaluated in four aspects: ICN performance on multimedia distribution, performance of proxy reencryption, performance of the proposed solution on content providers and users, and a comparative analysis with two distinct cryptographic solutions. Results confirm the benefits of ICN on multimedia content distribution, and reveals that while the proxy reencryption scheme is adequate for the content provider domain, the decryption operation on the user's domain is inadequate for content flows bigger than 1GB per hour. Thus, we propose an optimization on reencryption and decryption operations, leading to a reduction of up to 96% the decryption time on users, making the scheme attractive and suitable for content access control in ICN. Compared to other cryptographic access control solutions, the proposed solution is safer, more efficient and makes the best use of in-network caches. Keywords: proxy reencryption, access control, information-centric networks.
413

Método adaptativo para protocolos de roteamento em redes tolerantes a atrasos e desconexões baseado em conhecimento de contexto

Menegazzo, Cinara January 2015 (has links)
Orientador : Prof. Dr. Luiz Carlos P. Albini / Coorientador : Prof. Dr. Eduardo J. Spinosa / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 24/09/2015 / Inclui referências : f. 127-134 / Resumo: Redes Tolerantes a Atrasos e Desconexões (Delay and Disruption Tolerant Network - DTN) são redes caracterizadas pela mobilidade dos nós e entrega de mensagens sob elevadas taxas de desconexões e atrasos. Nos últimos anos, diversos protocolos de roteamento para DTN foram propostos. Em sua maioria, reagem de maneira otimizada dentro de um cenário de rede especificamente determinado para seu funcionamento. Contudo, a cada evolução de novas propostas fica evidente que, quando alteradas as características dos cenários, torna-se difícil manter o desempenho dos protocolos. Este comportamento evidencia que os protocolos de roteamento para DTN tem virtudes e fraquezas em relação a determinados contextos de rede. Na maioria das propostas de roteamento, quando os nós se encontram as decisões são tomadas de forma individual, baseadas no relacionamento do nó encontrado com o destino de uma mensagem, desconsiderando as restrições de um ambiente. As dificuldades para equilibrar decisões de roteamento aos limites e oscilações de contextos motivam a proposta desta tese. Um método de adaptação ciente do contexto instantâneo da rede, denominado CARPA (Context-Aware Routing Protocol Adaptation), é proposto para garantir desempenhos globais otimizados. O CARPA é um método dinâmico e instantâneo (on-the-fly) para adaptação a contextos que permite a seleção do protocolo mais otimizado a cada transferência de uma mensagem em DTN. O protocolo de roteamento é escolhido dentre os disponíveis nos nós em contato a cada salto da mensagem. As decisões são tomadas baseadas no contexto momentâneo, que envolve os requisitos da mensagem e as restrições da região visitada. O método CARPA é executado antes do processo de roteamento em cada nó DTN e não altera o algoritmo de roteamento. Para avaliar o contexto momentâneo, o CARPA utiliza informações da rede que o nó DTN tem disponível, das transmissões que realiza quando em contato com nós vizinhos de uma mesma região. O CARPA é comparado com os protocolos parametrizáveis para DTN Epidemic, PRoPHET e Spray and Wait. Os parâmetros utilizados para definir os contextos são? capacidade de armazenamento dos nós, densidade da rede, quantidade de contatos dos nós, velocidade dos nós e tempo de disponibilidade da rede para efetuar entregas. Porém, o método não se limita ao uso apenas dos protocolos e parâmetros usados nas simulações. Os resultados de simulações obtidos através do simulador The ONE mostram que a solução proposta é efetiva para melhorar o desempenho destes protocolos obtendo maiores taxas de entrega, menor atraso e menor sobrecarga. Na grande maioria das avaliações, verifica-se que o método supera os demais protocolos de roteamento para as mais variadas combinações de cenários quanto às métricas de atraso, sobrecarga, e taxa de entrega. Palavras-chave:Redes Tolerantes a Atrasos e Desconexões, Protocolo de Roteamento, Adaptação Dinâmica a Contextos, Parâmetros de Contexto. / Abstract: Delay Tolerant Network (DTN) consists of mobile nodes with large delivery delays and frequent disruptions. In recent years, many routing protocols have been proposed for DTN. Most of them demonstrate the ability to achieve good performance metrics under scenarios for which they were developed. However, variations imposed on standard configurations of various routing protocols lead to significant oscillations in performance of metrics, like message delivery rates and delay. This behavior demonstrates that most of the routing protocols for DTN have strengths and weaknesses depending on the scenario used. Most of the decisions take into account the individual relationship between the encountered node and the destination of the message, disregarding the constraints of an environment. A trade-off between routing decisions and contexts oscillations is the main motivation for this thesis. Thus, a context-aware method decoupled from the protocol for adapting the routing process in DTNs is proposed, called CARPA (Context-Aware Routing Protocol Adaptation). CARPA is an on-the-fly method that runs on each node of the network, based on the node's own context information and on the routing protocols available at the possible next hops. Hence, the decision process does not overload the network. From this, the method responds with the most suitable routing protocol for each hop transmission. In order to explore the strengths of all protocols and reduce their weaknesses, every message can be forwarded from the source to the destination node through several different routing protocols, one for each hop if necessary, without any changes to DTN routing protocols. The proposed method is compared to the Epidemic, PRoPHET, and Spray and Wait protocols over several distinct network scenarios, implemented in the THE ONE simulator. The scenarios are composed of combined contexts from the network parameters, such as buffer capacity, network density, speed of the nodes, number of contacts, and period of time that the network is available to deliver the messages. In most of the evaluations, CARPA outperforms the routing protocols simulated on delivery, delay, and overhead, when the network has more than one context. The more different contexts the network has, the better CARPA performs. Keywords: Delay Tolerant Network, Routing Protocol, Context Awareness, Context Parameter.
414

Normalisation of imprecise temporal expressions extracted from text

Tissot, Hegler Correa January 2016 (has links)
Orientador : Prof. Dr. Marcos Didonet Del Fabro / Co-Orientador : Prof. Dr. Angus Roberts / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 05/04/2016 / Inclui referências : f. 95-105 / Resumo: Técnicas e sistemas de extração de informações são capazes de lidar com a crescente quantidade de dados não estruturados disponíveis hoje em dia. A informação temporal está entre os diferentes tipos de informações que podem ser extraídos a partir de tais fontes de dados não estruturados, como documentos de texto. Informações temporais descrevem as mudanças que acontecem através da ocorrência de eventos, e fornecem uma maneira de gravar, ordenar e medir a duração de tais ocorrências. A impossibilidade de identificar e extrair informação temporal a partir de documentos textuais faz com que seja difícil entender como os eventos são organizados em ordem cronológica. Além disso, em muitas situações, o significado das expressões temporais é impreciso, e não pode ser descrito com precisão, o que leva a erros de interpretação. As soluções existentes proporcionam formas alternativas de representar expressões temporais imprecisas. Elas são, entretanto, específicas e difíceis de generalizar. Além disso, a análise de dados temporais pode ser particularmente ineficiente na presença de erros ortográficos. As abordagens existentes usam métodos de similaridade para procurar palavras válidas dentro de um texto. No entanto, elas não são suficientes para processos erros de ortografia de uma forma eficiente. Nesta tese é apresentada uma metodologia para analisar e normalizar das expressões temporais imprecisas, em que, após a coleta e pré-processamento de dados sobre a forma como as pessoas interpretam descrições vagas de tempo no texto, diferentes técnicas são comparadas a fim de criar e selecionar o modelo de normalização mais apropriada para diferentes tipos de expressões imprecisas. Também são comparados um sistema baseado em regras e uma abordagem de aprendizagem de máquina na tentativa de identificar expressões temporais em texto, e é analisado o processo de produção de padrões de anotação, identificando possíveis fontes de problemas, dando algumas recomendações para serem consideradas no futuro esforços de anotação manual. Finalmente, é proposto um mapa fonético e é avaliado como a codificação de informação fonética poderia ser usado a fim de auxiliar os métodos de busca de similaridade e melhorar a qualidade da informação extraída. / Abstract: Information Extraction systems and techniques are able to deal with the increasing amount of unstructured data available nowadays. Time is amongst the different kinds of information that may be extracted from such unstructured data sources, including text documents. Time describes changes which happen through the occurrence of events, and provides a way to record, order, and measure the duration of such occurrences. The inability to identify and extract temporal information from text makes it difficult to understand how the events are organized in a chronological order. Moreover, in many situations, the meaning of temporal expressions is imprecise, and cannot be accurately described, leading to interpretation errors. Existing solutions provide alternative ways of representing imprecise temporal expressions, though they are specific and hard to generalise. Furthermore, the analysis of temporal data may be particularly inefficient in the presence of spelling errors. Existing approaches use string similarity methods to search for valid words within a text. However, they are not rich enough to processes misspellings in an efficient way. In this thesis, we present a methodology to analyse and normalise of imprecise temporal expressions, in which, after collecting and pre-processing data on how people interpret vague descriptions of time in text, we compare different techniques in order to create and select the most appropriate normalisation model for different kinds of imprecise expressions. We also compare how a rule-based system and a machine learning approach perform on trying to identify temporal expression from text, and we analyse the process of producing gold standards, identifying possible sources of issues, giving some recommendations to be considered in future manual annotation efforts. Finally, we propose a phonetic map and evaluate how encoding phonetic information could be used in order to assist similarity search methods and improve information extraction quality.
415

Uma arquitetura baseada em padroes abertos para visualizaçao científica via internet aplicada à medicina

Freitas, Cilas de, Geus, Klaus de 08 February 2011 (has links)
Resumo: A visualização científica aplicada à medicina tem sido muito explorada nos últimos anos. O uso da Internet como meio de comunicação impulsionou o desenvolvimento de aplicações distribuídas de visualização de volumes para imagens médicas. A maioria dessas aplicações é baseada em arquiteturas fortemente acopladas, as quais dificultam sua acessibilidade e integração com outras aplicações. Este trabalho apresenta uma arquitetura para desenvolvimento de serviços de renderização de volumes de imagens médicas, utilizando padrões abertos para computação distribuída via Internet. Esta arquitetura permite uma maior acessibilidade e integração entre as organizações provedoras de serviços de renderização volumétrica e seus clientes.
416

Análise do efeito de entropia em computação quântica: simulações em ambiente paralelo

Moretti, Rafael Henrique [UNESP] 27 February 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:29Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-27. Added 1 bitstream(s) on 2015-09-17T15:48:46Z : No. of bitstreams: 1 000846680_20160701.pdf: 68569 bytes, checksum: 3d6e053b24d4ca9caa9a50165bb615cd (MD5) Bitstreams deleted on 2016-06-15T18:56:30Z: 000846680_20160701_sub.pdf, 000846680_sub.pdf,. Added 1 bitstream(s) on 2016-06-15T18:57:10Z : No. of bitstreams: 1 000846680_20160701.pdf: 169837 bytes, checksum: c2078ccda666da39cc5ae2f7a2313e77 (MD5) Bitstreams deleted on 2016-07-01T13:02:16Z: 000846680_20160701.pdf,. Added 1 bitstream(s) on 2016-07-01T13:03:15Z : No. of bitstreams: 1 000846680.pdf: 1186537 bytes, checksum: ab98f46152afe327512cb3dbd41ac088 (MD5) / O crescente desenvolvimento tecnológico tem trazido a humanidade grandes benefícios, nas mais diversas áreas. De modo a dar continuidade a esse desenvolvimento, novas frentes de pesquisas vêm surgindo, em busca do domínio dessas tecnologias emergentes. Os limites físicos da computação clássica, baseada nos fenômenos eletromagnéticos, estão sendo alcançados e a computação quântica surge como uma possível solução para esses limites, bem como para apresentar um novo panorama para a computação, devido ao seu grande potencial. A fim de buscar um maior entendimento dos fenômenos que envolvem a computação quântica em uma transmissão de dados, em específico o fenômeno do emaranhamento, no presente trabalho apresenta-se um levantamento teórico sobre mecânica quântica, informação, computação e entropias quânticas, bem como computação paralela e MPI, propondo-se uma simulação com implementação em ambiente paralelo sobre o efeito da entropia de emaranhamento dos fótons em uma transmissão de dados. Além disso, realiza-se a comparação com a implementação em um ambiente de um único processador / The increasing technological development has brought great bene ts to humanity, in several areas. In order to continue this development, new research areas are emerging to reach new technologies. The physical limits of classical computing, based on electromagnetic phenomena are being achieved and quantum computing emerges as a possible solution to these limits, as well as to introduce a new scenario for computing, due to its great potential. In order to get a better understanding of phenomena involving quantum computing in a data transmission, in particular the phenomenon of entanglement, this work presents a theoretical quantum mechanics, information, computing and quantum entropies, as well as parallel computing and MPI, proposing a simulation with implementation in parallel environment on the e ect of the entropy of entanglement of photons in data transmission and comparison with implementation in a single processor environment
417

Geração de sombras em objetos modelados por geometria sólida construtiva

Cassal, Marcos Luis January 2001 (has links)
Atualmente os sistemas computacionais mais sofisticados são aqueles que apresentam imagens gráficas. Devido às características de alta velocidade de processamento e excelente resultado na geração de imagens o uso da Computação Gráfica se dá em diversas áreas como a indústria, pesquisa, publicidade, entretenimento, medicina, treinamento, dentre outras. Este trabalho aborda dois assuntos clássicos na Computação Gráfica, Geometria Sólida Construtiva (CSG) e Sombras Projetadas. Ambos são muito importantes para esta linha de pesquisa da Ciência da Computação. A Geometria Sólida Construtiva é utilizada na modelagem de objetos e as sombras projetadas são necessárias para aumentar o realismo das imagens. Geometria sólida construtiva (CSG) é uma técnica para a modelagem de sólidos, que define sólidos complexos pela composição de sólidos simples (primitivas). Isso inclui também a composição de objetos já combinados, até que se chegue a um objeto mais complexo. Um fator muito importante e necessário na obtenção de imagens realistas e que deve ser considerado é a utilização de sombras, pois estas são eficazes no realismo e impressão espacial de objetos tridimensionais. As sombras estabelecem diversos níveis de profundidade na imagem, fazem uma pontuação geométrica na cena de modo a evitar que os objetos não pareçam estar flutuando no ar. Este trabalho consiste em apresentar uma proposta para a geração de sombras em objetos modelados pela Geometria Sólida Construtiva. Para tanto foram estudados os assuntos referentes à modelagem de objetos por CSG, algoritmos para a geração de sombras “bem delimitadas” e formas de gerar sombras na Geometria Sólida Construtiva. O processo de geração de sombras em cenas modeladas por CSG, através da aplicação das mesmas operações booleanas envolvidas na modelagem dos objetos, sobre as sombras nem sempre apresenta resultados corretos. Diante disso, foram investigadas outras formas de solucionar o problema. Dentre estas, uma alternativa é a realização de transformações na árvore binária CSG, através de outras operações, envolvendo o uso de complemento com operações de união e interseção, para a modelagem do objeto e geração da sombra correspondente. Com base nos estudos realizados foram implementados dois protótipos que exibem a sombra projetada de objetos modelados por CSG. Na implementação do protótipo A utilizaram-se as técnicas tradicionais de modelagem de sólidos e sombra projetada. Os resultados obtidos com este protótipo serviram de referência. No protótipo B os resultados foram obtidos através da aplicação da zona ativa das primitivas na modelagem dos objetos e a sombra é projetada durante o processo de avaliação de contornos do sólido. Os resultados obtidos com este protótipo são comparados com os resultados do protótipo A e são apresentados como forma de exibir a aplicação do método proposto.
418

Safe-record : segurança e privacidade para registros eletrônicos em saúde na nuvem

Souza, Stefano Mozart Pontes Canedo de 07 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-08-26T18:16:30Z No. of bitstreams: 1 2016_StefanoMozartPontesCanedodeSouza.pdf: 1830265 bytes, checksum: 771b851667435b3e987d74fdc56356fe (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-10-11T20:29:41Z (GMT) No. of bitstreams: 1 2016_StefanoMozartPontesCanedodeSouza.pdf: 1830265 bytes, checksum: 771b851667435b3e987d74fdc56356fe (MD5) / Made available in DSpace on 2016-10-11T20:29:41Z (GMT). No. of bitstreams: 1 2016_StefanoMozartPontesCanedodeSouza.pdf: 1830265 bytes, checksum: 771b851667435b3e987d74fdc56356fe (MD5) / O mercado de computação em nuvem tornou disponível a equipes hospitalares e acadêmicas um volume virtualmente ilimitado de recursos computacionais, os quais têm sido utilizados em atividades de pesquisa e desenvolvimento. Apesar das evidentes vantagens da computação em nuvem, o armazenamento e o processamento de Registros Eletrônicos em Saúde (RES) nesses ambientes levantam preocupações genuínas com a privacidade e a segurança dos pacientes que, voluntária ou involuntariamente, têm seus dados expostos. O compartilhamento do controle sobre os dados entre provedores e consumidores da nuvem é uma vulnerabilidade que não pode ser eliminada por uma solução técnica simples ou pontual. O risco de que o provedor de serviços faça mau uso de seu acesso privilegiado à infraestrutura da nuvem é conhecido como insider threat. Tal risco só pode ser eliminado se, mesmo tendo acesso a todos os dados, o provedor (desonesto, ou honesto mas curioso) não possa fazer qualquer uso deles. Isso pode ser alcançado se toda informação que trafegar, for armazenada ou processada na nuvem for encriptada com chaves indisponíveis naquele ambiente. O Safe-Record, uma aplicação com arquitetura compatível com serviços do tipo Platform-as-a-Service (PaaS), foi construído para demonstrar a utilização de esquemas criptográficos homomórficos e com preservação de ordem. Os quais, permitem a execução de buscas e operações aritméticas simples sobre dados de um RES na nuvem, sem que sejam decifrados e sem que qualquer informação relevante seja revelada ao provedor. Os resultados sugerem que esse tipo de solução provê níveis adequados de segurança e privacidade, além de ser técnica e economicamente viável. ________________________________________________________________________________________________ ABSTRACT / The cloud computing market makes a virtualy unlimited volume of computational resources available to medical and academic groups which are able to use such resources in research and development. In spite of the evident benefits of the cloud, the storage of Electronic Helath Records or the execution of machine learning algorithms over health data on the cloud raises genuine concerns over the privacy and even the security of patients who, voluntarily or not, have their data exposed. Among the many vulnerabilities of a tipical cloud computing evironment, there is one that is specially dificult to handle with a simple tecnical solution: the shared control over the data between providers and consumers of the cloud. The ‘insider threat’ can only be satisfactorily dealt with if, even with full access to the data, a malicious or semi-honest provider would not be able to gather any information from it. The Safe-Record, an application with an architecture compatible with tipical PaaS services, was built to demonstrate the use of homomorfic and order-preserving cryptographic schemes that allow the data to be processed in its encripted form on the cloud. This application manages Electronic Health Records modeled according to the OpenEHR standards, storing them under a combination of encryption schemes that allow simple queries and a few arithmetic operations to be run over the encrypted data on the cloud, without ever decrypting or revealing any relevant information. The results sugest that this solution renders adequate levels of security and privacy and is both technicaly and economicaly viable.
419

Utilização de árvores de decisão para aprimorar a classificação de fragmentos / Using decision trees to improve fragment classification

Oya, Juliano Kazuki Matsuzaki 13 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-02-15T16:12:49Z No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-23T22:29:48Z (GMT) No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / Made available in DSpace on 2017-03-23T22:29:48Z (GMT). No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / A classificação de fragmentos de arquivos é uma parte essencial do processo de recuperação de dados em computação forense. Métodos que dependem de assinaturas de arquivo ou de estruturas do sistema de arquivos são amplamente utilizados, mas outros métodos são necessários na ausência de tais informações. Para esse propósito, este trabalho descreve um método flexível para aprimorar a classificação de fragmentos e a recuperação de arquivos por meio da aplicação de árvores de decisão. Arquivos de evidências de casos forenses reais foram utilizados para gerar um conjunto de fragmentos de testes e de validação. Para cada fragmento, 46 atributos foram extraídos e utilizados no treinamento das árvores de decisão. Em média, os modelos resultantes classificaram corretamente 98,78% dos fragmentos em tarefas de classificação binários e de 86,05% em tarefas de classificação multinomiais. Os resultados mostram que as árvores de decisão podem ser aplicadas com sucesso para o problema de classificação fragmentos e que apresentam bons resultados quando comparadas com outros métodos apresentados na literatura. Por conseguinte, o método proposto pode ser utilizado como um complemento aos métodos usuais de recuperação de arquivo, possibilitando um processo de recuperação de dados mais minucioso. / The classification of file fragments is an essential part of the data recovery process in computer forensics. Methods that rely on file signatures or file system structures are widely employed, but other methods are required in the absence of such information. For this purpose, this paper describes a flexible method to improve fragment classification and recovery using decision trees. Evidence files from real forensic cases were used to generate the training and testing fragments. For each fragment, 46 features were extracted and used in the training of the decision trees. On average, the resulting models correctly classified 98.78% of the fragments in binary classification tasks and 86.05% in multinomial classification tasks. These results show that decision trees can be successfully applied to the fragment classification problem and they yield good results when compared to other methods presented in the literature. Consequently, the proposed method can be used as a complement to the usual file recovery methods, allowing for a more thorough data recovery process.
420

Proposta de modelo de migração de sistemas de ambiente tradicional para nuvem privada para o Polo de Tecnologia da Informação do Exército brasileiro

Morais, Nathaniel Simch de 05 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2015-11-12T15:21:17Z No. of bitstreams: 1 2015_NathanielSimchMorais.pdf: 4703115 bytes, checksum: 787b99c324f151abf6467876ca356683 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2015-11-16T11:44:15Z (GMT) No. of bitstreams: 1 2015_NathanielSimchMorais.pdf: 4703115 bytes, checksum: 787b99c324f151abf6467876ca356683 (MD5) / Made available in DSpace on 2015-11-16T11:44:15Z (GMT). No. of bitstreams: 1 2015_NathanielSimchMorais.pdf: 4703115 bytes, checksum: 787b99c324f151abf6467876ca356683 (MD5) / Computação em nuvem não é mais um mito para as organizações, pelo contrário. As grandes empresas já migraram seus sistemas para a nuvem em busca de seus benefícios. O modelo de negócios de computação em nuvem conta desde a hospedagem e utilização de infraestruturas públicas na internet até a criação de uma própria infraestrutura de nuvem, dentro as instalações da organização em um modelo chamado de nuvem privada. Com a criação de um Polo de Tecnologia de Informação o Exército Brasileiro também entende que a migração para um ambiente de nuvem pode permitir melhorar a oferta de serviços aos seus clientes internos, modernizando sua infraestrutura. Dada a sensibilidade do negócio do Exército entende-se que a necessidade de modernização deve ser alinhada ao modelo de nuvem privada desenvolvida em seus próprios centros de dados. Existem no mercado diversas soluções, proprietárias e de código aberto, que oferecem a possibilidade de criar uma nuvem privada. Mas a questão principal é o que fazer com os sistemas que estão em ambiente tradicional? Assim este estudo pretende compreender as necessidades e benefícios da utilização de uma nuvem privada, bem como oferecer uma proposta de modelo de migração de seus sistemas que estão hospedados em um modelo tradicional para um ambiente de nuvem privada. Durante o estudo serão alinhados estudos relativos á migração para nuvem com as características de negócio do Exército. Ao final do trabalho é realizada uma prova de conceito, onde é realizada a criação de um ambiente de nuvem privada e a migração de um sistema hospedado em ambiente tradicional virtualizado para esta nuvem. ___________________________________________________________________________ ABSTRACT / Cloud computing is no longer a myth for organizations, on the contrary. Large companies have already migrated their systems to the cloud in search of its beneficts. The cloud computing business model has provided hosting and use of public infrastructure on the Internet to create their own cloud infrastructure within the organization’s premises in a private cloud model so called. With the creation of the Brazilian Army Information Technology Pole, they also understands that migration to a cloud environment can help to improve the provision of services to its internal customers, modernizing its infrastructure. Given the Army’s business sensitivity it is understood that the need for modernization should be aligned to the private cloud model developed in their own data centers. There are several solutions on the market, proprietary and open source, offering the possibility to create a private cloud. But the main question is what to do with the systems that are in traditional environment? So this study aims to understand the needs and benefits of using a private cloud, as well as proposing a migration model of their systems that are hosted on a traditional model for a private cloud environment. During the study it will be considered on migration studies with the army business characteristics. At the end of the work a proof of concept is carried out, where the creation of a private cloud environment and the migrating of a system hosted in a traditional virtualized environment for this cloud is employed.

Page generated in 0.0984 seconds