Spelling suggestions: "subject:"ciência dda computação."" "subject:"ciência dda omputação.""
381 |
RIP-ROP: uma proteção contra ataques de execução de código arbitrário baseados em Return-Oriented ProgrammingFerreira, Mateus Felipe Tymburibá 06 August 2014 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-17T15:20:30Z
No. of bitstreams: 1
Dissertação - Mateus Felipe Tymburibá Ferreira.pdf: 4435693 bytes, checksum: da80cc7a540a306b4bc52b8792ffe9e1 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-17T20:44:52Z (GMT) No. of bitstreams: 1
Dissertação - Mateus Felipe Tymburibá Ferreira.pdf: 4435693 bytes, checksum: da80cc7a540a306b4bc52b8792ffe9e1 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-17T20:45:51Z (GMT) No. of bitstreams: 1
Dissertação - Mateus Felipe Tymburibá Ferreira.pdf: 4435693 bytes, checksum: da80cc7a540a306b4bc52b8792ffe9e1 (MD5) / Made available in DSpace on 2015-06-17T20:45:51Z (GMT). No. of bitstreams: 1
Dissertação - Mateus Felipe Tymburibá Ferreira.pdf: 4435693 bytes, checksum: da80cc7a540a306b4bc52b8792ffe9e1 (MD5)
Previous issue date: 2014-08-06 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / ReturnOriented Programming (ROP) is the name of a technique used for the development of malicious code that has been widely used to force execution of arbitrary code on vulnerable applications. It is based on the interconnection of small fractions of code belonging to attacked processes, which allows overcoming protections widely disseminated, such as that offered by the execute bit (NX/XD). Because of its wide use in attacks against modern computing systems, protections against ROP based exploits have been widely studied. Nevertheless, it is still not known a solution capable of combining efficacy against all forms of ROP, computational efficiency and feasibility of the
employment on applications protection. In order to facilitate the understanding of these
requirements and the inherent implications for methods of protection against ROP attacks, this work offers a bibliographic survey of the state of the art about this subject. For this, we propose in this paper: (i) metrics for evaluation and comparison of protections against ROP attacks and (ii) taxonomies to classify these protections depending on blocking strategies and implementation approaches used in each solution. This dissertation also provides a new method of protection against arbitrary code execution attacks based on ROP that seeks to encompass the requirements of effectiveness, efficiency and viability. It
was demonstrated that by controlling the frequency of indirect branch instructions performed by applications it is possible to distinguish ROP attacks from authentic codes and thus prevent their consolidation. In a dynamic binary instrumentation framework, it was developed a prototype – named RIPROP – for Windows, Linux, Android and OSX environments. Experiments conducted with malicious codes available in public repositories of exploits confirmed the feasibility of the proposed model for the protection of real applications. In addition, the computational cost imposed by RIPROP is comparable and in some cases lower than that achieved by related protections. / ReturnOriented Programming (ROP) é o nome de uma técnica usada para o desenvolvimento de códigos maliciosos que vem sendo amplamente utilizada para forçar a execução de códigos arbitrários em aplicações vulneráveis. Ela baseiase na interligação de pequenas frações de código pertencentes aos próprios processos atacados, o que permite a superação de proteções largamente difundidas, como aquela oferecida pelo bit de execução (NX/XD). Em função de seu vasto emprego em investidas contra sistemas computacionais modernos, proteções contra exploits baseados em ROP têm sido extensamente estudadas. Apesar disso, ainda não se conhece uma solução capaz de aliar eficácia contra todas as modalidades de ROP, eficiência computacional e viabilidade de emprego na proteção de aplicações. Com o intuito de facilitar o entendimento desses requisitos, bem como das implicações inerentes a métodos de proteção contra
ataques ROP, este trabalho oferece um levantamento bibliográfico do estado da arte envolvendo esse tema. Para isso, são propostas neste trabalho: (i) métricas para avaliação e comparação de proteções contra ataques ROP e (ii) taxonomias para classificação dessas proteções em função das estratégias de bloqueio e das abordagens de implementação utilizadas em cada solução. Esta dissertação provê ainda um novo método de proteção contra ataques de execução de código arbitrário baseados em ROP que busca abarcar os requisitos de eficácia, eficiência e viabilidade. Demonstrou-se que, através do controle da frequência de instruções de desvio indireto executadas pelas aplicações, é possível distinguir ataques ROP de códigos autênticos e, assim, evitar a sua consolidação. Em um framework de instrumentação binária dinâmica, foi desenvolvido um protótipo – denominado RIP-ROP – destinado a ambientes Windows, Linux, Android e OSX. Experimentos realizados com códigos maliciosos disponíveis em repositórios públicos de exploits confirmaram a viabilidade do modelo proposto para a proteção de aplicações reais. Além disso, o custo
computacional imposto pelo RIP-ROP é comparável e, em alguns casos, inferior àquele alcançado
por proteções correlatas.
|
382 |
Uso de gestos de mão como uma interface de interação entre usuários e a TV digital interativaSimões, Walter Charles Sousa Seiffert 19 March 2014 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-18T15:41:57Z
No. of bitstreams: 1
Dissertação - Walter Charles Sousa Seiffert Simões.pdf: 3539559 bytes, checksum: 459e3601771a481f4ba3f7912afe1c26 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T20:46:30Z (GMT) No. of bitstreams: 1
Dissertação - Walter Charles Sousa Seiffert Simões.pdf: 3539559 bytes, checksum: 459e3601771a481f4ba3f7912afe1c26 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-19T20:57:40Z (GMT) No. of bitstreams: 1
Dissertação - Walter Charles Sousa Seiffert Simões.pdf: 3539559 bytes, checksum: 459e3601771a481f4ba3f7912afe1c26 (MD5) / Made available in DSpace on 2015-06-19T20:57:40Z (GMT). No. of bitstreams: 1
Dissertação - Walter Charles Sousa Seiffert Simões.pdf: 3539559 bytes, checksum: 459e3601771a481f4ba3f7912afe1c26 (MD5)
Previous issue date: 2014-03-19 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / New Interactive Digital TV (iDTV) users, particularly the Smart TV (Smart TV), have
experienced new ways of relating to the TV via remote controls that incorporate more
functionality, motion sensing controls and controls through gesture recognition. The layouts operated by these controls had to adapt these new features and functionalities have options either by direct access (a single button), sometimes by indirect access (button combination), and in this second case, make the activity interaction with iDTV quite difficult because they require a level of familiarity with the very high electronic interaction devices. The remote control is the standard device used to allow user interaction with the TV, but sometimes its use becomes dull and difficult. In this scenario, the use of gestures emerges as a more natural and less invasive to assist or replace the remote control as a possible interaction mode. This paper proposed the construction of a prototype for Interactive Digital TV that could be controlled in its operations adjusting sound volume and exchanging programming channel through remote and through a set of gestures, defined from a set rules of Usability Engineering. The defining the layout and set of gestures process was conducted with the participation of users, and from these definitions, the features of the TV so constructed as to have the on-screen information about the volume and channel programming in addition to the gesture recognition process. The prototype built in this paper differs from commercial products because it took into account the relationship between the cost and performance of the devices used, seeking to offer an affordable and flexible option as to their use in different equipment. The approach described in this paper addresses the challenges that were faced in the areas of Engineering, Usability, iDTV and Computer Vision with final prototype compared to other methods and products, showing a performance of approximately 95% in the accuracy of the displayed gesture and a rate of speed 26 frames per second. / Usuários da nova TV Digital Interativa (TVDi), particularmente da TV Inteligente (Smart TV), têm experimentado novas formas de se relacionar com a TV através controles remotos que incorporaram mais funcionalidades, controles de detecção de movimento e os controles através de reconhecimento de gestos. Os layouts operados por estes controles tiveram que se adequar as estas novas funcionalidades e apresentam as opções de funcionalidades ora por acesso direto (um único botão), ora pelo acesso indireto (combinação de botões), e, neste segundo caso, tornam a atividade de interação com a TVDi bastante difícil
pois exigem um nível de vivência com os dispositivos eletrônicos de interação muito elevado. O controle remoto é o dispositivo padrão utilizado para permitir a interação do usuário com a TV, mas em alguns momentos a sua utilização se torna maçante e difícil. Neste cenário, o uso dos gestos surge como um modo mais natural e menos invasivo para auxiliar ou substituir o controle remoto como possibilidade de interação. Este trabalho propôs a construção de um protótipo para TV Digital Interativa que pudesse ser controlado em suas operações de ajuste de volume do som e de troca de canal de programação através do controle remoto e através de um conjunto de gestos, definidos a partir de um conjunto de regras da Engenharia da
Usabilidade. O processo de definição do layout e do conjunto de gestos foi realizado com a participação de usuários, e, a partir dessas definições, as funcionalidades da TV construídas de modo a se ter na tela as informações sobre o volume do som e o canal de programação, além do processo de reconhecimento de gestos. O protótipo construído neste trabalho se diferencia de produtos comerciais, pois levou-se em consideração a relação entre o custo e o desempenho dos dispositivos utilizados, buscando oferecer uma opção acessível e mais flexível quanto ao seu uso em equipamentos diversos. A abordagem descrita neste trabalho trata dos desafios que foram enfrentados nas áreas de Engenharia da Usabilidade, TVDi e Visão Computacional tendo seu protótipo final comparado a outros métodos e produtos, mostrando um desempenho de aproximadamente 95% no acerto do gesto exibido e uma taxa de velocidade de 26 frames por segundo.
|
383 |
Otimização Meta-heurística para regularização de modelos de aprendizado em profundidade /Rosa, Gustavo Henrique de. January 2018 (has links)
Orientador: João Paulo Papa / Banca: André Carlos Ponce de Leon Ferreira de Carvalho / Banca: Aparecido Nilceu Marana / Resumo: Arquiteturas de aprendizado em profundidade têm sido amplamente estudadas nos últimos anos, principalmente pelo seu alto poder discriminativo em muitos problemas considerados essenciais na área de visão computacional. Entretanto, um problema destes modelos diz res- peito ao grande número de parâmetros a serem ajustados, que podem chegar a milhares. Um outro ponto crítico está relacionado à necessidade de grandes bases de dados para treinar essas técnicas de aprendizado em profundidade, bem como a sua alta propensão ao chamado super-ajuste dos dados. Recentemente, a simplista ideia de desconectar neurônios ou conexões de uma rede, técnicas denominadas de Dropout e Dropconnect, respectivamente, tem se demonstrado muito eficazes e primordiais ao processo de aprendizado, embora ainda necessitem de uma escolha adequada de parâmetros. O presente projeto pretende identificar possíveis soluções para o problema mencionado por meio de técnicas de otimização meta-heurística, objetivando encontrar o número adequado do limiar de desligamento dos neurônios e conexões. Diferentes abordagens de aprendizado em profundidade, tais como, Máquinas de Boltzmann Restritas, Máquinas de Boltzmann em Profundidade, Redes de Crença em Profundidade, Redes Neurais Convolucionais; e diferentes meta-heurísticas, tais como, Algoritmo do Morcego, Algoritmo do Vagalume, Busca do Cuckoo, Otimização por Enxame de Partículas, foram utilizadas a fim de tentar solucionar este problema. Os resultados apresentados... / Abstract: Deep learning architectures have been extensively studied in the last years, mainly due to their discriminative power in many crucial problems in computer vision. However, one problem related to these models concerns with their number of parameters, which can easily reach thousands of hundreds. Another drawback is related to the need for large datasets for train- ing purposes, as well as their high probability of overfitting, mainly because of their complex architecture. Recently, a naïve idea of disconnecting neurones or connections from a network, known as Dropout or Dropconnect, respectively, has shown to be a promising solution to this problem. Nevertheless, it still requires an adequate parameter setting. This project aims to iden- tify possible solutions to the depicted problem by means of meta-heuristic optimization, trying to find the most suitable drop rate. Several machine learning approaches, such as, Restricted Boltzmann Machines, Deep Boltzmann Machines, Deep Belief Networks, Convolutional Neural Networks and several meta-heuristic techniques, such as, Particle Swarm Optimization, Bat Algorithm, Firefly Algorithm, Cuckoo Search, were employed in the context. The presented results show a possible trend in using meta-heuristic optimization to find suitable parameters in a wide range of applications, helping the learning process and improving the network's architecture / Mestre
|
384 |
Uma abordagem de análise de sentimentos espaço-temporal em microtextos.ALVES, André Luiz Firmino. 01 December 2017 (has links)
Submitted by Dilene Paulo (dilene.fatima@ufcg.edu.br) on 2017-12-01T15:44:03Z
No. of bitstreams: 1
ANDRÉ LUIZ FIRMINO ALVES - DISSERTAÇÃO PPGCC 2014.pdf: 8491551 bytes, checksum: 9c049bdf4b551742efcd94bdc4c8c020 (MD5) / Made available in DSpace on 2017-12-01T15:44:03Z (GMT). No. of bitstreams: 1
ANDRÉ LUIZ FIRMINO ALVES - DISSERTAÇÃO PPGCC 2014.pdf: 8491551 bytes, checksum: 9c049bdf4b551742efcd94bdc4c8c020 (MD5)
Previous issue date: 2014 / Capes / A proliferação dos meios de comunicação social na Web, tais como blogs, fóruns de discussões, sites de avaliação de produtos, microblogs e redes sociais, proporcionou um volume de dados opinativos armazenados em formato digital nunca visto na história da humanidade. Esta quantidade de dados, em sua grande maioria não estruturados, tem trazido vários desafios e oportunidades para a comunidade acadêmica e o mundo dos negócios, haja vista a necessidade de compreender, de forma automática, os sentimentos das pessoas a respeito de um produto, um serviço ou mesmo sobre pessoas ou fatos, para auxiliar no processo de tomada de decisão. Nos últimos anos, surgiram várias contribuições científicas para resolver problemas relacionados à análise de sentimentos. No entanto, poucas propostas consideram o fator espaço-temporal, isto é, a localização geográfica da fonte de informação ou da própria informação,
bem como as possíveis mudanças de opinião ao longo do tempo. Os trabalhos que
consideram o fator espacial tomam como base mensagens já geocodificadas, contudo, são poucas as fontes de informações que dispõem de mensagens georeferenciadas. Neste contexto, este trabalho propõe uma abordagem de análise de sentimentos que explora os fatores espaço-temporal para melhor sumarizar o sentimento detectado em uma grande quantidade de microtextos obtidos daWeb. A abordagem utiliza técnicas de Recuperação da Informação Geográfica (GIR) e técnicas de Análise de Sentimentos para detectar localizações geográficas e a polaridade dos sentimentos através de evidências textuais contidas nos microtextos, oferecendo mecanismos de visualização espacial do sentimento em diversas regiões geográficas.
A análise espaço-temporal possibilita visualizar mudanças de sentimento ocorridas em
diversas regiões geográficas ao longo do período analisado. / The dissemination of social communication means on the Web, such as blogs, discussion
forums, product evaluation sites, microblogs and social networks, provides a never before
seen volume of opinionative data in digital format. Not structured in its majority, this amount of data, has brought several challenges and opportunities for the academic community and the business world, considering the need for understanding, in an automatic form, people’s sentiments concerning a product, a service or even other people or facts, in order to facilitate the decision making process. In the recent years, several scientific contributions to solve sentiment analysis related problems were suggested. However, only a few of them consider the spatial-temporal factor, which is the geographical location of the information source or even of the information itself, as well as the possible opinion changes throughout time. The works that consider the spatial factor often assume the messages are already geocoded.
However, it could be a problem, since only a few information sources provide georeferenced messages. In this context, this work proposes a sentiment analysis approach which explores the spatial-temporal factor in order to better summarize the sentiments detected in a great amount of microtexts obtained from the Web. The approach uses Geographic Information Retrieval (GIR) and Sentiment Analysis techniques for the detection of geographic locations and sentiment polarity through textual evidences contained in the microtexts. The spatialtemporal analysis enables the visualization of sentiment changes which occurred in several geographic regions throughout the analyzed time period.
|
385 |
Uma Abordagem para Construção das Etapas de Análise de um Compilador.MÉLO, Daniel Gondim Ernesto de. 07 February 2018 (has links)
Submitted by Gustavo Nascimento (gustavo.diniz@ufcg.edu.br) on 2018-02-07T11:57:47Z
No. of bitstreams: 1
DANIEL GONDIM ERNESTO DE MÉLO - DISSERTAÇÃO PPGCC 2014.pdf: 1076740 bytes, checksum: 6b8c2f71701a3e6c6fa28f87faaeba62 (MD5) / Made available in DSpace on 2018-02-07T11:57:47Z (GMT). No. of bitstreams: 1
DANIEL GONDIM ERNESTO DE MÉLO - DISSERTAÇÃO PPGCC 2014.pdf: 1076740 bytes, checksum: 6b8c2f71701a3e6c6fa28f87faaeba62 (MD5)
Previous issue date: 2014-06-20 / Capes / Compiladores são programas que traduzem um código escrito em alguma linguagem, conhecida
como linguagem fonte, para um outro programa semanticamente equivalente em
outra linguagem, conhecida como linguagem destino. Existem compiladores que traduzem
códigos entre linguagens de alto nível. Porém, em geral, a linguagem destino mais utilizada
é a linguagem de máquina ou código de máquina. Várias linguagens e ferramentas
têm sido propostas dentro desse escopo a exemplo de Xtext, Stratego, CUP, ANTLR, etc.
Apesar da grande quantidade, atualmente, os frameworks existentes para a construção de
compiladores são de difícil compreensão e não evidenciam ao programador várias estruturas
importantes, como tabela de símbolos e árvores de derivação. Adicionalmente, são muitos
os detalhes específicos de cada plataforma concebida com esse propósito. Outrossim, em sua
maioria, cada framework concentra-se e provê serviços para apenas uma etapa de um compilador,
muitas vezes para prover serviços para mais de uma etapa se faz necessário o uso de
linguagens de propósito geral, o que eleva o grau de complexidade para o projetista de Compiladores.
Nesse sentido, propomos UCL (Unified Compiler Language), uma linguagem de
domínio específico para o desenvolvimento das etapas de análise de Compiladores, de forma
independente de plataforma e unificada. Com UCL é possível ao projetista do Compilador,
especificar questões de design, tais como escolha de algoritmos a serem utilizados, tipo de
scanner, entre outras características. A avaliação deste trabalho foi realizada por meio da
condução de dois surveys com alunos da disciplina de Compiladores da Universidade Federal
de Campina Grande, durante a execução dos projetos, que consiste no desenvolvimento
de Compiladores. / Compilers are softwares that translate program codes written in some language, known as source language, to another semantically equivalent program in another programming language,
known as target language. There are compilers that translate codes between high level
languages. However, in general, the most widely used target language is the machine language
or machine code. Several languages and tools have been proposed within this escope,
e.g. Xtext, Stratego, CUP, ANTLR, etc. Despite the great quantity, currently, the existing
frameworks for building compilers are difficult to understand and does not show the programmer
several important structures, such as symbol table and syntax tree. Additionally,
there are many specific details of each platform designed for that purpose. Moreover, in
most cases, each framework focuses and provides services for only one module of a compiler.
Often to provide services for more than one step it is necessary to use general purpose
languages, which increases the degree of complexity. In this context, we propose UCL (Unified
Compiler Language), a domain specific language for the development of the analysis
modules, in a unified and platform independent way. With UCL it is possible for the compiler
designer, specify design issues, such as, choice of algorithms to be used, type of scanner,
among other features. The evaluation of this work was conducted through the application of
two surveys with students of the compilers course from the Federal University of Campina
Grande, during project execution, consisting in the development of compilers.
|
386 |
Reconhecimento de símbolos de configuração de mão do SignWritingStiehl, Diego January 2015 (has links)
Orientador : Prof. Dr. Luiz Eduardo Soares de Oliveira / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/05/2015 / Inclui referências / Resumo: Apesar de a surdez ser um fator limitante para a comunicação de um indivíduo, as comunidades surdas têm conseguido manter intra-relações através da utilização das línguas de sinais, no Brasil representadas pela LIBRAS. Apesar de permitirem a troca de informações de forma pessoal, as línguas de sinais apresentam restrições com relação à documentação por meio escrito ou impresso, devido a diferenças estruturais com relação a idiomas baseados em fonética. O SignWriting é uma notação que surgiu com o objetivo de preencher esta lacuna e tem tido aceitação em diversas comunidades surdas, permitindo a representação "textual" de informações produzidas de forma espacial. Atualmente, há elevada carência de estudos e aplicações de informática que visem otimizar a utilização dessa notação por parte de seus conhecedores. Este trabalho objetiva elaborar um método que realize a identificação de símbolos de configuração de mão descritos pelo SignWriting, através de técnicas de reconhecimento de padrões. O método proposto visa identificar símbolos dados como entrada dentre um conjunto de 103 símbolos de configuração de mão válidos, previamente selecionados de acordo com a relevância de suas características estruturais, utilizando diferentes técnicas e estratégias para a classificação, como Máquinas de Vetores de Suporte (SVM), aprendizagem profunda, combinação de classificadores e verificação de resultados de classificação. Experimentos realizados mostraram que a combinação de classificadores via regra do produto obteve os melhores resultados dentre todas as estratégias testadas, atingindo taxas de reconhecimento de 94,65% em top 1 e 98,74% em top 2, e 94,75% em top 1 após realizar a etapa de verificação. Palavras-Chave: SignWriting, reconhecimento de padrões, combinação de classificadores, aprendizagem profunda, verificação de classificadores. / Abstract: Although deafness be a limiting factor for communication of an individual, the deaf communities have managed to maintain intra-relationships through the use of sign languages, which, in Brazil, are represented by LIBRAS. However, although they allow the exchange of information personally, sign languages have restrictions regarding the documentation by written or printed ways due to structural differences from phonetic based languages. SignWriting is a notation that was meant to fill this gap, which has been accepted in many deaf communities, allowing the \textual" representation information produced in the spatial form. Currently, there is high lack of studies and computer applications aiming the optimization of the use of such notation. This work aims to develop a method that performs the identification of hand configuration symbols described by SignWriting through pattern recognition techniques. The proposed method aims to identify input symbols as being one among 103 valid hand configuration symbols, which were previously selected according to the relevance of their structural characteristics, by using various techniques and strategies for classification, as Support Vector Machines (SVM), deep learning, combination of classifiers and verification of classification results. Experiments have shown that the combination of classifiers using the product rule achieved the best results among all tested strategies, achieving recognition rates of 94.65% on top 1 and 98.74% on top 2, and 94.75% on top 1 after performing the verification step. Keywords: SignWriting, pattern recognition, combination of classifiers, deep learning, verification of classifiers.
|
387 |
Dasflow : uma arquitetura distribuída de armazenamento e processamento para dados de monitoramento de redeHoss, Diego Jonathan January 2015 (has links)
Orientador : Prof. Dr. Carmem Satie Hara / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 24/09/2015 / Inclui referências : f. 88-92 / Resumo: O monitoramento de redes é uma atividade pertencente à área de gerência de redes, na qual efetua-se a coleta, armazenamento, processamento e análise dos dados de monitoramento. Para realizar esta atividade, existem ferramentas que implementam tais funcionalidades. Grande parte destas ferramentas são baseadas na arquitetura centralizada, e entre elas encontra-se o NfSen/Nfdump. Esta ferramenta é amplamente utilizada pelos administradores de rede por possuir boa documentação e ser de código aberto. O modelo centralizado possui limitações associadas à escalabilidade que são inerentes à arquitetura. Entre elas está a falta de redundância, um ponto único de falha e a ausência de balanceamento de carga. Isto significa que as ferramentas com arquitetura centralizada estão sujeitas a essas limitações, ou seja, existem limites no volume de armazenamento bem como na sua capacidade de coleta e processamento. Na literatura, encontram-se soluções para este problema baseadas em compressão dos dados e armazenamento distribuído de dados. Nesta dissertação, é proposta uma arquitetura distribuída chamada DASFlow aplicada à ferramenta de monitoramento de rede NfSen/Nfdump, cujo o objetivo é prover escalabilidade de coleta, armazenamento e processamento. Para isso, a arquitetura define os módulos StoreDAS-Cliente e StoreDAS-Servidor que atuam em conjunto com o sistema de arquivos distribuído (SAD) para prover escalabilidade de coleta e armazenamento. A escalabilidade de processamento é fornecida pelos módulos QueryDAS-Cliente e QueryDAS-Servidor. A arquitetura também prevê a existência do módulo de Metadados responsável por manter as informações sobre o armazenamento e distribuição dos dados de monitoramento. Os resultados experimentais mostram o potencial da arquitetura proposta. O DASFlow obteve menores tempos de resposta para o processamento das consultas mais frequentes que variam entre 13% e 34%, se comparados à ferramenta NfSen/Nfdump. Adicionalmente, a adoção de um sistema de arquivos distribuído mostrase eficaz ao prover escalabilidade para o armazenamento dos dados de monitoramento de rede. / Abstract: Network monitoring is one of the activities of the network management field, in which one collects, stores, processes and analyzes monitoring data. It relies on tools that implement such functionalities. Many of these tools are based on a centralized architecture, and among them is NfSen/Nfdump. NfSen/Nfdump is widely used among network administrators, due to a good documentation and the fact that it is open source. The centralized model has some limitations with respect to scalability, which are inherent to the architecture. One of them is the lack of redundancy, single point of failure and the absence of load balancing. As a result, centralized architecture tools are subject to the some limitations. That is, storage capacity is limited as well as the ability to collect and process data. Solutions to solve these problems, based on data compression and distributed data storage, can be found in the literature. In this dissertation, we propose a distributed architecture called DASFlow, which provides scalability for data collection, storage and processing. In this regard, the architecture defines the StoreDAS-Cliente and StoreDASServidor modules, which work together with a distributed file system (DFS) in order to provide data collection and storage scalability. Processing scalability is provided by the QueryDAS-Cliente and QueryDAS-Servidor modules. The architecture also contains a Metadata module, responsible for keeping the information about storage and distribution of monitoring data. The architecture has been implemented with the NfSen/Nfdump network monitoring tool and Ceph distributed file system. The experimental results show that the DASFlow architecture has achieved shorter response times for the processing of the most frequent queries, which vary between 13% and 34%, if compared to the original NfSen/Nfdump tool. Additionally, the use of a distributed file system has proved to be efficient in providing scalability for the storage of network monitoring data.
|
388 |
Um modelo para gerenciamento de transações com controle de cache em um repositório chave-valorOliveira, Wendel Muniz de January 2017 (has links)
Orientadora : Profª. Drª. Carmem Satie Hara / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2017 / Inclui referências : p. 48-50 / Resumo: As estratégias mais comuns para alocação de dados em sistemas distribuídos são as tabelas de dispersão distribuídas (DHT) e os sistemas de diretórios distribuídos. As DHTs garantem escalabilidade, porém não dão às aplicações usuárias controle sobre a localidade dos dados. Por outro lado, os diretórios distribuídos mantêm o mapeamento entre os itens alocados e os servidores que compõem o sistema, o que garante flexibilidade de alocação, mas com escalabilidade limitada. Em um Sistema Gerenciador de Banco de Dados (SGBD), o controle sobre a localidade pode garantir a proximidade dos dados que são frequentemente acessados de forma conjunta nas consultas, com o intuito de reduzir acessos remotos que aumentam o tempo de execução. O ALOCS é um sistema desenvolvido sobre diretórios distribuídos que tem por finalidade ser utilizado como backend de armazenamento de um SGBD. Ele adota o conceito de buckets, compostos por um conjunto de pares chave-valor, como unidade de comunicação de dados entre servidores. Dessa forma, a aplicação usuária pode alocar em um mesmo bucket pares que são frequentemente utilizados em conjunto. Para minimizar ainda mais a quantidade de comunicação, o ALOCS mantém buckets previamente acessados em cache. A utilização de cache pode gerar problemas para a consistência dos dados quando vários servidores mantêm em cache buckets com dados atualizados. O objetivo desta dissertação é desenvolver uma solução para manter a consistência entre os dados atualizados em cache e o sistema de armazenamento distribuído. A solução é baseada no modelo de concorrência multiversão, com transações que garantem o isolamento por snapshot. Ele foi escolhido por sua abordagem otimista e por não bloquear transações somente de leitura. O sistema foi implementado e os experimentos mostram o impacto da alocação de dados sobre o desempenho do sistema, bem como o overhead do protocolo de controle de concorrência sobre o tempo de recuperação e escrita de dados. Os resultados demonstraram a importância do controle sobre a localidade dos dados. O uso do cache foi determinante para reduzir o tempo de execução das consultas. Palavras-chave: controle de concorrência, controle de localidade, cache. / Abstract: The most common strategies for data allocating in distributed systems are Distributed Hash Tables (DHT) and Distributed Directory Systems. DHTs guarantee scalability but do not allow control over data location to user applications. On the other hand, distributed directories store the location of data items, that is, a mapping between the stored data and servers that compose the system. This strategy guarantees flexibility of allocation but limits its scalability. In a Database Management Systems (DBMS), control over data locality can ensure the proximity of data that are frequently accessed together in queries in order to reduce the number of remote accesses that increase their execution time. ALOCS is a system developed on distributed directories to be used as a storage backend for DBMSs. It adopts the concept of buckets, composed by a set of key-value pairs, as the communication unit between servers. In this way, the user application can allocate pairs that are often used together in the same bucket. To further minimize the amount of communication, ALOCS maintains previously accessed buckets in cache. Caching can cause problems for data consistency when multiple servers cache buckets with updated data. The main objective of this dissertation is to develop a solution to maintain the consistency of the updated data in the cache and the storage system. The solution is based on a multiversion concurrency control with snapshot isolation. It has been chosen for its optimistic approach and non-blocking read-only transactions. The system was implemented and our experiments show the impact of data allocation on the system performance as well as the overhead of the concurrency control protocol on the data recovery and writing time. The results show the importance of allocation control on reducing the execution time of queries. Moreover, they show that caching is crucial to reduce the query execution time. Keywords: concurrency control, locality control, cache.
|
389 |
Ambiente interativo tangível de baixo custo para apoio ao letramento BrailleForcelini, Patric Galera January 2017 (has links)
Orientadora : Profª. Drª. Laura Sánchez García / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 21/09/2017 / Inclui referências : f. 82-87 / Resumo: O interesse pelo uso do braille e o domínio do mesmo por parte da população cega tem apresentado queda significativa, caracterizando o fenômeno de "desbraillização". A popularização de leitores de tela facilitou o acesso à informação dos cegos mediado pela tecnologia, porém contribuiu ao mesmo tempo com a diminuição de uso do braille. Diante disso, é importante fornecer uma síntese tecnológica que alie ambos os paradigmas, tanto a manipulação do braille como a síntese de voz. Para tanto, buscou-se como objetivo especificar e instanciar uma arquitetura tangível, extensível e de baixo custo para apoiar práticas de letramento em braille. Este trabalhou foi fundamentado em teorias no domínio do braille e na Interação Humano-Computador, especialmente na linha de Interfaces Tangíveis de Usuário. Foi conduzida uma revisão bibliográfica das propostas tecnológicas que podem apoiar o letramento braille e feita uma análise a partir de um método elaborado para classificar tecnologias braille com base em nove perguntas. Um protótipo funcional da arquitetura especificada foi implementado, com entrada por visão computacional de uma interface tangível com regras visuais também especificadas, para a avaliação com 4 pessoas cegas alfabetizadas em braille. As avaliações foram conduzidas com 4 cenários de tarefas pré-estabelecidos, de forma a observar um conjunto planejado de variáveis em cada contexto. Os resultados obtidos apresentaram a aceitação do conceito tangível pela amostra de participantes, indicando que o uso de um mesmo artefato tangível minimalista representando o braille, para fornecer a entrada em aplicações criativas e interativas com feedback auditivo é viável e motivador aos usuários. Tal resultado, representando uma tecnologia que une a leitura de voz sintética com a manipulação de celas braille, destaca-se como uma alternativa de baixo custo para estimular o uso do braille em contextos motivadores e, consequentemente, para ser apropriada no combate à desbraillização. Como conclusão, a viabilidade técnica foi mostrada pelos resultados, abrindo oportunidade para futuros redesigns que se aproximem das necessidades de tarefas para o público cego por meio de práticas de design participativo. Palavras-chave: braille, interface tangível, letramento, IHC. / Abstract: The interest in the use of braille and the domain of the same by the blind population has presented a considerable drop, characterizing a phenomenon of braille literacy crisis. The rise of screen readers facilitated the access to information, mediated by technology, by the blind, but at the same time contributed to the decrease on braille usage. It is important to provide a technological synthesis that aligns both paradigms, braille manipulation and speech synthesis. To do so, it was tried to specify and instantiate a tangible, extensible and low-cost architecture to support braille literacy practices. We looked for theoretical foundations in the fields of braille and Human-Computer Interaction, specially in the area of tangible user interfaces. A literature review was conducted on the technological proposals that can support Braille literacy and an analysis based on a method developed to classify braille technologies based on nine questions. It was implemented a functional prototype of the specified architecture, with input by computer vision of a tangible interface with also specified visual rules, for the evaluation with 4 blind people literate in braille. Evaluations were conducted with 4 pre-set task scenarios, in order to observe a planned set of variables in each context. The results showed acceptance of the tangible concept by the sample of participants, indicating that the use of a minimalist tangible artifact representing braille, to provide input in creative and interactive applications with auditory feedback is feasible and motivating to the users. This result, representing a technology that links synthetic speech reading with the manipulation of Braille cells, stands out as a low-cost alternative to stimulate the use of Braille in motivating contexts and, consequently, to be appropriated in the fight against braille literacy crisis. As a conclusion, technical feasibility was shown by the results, opening up opportunity for future redesigns that approach the task needs of the blind public through participatory design practices. Keywords: braille, tangible interface, literacy, HCI.
|
390 |
FGSCM : uma abordagem de omissão de lock transacional com granularidade fina na resolução de conflitos /Sousa, Gustavo José de. January 2017 (has links)
Orientador: Alexandro José Baldassin / Banca: Orlando de Andrade Figueiredo / Banca: Rodolfo Jardim de Azevedo / Resumo: Omissão de lock é uma técnica onde operações de aquisição e liberação de lock são omitidas (especulação) de forma a permitir que regiões críticas compartilhando um mesmo lock possam executar concorrentemente, permitindo assim se explorar um nível maior de concorrência em programas que utilizam esse método popular de sincronização. Para se manter o princípio de atomicidade, as modificações no estado do programa realizadas pela região crítica são mantidas em um buffer interno e são efetivadas apenas ao fim da mesma. Em caso de inconsistências, diferentes políticas em como proceder são possíveis, o que diferencia as diversas abordagens de omissão de lock encontradas na literatura. Por exemplo, a abordagem original, Speculative Lock Elision (SLE), que é implementada no nível microarquitetural, recorre a adquirir o lock de forma tradicional quando uma especulação falha. Em algumas situações, esta política conservadora acaba por restringir o ganho em desempenho originalmente pretendido por impor um volume de sincronização desnecessário (lemming effect). Uma forma de superar tal limitação é o emprego de omissão de lock transacional (Transactional Lock Elision, em inglês), onde a especulação de regiões críticas se dá por meio de transações e o controle de execução é devolvido ao software em eventos de transações abortadas, o que permite que diferentes estratégias sejam empregadas com o objetivo de permitir execução concorrente mesmo em presença de falha de especulação. Neste contexto... / Abstract: Lock elision is a technique that omits acquire/release lock operations (speculation) so as to allow critical regions sharing the same lock to run concurrently, which yields a higher level of concurrency explored by programs that use such popular synchronization mechanism. In order to honor atomicity, modifications on the program's state made by the critical regions are kept in an internal buffer and only applied at the end of the speculation. If inconsistency is found, different policies on how to proceed are possible, which make up the several existing approaches found in the literature. As an example, the original one, namely Speculative Lock Elision (SLE), which is implemented at the level of microarchitecture, falls back to acquire the lock in a standard manner when there is speculation error. In some situations, such conservative policy ends up restricting the intended performance gains due to the unnecessary synchronization imposed (lemming effect). A way to address this issue is through Transactional Lock Elision (TLE) techniques, in which speculation of critical regions is done by means of transactions and execution control is passed back to software on abort events, which makes possible the use of different strategies to allow concurrent execution even in presence of speculation error. In this context, one possible approach is called Software-assisted Conflict Management (SCM), where an auxiliary lock is used to serialize aborted transactions and, as such, keep the original one free, so that others may proceed on their execution. The work presented in this document proposes an extension of SCM, called Fine-grained Software-assisted Conflict Management (FGSCM), where multiple auxiliary locks are applied in order to allow transactions aborted due to conflict on different regions of memory to be executed concurrently. The proposed algorithm was implemented by using ... / Mestre
|
Page generated in 0.0703 seconds