Spelling suggestions: "subject:"armazenamento dde dados"" "subject:"armazenamento dee dados""
51 |
Arquitetura de armazenamento de dados para Sistemas de Informação Geográfica Voluntária utilizando Banco de Dados NoSQL baseado em documentoMaia, Daniel Cosme Mendonça 28 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2016-10-13T18:21:13Z
No. of bitstreams: 1
2016_DanielCosmeMendonçaMaia.pdf: 5698597 bytes, checksum: a4393d66fdae7e91d25b9a47e5264457 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-11-24T11:33:13Z (GMT) No. of bitstreams: 1
2016_DanielCosmeMendonçaMaia.pdf: 5698597 bytes, checksum: a4393d66fdae7e91d25b9a47e5264457 (MD5) / Made available in DSpace on 2016-11-24T11:33:13Z (GMT). No. of bitstreams: 1
2016_DanielCosmeMendonçaMaia.pdf: 5698597 bytes, checksum: a4393d66fdae7e91d25b9a47e5264457 (MD5) / A plataforma Web 2.0 e as tecnologias móveis, como smartphones equipados com receptores GPS, possibilitaram uma mudança na maneira de capturar dados geográficos, contribuindo para a concepção do fenômeno dos Sistemas de Informação Geográfica Voluntária (SIGV). A partir do crescimento do número de indivíduos que criam e compartilham dados espaciais, e da possibilidade de armazenar uma grande quantidade de dados, em diversos formatos, os SIGV devem resolver algumas questões sobre como a informação pode ser armazenada e gerenciada de maneira eficiente em ambiente digital. Este trabalho visa especificar uma arquitetura de armazenamento de dados para SIGV utilizando Banco de Dados NoSQL que atenda aos requisitos de escalabilidade e heterogeneidade de dados. Para validação da arquitetura, duas provas de conceito foram apresentadas e implementadas, onde realizou-se a comparação de desempenho dos bancos de dados PostgreSQL, CouchDB e MongoDB, nas operações de inserção e leitura de dados em aplicações de SIGV. A análise das provas de conceito busca verificar a viabilidade da adoção dos bancos de dados NoSQL baseados em documento como uma alternativa para uma arquitetura de armazenamento de dados para SIGV. _________________________________________________________________________________________________ ABSTRACT / The Web 2.0 platform and mobile technologies, such as smartphones equipped with GPS receivers, allowed a change in the way to capture geographic data, contributing to the design of the phenomenon of the Voluntary Geographic Information Systems (VGIS). From the growing number of individuals who create and share spatial data, and the ability to store a lot of data in various formats, VGIS should solve some questions about how the information can be stored and managed efficiently at digital environment. This work is to specify a data storage architecture for VGIS using NoSQL database that meets requirements of scalability and heterogeneity of data. For architecture validation, two proofs of concept were presented and implemented, where made the comparison of performance of PostgreSQL, CouchDB and MongoDB databases, in the operations of insertion and reading of data in VGIS applications. The analysis of the proofs of concept seeks to verify the viability of the adoption of document-based NoSQL databases as an alternative to a data storage architecture for VGIS.
|
52 |
Avaliação de representações transformadas para compressão de sinais de eletroencefalografia, com base em análise de componentes principais, decomposições wavelet, transformada discreta de cossenos e compressive sensingTôrres, Filipe Emídio 19 March 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2018. / Submitted by Fabiana Santos (fabianacamargo@bce.unb.br) on 2018-08-30T19:08:22Z
No. of bitstreams: 1
2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-09-10T18:37:59Z (GMT) No. of bitstreams: 1
2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5) / Made available in DSpace on 2018-09-10T18:37:59Z (GMT). No. of bitstreams: 1
2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5)
Previous issue date: 2018-08-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / Os sinais de eletroencefalografia (EEG) podem ser utilizados para aplicações clínicas, como análises de níveis de sono, diagnósticos e acompanhamento de epilepsia, monitoramento e reabilitação. Esse tipo de sinal também é usado no contexto de interação cérebro-máquina (BCI do inglês, Brain Computer Interface), e seu uso é crescente em várias aplicações deste tipo, como controle de cadeiras de rodas, computadores e automóveis. Sendo assim, existem problemas comumente encontrados, por exemplo, na aquisição desse sinal. Muitas das vezes são necessárias de dezenas a centenas de eletrodos, além de que podem ocorrer falhas de contato exigindo trocas periódicas ou renovação de gel condutor. Outras dificuldades encontradas dizem respeito ao armazenamento e transmissão desses dados em dispositivos móveis e com restrição de consumo de energia. Portanto, existem técnicas de processamento de sinais diversas que podem diminuir o número de sensores necessários e reduzir os custos de armazenamento e transmissão. A proposta desta pesquisa é implementar e avaliar o Compressive Sensing (CS) e mais outras 4 técnicas aplicadas à compressão de sinais de EEG, visando compará-las quanto ao nível de esparsificação e à qualidade de sinais reconstruídos a partir da mesma quantidade de coeficientes. As técnicas utilizadas são o CS, a análise de componentes principais (PCA), análise de componentes independentes (ICA), 30 famílias de wavelets implementadas com base em bancos de filtros de decomposição e a transformada discreta de cossenos (DCT). O CS é destas técnicas a mais recentemente desenvolvida e apresenta possíveis vantagens na fase de aquisição com relação às demais, e o trabalho deseja avaliar sua viabilidade. Para a avaliação são considerados dois bancos de dados de sinais reais, um de polissonografia chamado Sleep Heart Health Study e um estudo em crianças do Instituto de Tecnologia de Massachusetts (MIT), ambos disponíveis publicamente. O estudo se baseia na transformação, quantização, codificação e em seus processos inversos para reconstrução do sinal. A partir dos resultados são realizadas comparações entre os sinais reconstruídos utilizando as diferentes representações escolhidas. Para a comparação, são usadas métricas quantitativas de razão do sinal-ruído (SNR), fator de compressão (CF), um tipo de diferença percentual residual (PRD1) e medidas de tempo.Foi observado que os algoritmos podem reconstruir os sinais com menos de 1=3 dos coeficientes originais dependendo da técnica utilizada. Em geral a DCT e a PCA têm um melhor resultado contra as outras nas métricas utilizadas. Porém cabe ressaltar que o CS permite menor custo de aquisição, possivelmente requisitando um hardware mais simples para isso. De fato, toda a aquisição realizada com base em CS pôde ser feita com medidas obtidas usando apenas soma dos sinais dos eletrodos, sem perdas em relação a matrizes de medidas que envolvem também multiplicações. Admitindo, por exemplo, uma reconstrução a partir de 50% do número de coeficientes do sinal no banco do MIT, a DCT conseguiu uma relação de SNR de 27; 8 dB entre o sinal original e a reconstrução. O PCA teve 24; 0 dB e as melhores wavelets ficaram na faixa dos 19 dB, já o CS com 8; 3 dB e o ICA apenas 1; 1 dB. Para esse mesmo banco, com 50% de CF, o PRD1 resultou em 27; 8% na DCT, 24; 0% na PCA, 17; 2% na wavelet biortogonal 2.2, 8; 3% no CS–10 e 1; 1% no ICA. Portanto, o estudo e uso do CS é justificado pela diferença de complexidade da fase de aquisição com relação a outras técnicas, inclusive tendo melhores resultados do que algumas delas. Na próxima etapa da pesquisa, pretende-se avaliar a compressão multicanal, para verificar o desempenho de cada técnica ao explorar a redundância entre os canais. Além de ferramentas que possam ajudar no desempenho do CS, como fontes de informação a priori e pré-filtragem dos sinais. / Electroencephalography (EEG) signals can be used for clinical applications such as sleep level analysis, diagnosis and monitoring of epilepsy, monitoring and rehabilitation. This type of signal is also used in the context of the Brain Computer Interface (BCI), and its use is increasing in many applications of this type, such as wheelchair, computer and automobile control. Thus, there are problems commonly encountered, for example, in the acquisition of this signal. Often times, it is necessary tens to thousands of electrodes, besides of contact failures may occur requiring periodic changes or conductive gel renewal. Other difficulties encountered relate to the storage and transmission of this data in mobile devices and with restricted energy consumption. Therefore, there are several signal processing techniques that can reduce the number of sensors required and also save storage and transmission costs. The purpose of this research is to implement and evaluate the Compressive Sensing (CS) and other 4 techniques applied to the compression of EEG signals, in order to compare them with the level of scattering and the quality of reconstructed signals from the same number of coefficients. The techniques used are CS, Principal Component Analysis (PCA), Independent Component Analysis (ICA), 30 families of wavelets implemented on the basis of decomposition filter banks and DCT (discrete cosine transform). CS is one of the most recently developed techniques and presents possible advantages in the acquisition phase in relation to the others, and the work wants to evaluate its viability. Two real-signal databases, a polysomnography called the Sleep Heart Health Study and one study of children at the Massachusetts Institute of Technology (MIT), both publicly available, are considered for the evaluation. The study is based on transformation, quantization, coding and its inverse processes for signal reconstruction. From the results are made comparisons between the reconstructed signals using the different representations chosen. For comparison, quantitative measurements of signal-to-noise ratio (SNR), compression factor (CF), a type of residual percentage difference (PRD1), and time measurements are used. It was observed that the algorithms can reconstruct the signals with less than 1/3 of the original coefficients depending on the technique used. In general, DCT and PCA have a better result comparing the others depending the metrics used. However, it is worth mentioning that CS allows lower cost of acquisition, possibly requesting a simpler hardware for this. In fact, all the acquisition based on CS could be done with measurements obtained using only the sum of the signals of the electrodes, without losses in relation to matrices of measures that also involve multiplications. Assuming, for example, a reconstruction from 50 % of the number of signal coefficients in the MIT database, the DCT achieved a SNR ratio of 27:8 dB between the original signal and the reconstruction. The PCA had 24:0 dB and the best wavelets were in the 19 dB range, the CS with 8:3 dB and the ICA only 1:1 dB. For this same database, with 50 % of CF, PRD1 resulted in 27:8% by DCT, 24:0% by PCA, 17:2% by biortogonal wavelet 2.2, 8:3% by CS–10 and 1:1% by ICA. Therefore, the study and use of CS is justified by the difference in complexity of the acquisition phase in relation to other techniques, including having better results than some of them. In the next step of the research, it is intended to evaluate the multichannel compression, to verify the performance of each technique when exploring the redundancy between the channels. In addition to tools that can help in the performance of the CS, as sources of information a priori and pre-filtering the signals.
|
53 |
Extração de contornos de telhados de edifícios a partir da integração de imagem aérea de alta-resolução e dados LASER, utilizando campos aleatórios de Markov /Fernandes, Vanessa Jordão Marcato. January 2016 (has links)
Orientador: Aluir Porfírio Dal Poz / Banca: Mauricio Galo / Banca: Julio Kiyoshi Hasegawa / Banca: Daniel Rodrigues dos Santos / Resumo: Esse trabalho propõe o desenvolvimento de um método para a extração automática de contornos de telhados de edifícios com a combinação de dados de Varredura a LASER Aerotransportado (VLA) e dados fotogramétricos e campos aleatórios de Markov (MRF). Inicialmente, um Modelo Digital de Superfície normalizado (MDSn) é gerado através da diferença entre o Modelo Digital de Superfície (MDS) e o Modelo Digital de Terreno (MDT), obtidos a partir da nuvem de pontos LASER. Em seguida, o MDSn é segmentado para a obtenção dos polígonos que representam objetos altos da cena. Esses polígonos são projetados na imagem para restringir o espaço de busca para a segmentação da imagem em regiões. Esse processo possibilita a extração de polígonos na imagem que representem objetos altos. O processo de identificação de contornos de telhados, em meio aos objetos altos detectados na imagem, na etapa anterior, é realizado através da otimização de uma função de energia estabelecida com base em MRF que modela propriedades específicas de contornos de telhados de edifícios. No modelo MRF são utilizados tanto os polígonos extraídos da imagem quanto os extraídos dos dados VLA. A função de energia é otimizada pelo método Algoritmo Genético (AG). O método proposto nesse trabalho foi avaliado com base em dados reais - imagens aéreas de alta resolução e dados VLA. Os resultados obtidos na avaliação experimental mostraram que a metodologia funciona adequadamente na tarefa de extrair os contornos de telhados de edif... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This paper proposes a method for the automatic extraction of building roof contours through a combination of Airborne Laser Scanner (ALS) and photogrammetric data, and Markov Random Field (MRF). Initially, a normalized digital surface model (nDSM) is generated on the basis of the difference between the digital surface model and the digital terrain model, obtained from the LiDAR point cloud. Then the nDSM is segmented to obtain the polygons representing aboveground objects. These polygons are projected onto image to restrict the search space for image segmentation into regions. This process enables the extraction of polygons in the image representing aboveground objects. Building roof contours are identified from among the aboveground objects in the image by optimizing a Markov-random-field-based energy function that embodies roof contour specific properties. In the MRF model are used both polygons extracted from image and from ALS data. The energy function is optimized by the Genetic Algorithm (GA) method. The method proposed in this work was evaluated based on real data - high-resolution aerial images and ALS data. The results obtained in the experimental evaluation showed that the methodology works adequately in the task of extracting the contours of building roofs... (Complete abstract click electronic access below) / Doutor
|
54 |
Uma abordagem para um plano de gestão de fluxo de dados na TV UnespAzevedo, Maria Lucia de [UNESP] 01 March 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:05Z (GMT). No. of bitstreams: 0
Previous issue date: 2013-03-01Bitstream added on 2014-06-13T20:31:00Z : No. of bitstreams: 1
azevedo_ml_me_bauru.pdf: 1192504 bytes, checksum: caa47c49b42b57b0fd270e7f55d2a65d (MD5) / Recentemente os arquivos audiovisuais começaram a ser tratados como ativos das empresas de comunicação, possibilitando também a sua utilização como fontes rentáveis. Pasaram então a receber os cuidados adequados justificando os investimentos, permitindo assim a geração, o acesso e o manuseio destes conteúdos em boas condições. Por suas características, o conteúdo televisivo gera também demanda na questão do seu armazenamento e na segurança do fluxo de dados trafegados entre a emissora, o usuário e a té entre outras emissoras, o usuário e até entre outras emissoras. A evolução da tecnologia da informação e comunicação (TIC) permite transferências e armazeanmento de grandes quantidades de bytes. Gerenciar arquivos adequadamente pode garantir diminuição de custos em hardware e provocar acesso rápido e seguro na busca dos mesmos, bem como a virtualização (separação das aplicações e sistemas operacionais dos componentes físicos), motivando grande demanda de estudos referentes a este tema. Em uma emissora de televisão digital é necessário que filmes, programas , documentários, propagandas, dentre outros conteúdos, estejam disponíveis em arquivos em formato digital, e isto leva à necessidade de utilização de equipamentos que armazenem massiva quantidade de dados com segurança, os denominados computer data storage ou simplesmente storage. A segurança é um ponto primordial, pois esta deve definir como proteger adequadamente os dados armazenados no storage contra ataques, roubos de arquivos, utilização não autorizada de recursos e aplicações e invasões de hackers . No estudo desenvolvido observou-se o fluxo de dados da TV Unesp, onde foi avaliado desde o ingest até o playout, ou seja, como o conteúdo de informações gravadas por câmeras é transformado em dados até a sua transmissão final para o telespectador. A TV Unesp, emissora universitária bauruense, começou a transmitir sua... / In recent years, communication companies have been regarding their audiovisual files as assets, enabling their use as profitable sources. They have been given proper care, thus justifying the investments and creating an efficient access to them. Their visual content demands specific storage and dataflow security in the transit through the bradcasting station, the user and other station, the user and other stations. The technological evolution nowadays capacitates the conveyance and storage of large quantities of bytes. Adequate file management means hardware cost reduction, safe and fast search as well as virtualization (separation of application and operational systems from physical components). Consequently, oriented studies on the topic are in great demand. Aty a digital television broadcasting company the movies, programs, documentaries and advertising must be in the digital format. For that purpose, it is necessary to use equipment that can store massive quantities of data in a safe way: the 'computer data storage', or simply 'storage'. One must know the real needs of a digital television broadcasting station and establish the procedures in order to make the storage easy to access. Security is the crucial point, defining how to protect adequately the stored data from attacks, file robbery, hackers and the non-authorized use of resources and applications. In this specific study on the Unesp TV dataflow, both the ingest and playout were verified; that is, how the information recorded on camera is turned into data all the way to their transmission to the viewer. Unesp TV - a university broadcasting station from Bauru, Brazil - started its transmission in 2012, generating and storing data in the digital format. The report of the current dataflow as research and is storage by Unesp TV are the basis for a preparation of a management plan for data stream TV broadcasting on Digital, in compliance with the technological policies...
|
55 |
Ambiente independente de idioma para suporte a identificação de tuplas duplicadas por meio da similaridade fonética e numérica: otimização de algoritmo baseado em multithreadingAndrade, Tiago Luís de [UNESP] 05 August 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0
Previous issue date: 2011-08-05Bitstream added on 2014-06-13T19:38:58Z : No. of bitstreams: 1
andrade_tl_me_sjrp.pdf: 1077520 bytes, checksum: 1573dc8642ce7969baffac2fd03d22fb (MD5) / Com o objetivo de garantir maior confiabilidade e consistência dos dados armazenados em banco de dados, a etapa de limpeza de dados está situada no início do processo de Descoberta de Conhecimento em Base de Dados (Knowledge Discovery in Database - KDD). Essa etapa tem relevância significativa, pois elimina problemas que refletem fortemente na confiabilidade do conhecimento extraído, como valores ausentes, valores nulos, tuplas duplicadas e valores fora do domínio. Trata-se de uma etapa importante que visa a correção e o ajuste dos dados para as etapas posteriores. Dentro dessa perspectiva, são apresentadas técnicas que buscam solucionar os diversos problemas mencionados. Diante disso, este trabalho tem como metodologia a caracterização da detecção de tuplas duplicadas em banco de dados, apresentação dos principais algoritmos baseados em métricas de distância, algumas ferramentas destinadas para tal atividade e o desenvolvimento de um algoritmo para identificação de registros duplicados baseado em similaridade fonética e numérica independente de idioma, desenvolvido por meio da funcionalidade multithreading para melhorar o desempenho em relação ao tempo de execução do algoritmo. Os testes realizados demonstram que o algoritmo proposto obteve melhores resultados na identificação de registros duplicados em relação aos algoritmos fonéticos existentes, fato este que garante uma melhor limpeza da base de dados / In order to ensure greater reliability and consistency of data stored in the database, the data cleaning stage is set early in the process of Knowledge Discovery in Database - KDD. This step has significant importance because it eliminates problems that strongly reflect the reliability of the knowledge extracted as missing values, null values, duplicate tuples and values outside the domain. It is an important step aimed at correction and adjustment for the subsequent stages. Within this perspective, techniques are presented that seek to address the various problems mentioned. Therefore, this work is the characterization method of detecting duplicate tuples in the database, presenting the main algorithms based on distance metrics, some tools designed for such activity and the development of an algorithm to identify duplicate records based on phonetic similarity numeric and language-independent, developed by multithreading functionality to improve performance over the runtime of the algorithm. Tests show that the proposed algorithm achieved better results in identifying duplicate records regarding phonetic algorithms exist, a fact that ensures better cleaning of the database
|
56 |
Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem /Bachiega, Naylor Garcia. January 2014 (has links)
Orientador: Roberta Spolon / Banca: Antonio Carlos Sementille / Banca: Luís Carlos Trevelin / Resumo: Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / Abstract: In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment / Mestre
|
57 |
Sistema de arquivos distribuído flexível e adaptável /Fernandes, Silas Evandro Nachif. January 2012 (has links)
Orientador: Renata Spolon Lobato / Banca: Sarita Mazzini Bruschi / Banca: Norian Marranghello / Resumo: Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / Abstract: With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files / Mestre
|
58 |
Uma abordagem para um plano de gestão de fluxo de dados na TV Unesp /Azevedo, Maria Lucia de. January 2013 (has links)
Orientador: João Pedro Albino / Banca: Maria Cristina Gobbi / Banca: David Bianchini / Resumo: Recentemente os arquivos audiovisuais começaram a ser tratados como ativos das empresas de comunicação, possibilitando também a sua utilização como fontes rentáveis. Pasaram então a receber os cuidados adequados justificando os investimentos, permitindo assim a geração, o acesso e o manuseio destes conteúdos em boas condições. Por suas características, o conteúdo televisivo gera também demanda na questão do seu armazenamento e na segurança do fluxo de dados trafegados entre a emissora, o usuário e a té entre outras emissoras, o usuário e até entre outras emissoras. A evolução da tecnologia da informação e comunicação (TIC) permite transferências e armazeanmento de grandes quantidades de bytes. Gerenciar arquivos adequadamente pode garantir diminuição de custos em hardware e provocar acesso rápido e seguro na busca dos mesmos, bem como a virtualização (separação das aplicações e sistemas operacionais dos componentes físicos), motivando grande demanda de estudos referentes a este tema. Em uma emissora de televisão digital é necessário que filmes, programas , documentários, propagandas, dentre outros conteúdos, estejam disponíveis em arquivos em formato digital, e isto leva à necessidade de utilização de equipamentos que armazenem massiva quantidade de dados com segurança, os denominados computer data storage ou simplesmente storage. A segurança é um ponto primordial, pois esta deve definir como proteger adequadamente os dados armazenados no storage contra ataques, roubos de arquivos, utilização não autorizada de recursos e aplicações e invasões de hackers . No estudo desenvolvido observou-se o fluxo de dados da TV Unesp, onde foi avaliado desde o "ingest" até o "playout", ou seja, como o conteúdo de informações gravadas por câmeras é transformado em dados até a sua transmissão final para o telespectador. A TV Unesp, emissora universitária bauruense, começou a transmitir sua... / Abstract: In recent years, communication companies have been regarding their audiovisual files as assets, enabling their use as profitable sources. They have been given proper care, thus justifying the investments and creating an efficient access to them. Their visual content demands specific storage and dataflow security in the transit through the bradcasting station, the user and other station, the user and other stations. The technological evolution nowadays capacitates the conveyance and storage of large quantities of bytes. Adequate file management means hardware cost reduction, safe and fast search as well as virtualization (separation of application and operational systems from physical components). Consequently, oriented studies on the topic are in great demand. Aty a digital television broadcasting company the movies, programs, documentaries and advertising must be in the digital format. For that purpose, it is necessary to use equipment that can store massive quantities of data in a safe way: the 'computer data storage', or simply 'storage'. One must know the real needs of a digital television broadcasting station and establish the procedures in order to make the storage easy to access. Security is the crucial point, defining how to protect adequately the stored data from attacks, file robbery, hackers and the non-authorized use of resources and applications. In this specific study on the Unesp TV dataflow, both the ingest and playout were verified; that is, how the information recorded on camera is turned into data all the way to their transmission to the viewer. Unesp TV - a university broadcasting station from Bauru, Brazil - started its transmission in 2012, generating and storing data in the digital format. The report of the current dataflow as research and is storage by Unesp TV are the basis for a preparation of a management plan for data stream TV broadcasting on Digital, in compliance with the technological policies... / Mestre
|
59 |
Hy-SAIL : uma nova abordagem para distribuição e armazenamento de informações em ambientes de computação em nuvem / Hy-SAIL : a novel approach for distributing and storing data in cloud computing enviromentAmaral, Dino Macedo 26 November 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-05-07T15:31:29Z
No. of bitstreams: 1
2013_DinoMacedoAmaral.pdf: 5703112 bytes, checksum: 80101cbb06e3774e8a18678c5d2b4ea1 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-05-26T14:58:01Z (GMT) No. of bitstreams: 1
2013_DinoMacedoAmaral.pdf: 5703112 bytes, checksum: 80101cbb06e3774e8a18678c5d2b4ea1 (MD5) / Made available in DSpace on 2014-05-26T14:58:01Z (GMT). No. of bitstreams: 1
2013_DinoMacedoAmaral.pdf: 5703112 bytes, checksum: 80101cbb06e3774e8a18678c5d2b4ea1 (MD5) / A preocupação com os dados armazenados em um ambiente de Computação em Nuvem tem sido amplamente discutido. Entre os desafios, há o problema de garantir a integridade e recuperabilidade dos dados armazenados remotamente. Com o objetivo de preencher esta lacuna, a comunidade de criptografia tem proposto alguns conceitos, entre eles: PDP (Prova de Possessão de Dados), PoW (Prova de Propriedade) e PoR (Prova de Recuperabilidade). Neste documento, fie proposto um novo esquema de PoR: Hy-SAIL (Hyper-Scalability, Availability and Integrity Layer). Nesta proposta, um PoR fie projetado e implementado usando Online Codes, um caso especial de Fountain Codes, . Para executar as verificações de integridade, propriedades em um Corpo de Galois, GF(2n), são usadas para construir um MAC com propriedade XOR homomórfica. Foi demonstrado que o Hy-SAIL é um sistema criptográfico seguro e escalável para fornecer disponibilidade dos dados armazenados remotamente, atendendo fias exigências no que tange fias complexidades de comunicação, armazenamento e processamento. Para tanto, apresenta-se um novo modelo adversarial que concentra as principais funcionalidades de um adversário realístico para ambientes de Computação em Nuvem, chamado de Modelo de Corrupção Limitada. É provado analiticamente que o Hy-SAIL possui segurança demonstrável nesse modelo adversarial, e que a probabilidade de ataque à este esquema é assintonticamente desprezível. São mostrados também os resultados experimentais coletados da implementação do Hy-SAIL, confirmando a prova analítica. _______________________________________________________________________________________ ABSTRACT / Cloud computing has gained increasing attention from the industry and research communities. Despite the crucial benefits provided by this new paradigm, some numerous challenges arise. The concern about data stored in the cloud computing environment has been widely discussed, in according to recents events shown in the international media. Among these challenges, there is the problem of ensuring the integrity and retrievability of users' data stored in the cloud. Many definitions has been proposed: PDP (Proof of Data Possession), PoR (Proof of Retrievability), PoW (Proof of Ownership). The difference among them reside in the guarantee to retrieve the data stored remotely. In this paper, we propose a novel cryptographic system: Hy-SAIL (Hyper-Scalability, Availability and Integrity Layer). In the proposed protocol, a new PoR scheme is built using an Online Codes, a special case of Fountain Codes, as building blocks which adds a higher degree of availability of stored data. To perform integrity checks, properties in Galois Field, GF(2n), is used to build a MAC with XOR homomorphic property. It is demonstrated that Hy-SAIL leads to an efficient and scalable cryptographic system that meets near-optimal bounds in the communication, storage and time complexities. Finally, the Bounded Corruption Model, a new adversarial model that aggregates the main functionalities of a realistic adversary in cloud computing environments is proposed. It is proved that Hy-SAIL has provable security in this new approach. It is also shown the results collected of an unoptimized implementation.
|
60 |
Arquiteturas de redes de armazenamento de dados / Storage networks architecturesAlmeida, Ariovaldo Veiga de 26 July 2006 (has links)
Orientador: Nelson Luis Saldanha da Fonseca / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-10T07:17:50Z (GMT). No. of bitstreams: 1
Almeida_AriovaldoVeigade_M.pdf: 2189352 bytes, checksum: 462a8f6e902e4a7c90c190b1322de0e5 (MD5)
Previous issue date: 2006 / Resumo: As Redes de Armazenamento de Dados oferecem aos sistemas computacionais acesso consolidado e compartilhado aos dispositivos de armazenamento de dados, aumentando sua eficiência e disponibilidade. Elas permitem que os dispositivos de armazenamento de dados de diferentes fornecedores, mesmo que usem diferentes protocolos de acesso, possam ser logicamente disponibilizados para acesso. Elas permitem que as funções de gerenciamento de dados, como backup e recuperação, replicação de dados, ambientes de recuperação de desastres, e migração de dados, possam ser realizados de maneira rápida e eficiente, com o mínimo de sobrecarga nos sistemas computacionais. Na década de 80, observou-se a descentralização dos sistemas computacionais que evoluíram dos ambientes centralizados, como no caso dos sistemas mainframe, para plataformas distribuídas, onde os sistemas eram separados em blocos operacionais, com cada um dos blocos realizando uma função específica. Não foram somente os sistemas computacionais que evoluíram, mas também os sistemas de armazenamento de dados evoluiram para arquiteturas distribuídas. A evolução natural dos dispositivos de armazenamento de dados dos sistemas computacionais foi do uso de conexão direta e dedicada aos computadores para uma forma mais flexível e compartilhada. A forma adotada foi através do uso de infra-estruturas das redes de computadores. Este trabalho analisa as tecnologias das redes de armazenamento de dados Storage Área Networks (SAN) e Network Attached Storage (NAS), que são as principais arquiteturas que utilizam as tecnologias de redes para o armazenamento e compartilhamento de dados. Enfoca-se as vantagens decorrentes dessas arquiteturas quando comparadas com a forma tradicional de conexão direta do dispositivo de armazenamento de dados aos computadores, a denominada arquitetura Direct Attached Storage (DAS) / Abstract: Storage Networks offer shared access to data storage devices, increasing the efficiency and the availability of storage data. They allow data storage devices, from different suppliers, using different access protocols, to be logically available for access. They also allow management of data, backup and recovery, data replication, disaster recovery environments, and data migration can be done in a fast and efficient way, with minimum overhead to the computer systems. In the 80¿s, we observed the decentralization of the computational systems. They evolved from a centralized environment to distributed platforms, where systems were separated in operational blocks, with each block executing specific functions. Both the computational systems and the storage envolved to a distributed architecture. The natural evolution of the storage devices was to move from the direct connection to computational systems to a more flexible and shared approach. This happened by the adoption of infrastructures used by computer networks.
This work analyzes Storage Networks architectures: Storage Area Network (SAN) and Network Attached Storage (NAS), which are the main architectures that employ computer networks technologies. We will show the advantages of these architectures compared to the traditional form of direct connection of storage devices to computers, the named Direct Attached Storage (DAS) architecture / Mestrado / Redes de Computadores / Mestre em Computação
|
Page generated in 0.0859 seconds