• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 12
  • 11
  • 11
  • 11
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • Tagged with
  • 81
  • 81
  • 28
  • 22
  • 21
  • 20
  • 17
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Sistema de arquivos distribuído flexível e adaptável

Fernandes, Silas Evandro Nachif [UNESP] 13 April 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-04-13Bitstream added on 2014-06-13T20:51:10Z : No. of bitstreams: 1 fernandes_sen_me_sjrp.pdf: 941362 bytes, checksum: e0e07c896853141b27f27af08088487b (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files
32

Estratégia para extração, transformação e armazenamento em Data Warehouse ativo baseada em políticas configuráveis de propagação de dados

Scarpelini Neto, Paulo [UNESP] 21 February 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-02-21Bitstream added on 2014-06-13T18:39:29Z : No. of bitstreams: 1 scarpelinineto_p_me_sjrp.pdf: 872066 bytes, checksum: 81892b88aa310d76b81d958f0a528616 (MD5) / Em arquiteturas de Data Warehouse os dados são integrados periodicamente por meio da execução de processos de Extração, Transformação e Armazenamento – ETA. A atualização desses dados de forma periódica provoca um problema referente à desatualização das informações, uma vez que as ferramentas ETAs são executadas geralmente uma vez ao dia. A crescente necessidade do mundo corporativo por análises sobre dados cada vez mais recentes evidencia a necessidade de arquiteturas DW que possuam um maior grau de atualização. Nesse contexto, surgiram os DW ativos cujo intervalo de tempo entre as execuções do processo ETAs diminuem significativamente. Para suportar o aumento da frequência das atualizações, surge a necessidade de criação de critérios para priorização dos dados a serem transferidos, uma vez que a transferência de todo e qualquer dado inserido nas fontes pode sobrecarregar os sistemas envolvidos. O trabalho proposto consiste na construção de uma estratégia denominada ETA-PoCon, que tem como objetivo a execução do processo ETA em DW ativos. A estratégia distingue-se das existentes, pois possui políticas configuráveis de propagação de informações com base em parâmetros como intervalo de tempo em que a informação deve ser transferida, volume que deve ser propagado e relevância dos dados em relação às informações contidas no repositório. É demonstrado por meio dos experimentos executados que a aplicação da estratégia proporciona uma redução considerável no número de transferência de dados ao DW, uma vez que em todos os resultados a redução no total de atualizações foi superior a 60% / In Data Warehouse (DW) architectures data are periodically integrated by means of execution of Extraction, Transformation and Load (ETL) processes which lead to the problem of outdated information. The growing necessity in the corporate world for analysis of constantly renewed data bespeaks of the need for DW architectures with higher level of freshness. In that context, active DWs appeared having a significant reduction of the interval of time between the executions of ETL processes. To support the increased frequency of the refreshment it’s necessary to create criteria to prioritise the data to be transferred, since a transfer of all and any data from the sources would overload the systems. This work consists of the construction of a strategy called ETL-PoCon to execute ETL processes in active DWs. The original contribution of this work is to provide a strategy that considerably reduces the quantity of data transfers to active DWs, besides maintaining a satisfactory level of data freshness. Said reduction is obtained by means of configurable policies of data propagation based on parameters such as: the time in which the data must be transferred, the volume to be propagated and the relevance of the data regarding to the information stored in the DW. Experiments have shown that the ETL-PoCon strategy significantly contributes towards a reduction of the overload on the systems involved in the active DW environment, since all results presented a reduction higher than 60% in the amount of DW refreshments
33

Jornalismo de dados na web : estudo da produção de sentido na infografia do Blog do Estadão Dados e do La Nación Data Blog /

Rodrigues, Kelly De Conti. January 2016 (has links)
Orientador: Eliza Bachega Casadei / Banca: Mauro de Souza Ventura / Banca: Elizabeth Nicolau Saad Corrêa / Resumo: O estudo busca compreender a emergência da infografia em base de dados no jornalismo digital, a partir da investigação da estruturação discursiva dos dados textuais e imagéticos. Para isso, a análise empírica foca os casos do Blog Estadão Dados e La Nación Data Blog. Inicialmente, pretende-se definir, a partir de pesquisa bibliográfica e da análise dos casos específicos, o que pode ser considerado jornalismo de banco de dados, bem como as técnicas de composição e a evolução histórica da área da infografia. A pesquisa se guia, sobretudo, pela metodologia da análise do discurso para investigar a construção de sentido na organização de dados estatísticos no jornalismo digital, focando os casos das páginas do Blog Estadão Dados e La Nación Data Blog. A análise contempla as técnicas de organização dos infográficos na internet que são utilizadas para produção dos conteúdos gerados a partir de dados estatísticos, incluindo aqueles apresentados em tabelas e também os que estão dispostos em ilustrações, como mapas, gráficos e outros recursos imagéticos. Foram estudados como os processos de inovação tecnológica impactaram na produção e transmissão de mensagens na organização infográfica na internet analisando o impacto de recursos visuais e interativos que contribuem para a produção de sentido. A presente pesquisa espera contribuir para a reflexão sobre os efeitos semânticos e os processos argumentativos nos objetos selecionados, questionando a visão de narrativa objetiva e de interpr... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research has the intention to understand the emergence of infographics that use databases in digital journalism. We will study the different composition techniques and effects of meaning in the combination between text and image. For this, the empirical analysis will focus on the cases of Estado Data Base Blog and La Nación Data Bolog. Initially, we intend to define, from literature search and analysis of specific cases, what can be considered data-driven journalism. The historical evolution of kinds of use of infographics in journalism will also be studied. The research users the methodology of discourse analysis to investigate the construction of meaning in the organization of statistical data in digital journalism, focusing on the cases of Blog do Estadão Dados and La Nación Data Blog. The analysis will include the technical organization of ingographics that are used for production of content generated from statistical data, including those organized in tables and also those who are willing to graphics, such as charts and any other pictorial resources. We will study how the processes of technological innovation impacted the production and transmission of messages on the internet, specially focusing organization of infographics, analyzing the impact of visual and interactive features that contribute to the production of meaning. This research hopes to contribute to studies about semantic effects and argumentatitve processes, challenging the point of view of unique interpretation customarily attributed to numerical data / Mestre
34

Proposta de implantação de uma estrutura de armazenamento por objetos para preservação documental no Tribunal de Contas do Estado do Tocantins

Ferreira, Antonio Marcos Almeida 25 June 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-11-20T12:37:12Z No. of bitstreams: 1 2014_AntonioMarcosAlmeidaFerreira.pdf: 10936657 bytes, checksum: cf5e23e7d7d36e737e5287d2d41db809 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-11-20T13:29:33Z (GMT) No. of bitstreams: 1 2014_AntonioMarcosAlmeidaFerreira.pdf: 10936657 bytes, checksum: cf5e23e7d7d36e737e5287d2d41db809 (MD5) / Made available in DSpace on 2014-11-20T13:29:33Z (GMT). No. of bitstreams: 1 2014_AntonioMarcosAlmeidaFerreira.pdf: 10936657 bytes, checksum: cf5e23e7d7d36e737e5287d2d41db809 (MD5) / Esta dissertação descreve o uso do Gerenciamento Eletrônico de Documentos (GED)para gerenciar a inserção, compartilhamento e recuperação de informações atribuídas a um documento digital. Devido ao uso desta tecnologia no órgão alvo deste trabalho, Tribunal de Contas do Estado do Tocantins (TCE-TO), faz-se necessário que os processos de busca, indexação e armazenamento de documentos digitais sejam realizados de forma e caz. Além do uso de ferramentas computacionais voltadas ao arquivamento de documentos digitais, é necessário que a estrutura de armazenamento de dados forneça meios que propiciem a disponibilização de documentos digitais com dedignidade e autenticidade. Relacionado ao contexto apresentado, foi identi cada a necessidade do desenvolvimento de uma estrutura de armazenamento por objetos para o arquivamento de documentos digitais direcionada a uma plataforma em nuvem. A dissertação apresenta também conceitos sobre computação em nuvem, armazenamento em nuvem, armazenamento de conteúdo endereçável, sistemas de armazenamento, deduplicação de dados e mecanismo de integridade. A implantação desta estrutura de armazenamento propicia melhorias em con abilidade ( dedignidade e autenticidade aos documentos digitais) com a integração da deduplicação em nível de arquivos e ganhos em escalabilidade com o armazenamento de arquivos em recipientes. Assim como amplia a disponibilidade dos dados devido a replicação de objetos para os demais servidores e acrescenta e ciência no gerenciamento do acervo documental do TCE-TO. __________________________________________________________________________ ABSTRACT / This dissertation describes the use of Electronic Document Management (EDM), to manage the insertion, sharing and recovery of information assigned to a digital document. Due to the implementation of this technology in the Court of Auditors of the State of Tocantins (TCE-TO), it is necessary that the processes of searching, indexing and storing are performed e ectively. Besides the use of tools aimed at archiving digital documents, it is necessary that the structure of data storage provide a means to digital documents with reliability and authenticity. In the presented context, we identi ed the need to develop a structure of storage for objects for archiving digital documents directed to a cloud platform. The dissertation also presents concepts about cloud computing, cloud storage, content addressable storage, storage systems, data deduplication and data integrity mechanism. The implementation of this storage structure provides improvements in reliability (reliability and authenticity to digital documents) with the integration of le-level deduplication and scalability gains with le storage containers. As increases the availability of data due to replication of objects to other servers and adds e ciency in managing document archiving TCE-TO.
35

Confiabilidade de dados em ambientes de business intelligence : uma abordagem fuzzy baseada em taxonomias de problemas de qualidade / Trustworthiness of data in business intelligence environments : a fuzzy approach based on taxonomy of quality problems

Almeida, Wesley Gongora de 16 March 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Programa de Pós-graduação em Engenharia Elétrica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-27T15:12:55Z No. of bitstreams: 1 2012_LuizGustavoFlorencio.pdf: 1554783 bytes, checksum: bf39a5fc7d6b25cbdf7268d765b0665d (MD5) / Rejected by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br), reason: Alaíde, O arquivo carregado é de outro trabalho. Por favor, verifique. Obrigada! Jacqueline on 2012-10-04T13:30:48Z (GMT) / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-10-04T15:00:53Z No. of bitstreams: 1 2012_WesleyGongoradeAlmeida.pdf: 2251518 bytes, checksum: 14fca6cffeac84fa4f60de38f24f756e (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-10-05T10:34:44Z (GMT) No. of bitstreams: 1 2012_WesleyGongoradeAlmeida.pdf: 2251518 bytes, checksum: 14fca6cffeac84fa4f60de38f24f756e (MD5) / Made available in DSpace on 2012-10-05T10:34:44Z (GMT). No. of bitstreams: 1 2012_WesleyGongoradeAlmeida.pdf: 2251518 bytes, checksum: 14fca6cffeac84fa4f60de38f24f756e (MD5) / O impacto da má qualidade dos dados sobre a tomada de decisão, a confiança organizacional e a satisfação do cliente é bem conhecida. Ademais, fatores emergentes, tais como o aumento no volume dos dados, têm agravado o problema. Nas organizações atuais, sistemas de Business Intelligence (BI) têm oferecido suporte à gestão de negócios e se constituindo uma evolução natural e lógica dos Sistemas de Apoio a Decisão. Neste novo cenário, implementações de soluções de BI tem falhado devido a má qualidade dos dados. Supondo que é possível avaliar a qualidade dos dados com base em metadados, a questão principal, então, é: Como fornecer ao usuário informações relativas à qualidade dos dados? Atrelado a esta questão, encontra-se um segundo fator relevante: Durante muito tempo, preocupou-se com a qualidade dos dados sem levar em consideração a questão da confiança. Esta dissertação apresenta uma nova visão a respeito da qualidade e da confiança dos dados, porque, ao contrário do senso comum, a qualidade dos dados não é o único fator influenciando a confiabilidade dos dados e estes dois conceitos não são necessariamente correlacionados. Baixa qualidade pode ser confiável em algumas situações e dados de alta qualidade podem ter baixa confiança em outro contexto. Em nosso trabalho, a avaliação da confiabilidade dos dados em ambientes de BI é baseada em um conjunto de métricas, obtidas a partir de uma taxonomia dos problemas de qualidade. Para representar a incerteza da avaliação, lógica fuzzy é empregada como método de obtenção de uma pontuação global de confiabilidade. Por fim, a proposta desenvolvida é avaliada através de simulações, de forma a ilustrar sua eficácia e demonstrar um avanço em relação aos métodos estado-da-arte conhecidos da literatura. _______________________________________________________________________________________ ABSTRACT / The impact of poor data quality on decision making, organizational trust and customer satisfaction is well known. Furthermore, emerging factors, such as increasing the volume of data, have aggravated the problem. In today's organizations, Business Intelligence (BI) systems have offered support to business management and providing a natural and logical evolution of Decision Support Systems. In this new scenario, implementations of BI solutions have failed due to poor data quality. Assuming it is possible to assess the quality of data based on metadata, the main question then is: How to provide the user with information relating to data quality? Tied to this question lies a second relevant factor: For a long time, worried about the quality of data without taking into account the question of trust. This dissertation presents a new vision about the quality and trustworthiness of the data, because, contrary to common sense, data quality is not the only factor influencing the trustworthiness of data and these two concepts are not necessarily correlated. Low quality can be unreliable in some situations and high-quality data can have little confidence in another context. In our study, evaluating the trustworthiness of data in BI environments is based on a set of metrics, obtained from taxonomy of quality problems. To represent the uncertainty of the evaluation, fuzzy logic is employed as a method of obtaining an overall score of trustworthiness. Finally, the proposal developed is evaluated through simulations, in order to illustrate its effectiveness and demonstrate an improvement over methods state-of-the-art known from the literature.
36

Dedupeer: um algoritmo para deduplicação de arquivos através de processamento particionado

Soares, Paulo Fernando Almeida 28 August 2013 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-12T12:54:34Z No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:53:37Z (GMT) No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:53:37Z (GMT). No. of bitstreams: 2 Dissertação Paulo Soares.pdf: 1814911 bytes, checksum: 49222357c42fc4ab6506dff18824fa1d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-28 / A deduplicação é uma técnica de compressão de dados sem perda que elimina dados redundantes tanto intra-file como inter-file, diferente de ferramentas de compressão de dados como o gzip que só eliminam a redundância intra-file. A deduplicação reduz a necessidade de armazenamento através da eliminação de blocos de dados redundantes. Na deduplicação, todos os blocos de dados que estão duplicados em um sistema de armazenamento podem ser reduzidos à uma única cópia, esses blocos desalocados pela deduplicação são transformados em referência para o que foi mantido no sistema. Técnicas de deduplicação começaram a ser estudadas para sistemas de armazenamento comerciais em meados de 2004. Hoje, os principais sistemas de armazenamento de dados usam deduplicação, mas os algoritmos implementados e as técnicas utilizadas não são detalhadas publicamente. Existem alguns trabalhos acadêmicos focados na implementação de algoritmos de deduplicação, mas eles são raros e não são voltados para a sua utilização em sistemas de armazenamento existentes. O principal objetivo deste trabalho é criar um algoritmo para deduplicação de arquivos no cliente de forma remota, através de processamento particionado e utilizando comparação por fingerprints. Este algoritmo foi incorporado em um componente de software com interface interoperável para facilitar a utilização em qualquer sistema de armazenamento de dados e beneficiá-los com economia de armazenamento, e na transferência de dados no caso dos sistemas de armazenamento distribuídos. Além do componente de software, foi desenvolvido também um sistema de armazenamento com gerenciamento de dados baseado no Apache Cassandra, o que o torna capaz de ser distribuído, com o objetivo de validar o algoritmo de deduplicação. A integração do componente de software com o sistema de armazenamento foi implementada e avaliada neste trabalho.
37

Análise geoestatística para geração de superfícies a partir de dados de clorofila-a adquiridos em transectos /

Ribeiro, Gabrielle Gomes dos Santos. January 2015 (has links)
Orientador: Vilma Mayumi Tachibana / Coorientador: Maria de Lourdes B. T. Galo / Banca: José Silvio Govone / Banca: Nilton Nobuhiro Imai / Resumo: A disposição dos elementos amostrais na área de estudo e sua influência nos resultados de análises espaciais é algo que vem sendo discutido frequentemente, já que a qualidade de uma inferência espacial vai depender do tamanho da amostra e da distribuição espacial dos pontos amostrais. Nesse sentido, este trabalho tem o objetivo de analisar o impacto que diferentes delineamentos amostrais podem causar nos resultados da inferência espacial por Krigagem Ordinária. Para isso, primeiramente utilizou-se um conjunto de dados coletado em forma de transectos em uma parte do Reservatório de Nova Avanhandava, composto por 978 observações. Esse conjunto sofreu reduções sistemáticas, com o intuito de analisar o que essas reduções causariam nos resultados das inferências espaciais. Com o objetivo de analisar diferentes delineamentos amostrais, simulou-se uma quantidade densa de dados e aplicou-se as técnicas de Amostragem Simples, Amostragem Sistemática e Amostragem Estratificada. Para complementar, utilizou-se um conjunto de dados de tamanho reduzido (70 observações), coletado de forma aleatória, a fim de analisar os resultados obtidos pela Krigagem Ordinária ao utilizar um conjunto considerado "pequeno", do ponto de vista estatístico. Então, foi possível realizar o processo da Krigagem Ordinária e obter mapeamentos da variável clorofila-a na região de interesse para os diferentes tipos e tamanhos de amostras... / Abstract: The arrangement of sampling units in the study area and its influence on the results of spatial analysis is something that has been frequently discussed by researchers of the area, since the quality of a spatial inference will depend on sample size and spatial distribution of sample points. In this sense, this work aims to analyze the impact that different sampling designs may cause in the results of spatial inference by ordinary kriging. For this, first we used a dataset collected in the form of transects in a part of New Avanhandava Reservoir, consisting of 978 observations. This set suffered systematics reductions, with the aim to analyze what these reductions would cause in the results of spatial inferences. In order to analyze different sampling designs, simulated up a dense amount of data and it was applied the Simple Sampling, Systematic Sampling and Stratified Sampling techniques. To complement, it was used a data set with a small size (70 observations) and collected randomly, in order to analyze the results obtained by ordinary kriging when using a set considered "small", from a statistical point of view. Then, it was possible to perform the process of Ordinary Kriging and obtain mappings of the variable chlorophyll-a in the region of interest, for different types and sizes of samples. The validation of inference processes was carried out from two methods, the Mean Squared Error and the Kappa Index... / Mestre
38

Desenvolvimento de um sistema de aquisição e armazenamento de dados microcontrolado

Giordani, Fernando 18 July 2009 (has links)
Made available in DSpace on 2017-07-10T19:24:32Z (GMT). No. of bitstreams: 1 Fernando Giordani.pdf: 1656973 bytes, checksum: f029153643eb744e0e86dcc008e9b311 (MD5) Previous issue date: 2009-07-18 / The data acquisition systems are present in many studies, cooperating on collection, storage and analyses of data. On farming field, these systems are used in experiments of agricultural machines, soil characteristics study, as well as in other applications where data collection by sensors is needed. In the present study, a data acquisition system was developed. It includes nine channels to collect pulse data, three, to sensors PT100-type and one, to the connection of a load cell. The user interacts with the system by passing configuration parameters through a matrix keyboard and monitoring its operation through a liquid-crystal display. The collected data by the sensors were stored in a pen-drive-memory type, similar to a text-file to be processed later by an application developed for the Microsoft Windows platform. The developed application contained three basic functions: plot graphics and exhibit statistics in realtime, load data from a text-file generated by a collection, exhibit graphics, correlated statistic data and finally, generate two other files based on an original one. One contains the data in unit format of engineering and the other with statistics data for each existent replication in the file. To exemplify the system value in farming researches, the application includes the analysis of some predominant factors for the experiment of farming implements, such as wheeled skidding of a tractor vehicle, fuel consumption by a motor, power exert in a specific point, rotations and temperatures. A data collection of three types of sensors, assisted by the system, was done and it showed data accuracy and exactness. / Os Sistemas de Aquisição de Dados estão presentes em muitos estudos e colaboram na coleta, armazenamento e análise de dados. No campo agropecuário, esses sistemas são usados em ensaios de máquinas agrícolas, estudos das características do solo dentre outras aplicações em que é necessária a coleta de dados através de sensores. Neste trabalho foi desenvolvido um Sistema de Aquisição de Dados que contempla 9 canais para coleta de dados de pulso, 3 para sensores do tipo PT100 e 1 para a conexão de uma célula de carga. O usuário interage com o sistema ao passar parâmetros de configuração por meio de um teclado matricial e monitorar o seu funcionamento através de um display de cristal líquido. Os dados coletados pelos sensores são armazenados em uma memória do tipo pen-drive em forma de arquivo-texto para posteriormente serem processados por um aplicativo desenvolvido para plataforma Microsoft Windows. O aplicativo desenvolvido possui 3 funções básicas: plotar gráficos e exibir dados estatísticos em tempo real; carregar dados de um arquivo-texto gerado por uma coleta e exibir gráficos e dados estatísticos correlacionados e, finalmente, gerar dois outros arquivos a partir de um original, um contendo os dados no formato de unidade de engenharia e outro com dados estatísticos resumidos para cada repetição existente no arquivo. Para exemplificar a utilidade do sistema em pesquisas agropecuárias, o aplicativo contempla a análise de alguns fatores preponderantes para o ensaio de implementos agrícolas, os quais são: patinagem do rodado de um veículo trator, consumo de combustível por um motor, força empregada em determinado ponto, rotações e temperaturas. Foi realizada uma coleta de dados com os três tipos de sensores assistidos pelo sistema a fim de serem verificadas a precisão e a exatidão dos dados.
39

NoSQL: a análise da modelagem e consistência dos dados na era do Big Data

Rodrigues, Wagner Braz 19 October 2017 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2017-11-14T11:11:11Z No. of bitstreams: 1 Wagner Braz Rodrigues.pdf: 1280673 bytes, checksum: 018f4fcf8df340ef7175b709b9d870b7 (MD5) / Made available in DSpace on 2017-11-14T11:11:12Z (GMT). No. of bitstreams: 1 Wagner Braz Rodrigues.pdf: 1280673 bytes, checksum: 018f4fcf8df340ef7175b709b9d870b7 (MD5) Previous issue date: 2017-10-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The new storage models, known as NoSQL, arise to solve current data issues, defined by the properties volume, velocity and variety (3 V’s) established in the Big Data concept. These new storage models develop with the support of distributed computing and horizontal scalability, which allows the processing of the big amount of data necessary to the Big Data 3 V’s. In this thesis was used as theoretical framework the relational model, introducing its solutions and troubles. The relational model allowed the use of structures in secondary memory in a persistent way. Its modeling establishes rules to the creation of a solid data model, using mathematics concepts and tangible representation to the human interpretation. The properties defined by the transactional model ACID, implemented in the relational SGBDs brings assurance consistency of the storaged data. The use of the relational model distanced the transient structures in primary memory, used in execution time by software applications and those persisted in secondary memory, an effect known as impedance mismatch. The new models presented by the categories of the NoSQL, bring transient structures previously used in primary memory. The use of distributed computing presents the possibility of the transaction and storage of the data for several computers, known as nodes, present in clusters. Distributed computing increases availability and decreases the likelihood of system failures. However, its use brings inconsistency to the data, according to the properties defined by the CAP Theorem (FOX; BREWER, 1999). This study was carried out on behalf of a bibliographic review, analyzing primarily the needs, which led to the relational model creation. Later, we establish the state of the theoretical and techniques art that involves the NoSQL and the distributed data processing system, just as the different categories introduced by it. An adequate tool were chosen and analyzed from each NoSQL category, for the proper understanding about your structure, metadata and operations. Aside from establish the state of art regarding NoSQL, we demonstrate how the transient and persistent data structures rapprochement becomes possible due to the current machine advances, such as the possibilities to the consistency effect processing, outlined by CAP Theorem / Os novos modelos de armazenamento de dados, conhecidos como NoSQL (Not Only SQL), surgem para solucionar as problemáticas de dados atuais, definidas pelas propriedades volume, velocidade e variedade (3 V’s) presentes no conceito do Big Data. Esses novos modelos de armazenamento se desenvolvem com o suporte da computação distribuída e “escalabilidade horizontal”, o que possibilita o tratamento do grande volume de dados necessários para os V’s do Big Data. Nesta dissertação é utilizado como referencial teórico o modelo relacional, apresentando suas soluções e problemas. O modelo relacional possibilitou a persistência de estruturas de dados, em memória secundária não volátil. Sua modelagem estabelece regras para a criação de um modelo de dados fundamentado, utilizando conceitos de lógica formal e representação compreensível à interpretação humana. As propriedades definidas pelo modelo transacional ACID (Atomicity, Consistency, Isolation, Durability), utilizado em SGBDs (Sistema Gerenciador de Bando de Dados) relacionais, garantem que os dados transacionados serão “persistidos” de maneira consistente na base de dados. O emprego do modelo relacional distanciou as estruturas transientes em memória primária, utilizadas em tempo de execução por aplicações de software e as persistidas em memória secundária, efeito conhecido como “incompatibilidade de impedância”. Os novos modelos apresentados pelas categorias apresentadas no NoSQL trazem estruturas transientes anteriormente utilizadas em memória primária. Contudo, abrem mão da forte estruturação, apresentada pelo modelo relacional. A utilização da computação distribuída apresenta a possibilidade da realização de transações e armazenamento dos dados para vários computadores, conhecidos como nós, presentes em cluster. Esse conceito conhecido como tolerância a partição, aumenta a disponibilidade e diminui a possibilidade de falhas em um sistema. No entanto, sua utilização, traz inconsistência aos dados, conforme as propriedades definidas pelo Teorema CAP (FOX; BREWER, 1999). Este trabalho foi realizado através de revisão bibliográfica, analisando primeiramente as necessidades que levaram à criação do modelo relacional. Posteriormente, estabelecemos o estado da arte das teorias e técnicas que envolvem o NoSQL e o tratamento de dados em sistemas distribuídos, bem como as diferentes categorias apresentadas por ele. Foram escolhidas e analisadas uma ferramenta pertencente a cada categoria de NoSQL para o entendimento de duas estruturas, metamodelos e operações. Além de estabelecer o estado da arte referente ao NoSQL, demonstramos como a reaproximação das estruturas transientes e persistentes se torna possível dado os avanços de máquina atuais, que possibilitaram avanços computacionais, assim como as possibilidades para o tratamento dos efeitos na consistência, demonstrados pelo Teorema CAP
40

Desenvolvimento de um sistema de aquisição e armazenamento de dados microcontrolado

Giordani, Fernando 18 July 2009 (has links)
Made available in DSpace on 2017-05-12T14:47:54Z (GMT). No. of bitstreams: 1 Fernando Giordani.pdf: 1656973 bytes, checksum: f029153643eb744e0e86dcc008e9b311 (MD5) Previous issue date: 2009-07-18 / The data acquisition systems are present in many studies, cooperating on collection, storage and analyses of data. On farming field, these systems are used in experiments of agricultural machines, soil characteristics study, as well as in other applications where data collection by sensors is needed. In the present study, a data acquisition system was developed. It includes nine channels to collect pulse data, three, to sensors PT100-type and one, to the connection of a load cell. The user interacts with the system by passing configuration parameters through a matrix keyboard and monitoring its operation through a liquid-crystal display. The collected data by the sensors were stored in a pen-drive-memory type, similar to a text-file to be processed later by an application developed for the Microsoft Windows platform. The developed application contained three basic functions: plot graphics and exhibit statistics in realtime, load data from a text-file generated by a collection, exhibit graphics, correlated statistic data and finally, generate two other files based on an original one. One contains the data in unit format of engineering and the other with statistics data for each existent replication in the file. To exemplify the system value in farming researches, the application includes the analysis of some predominant factors for the experiment of farming implements, such as wheeled skidding of a tractor vehicle, fuel consumption by a motor, power exert in a specific point, rotations and temperatures. A data collection of three types of sensors, assisted by the system, was done and it showed data accuracy and exactness. / Os Sistemas de Aquisição de Dados estão presentes em muitos estudos e colaboram na coleta, armazenamento e análise de dados. No campo agropecuário, esses sistemas são usados em ensaios de máquinas agrícolas, estudos das características do solo dentre outras aplicações em que é necessária a coleta de dados através de sensores. Neste trabalho foi desenvolvido um Sistema de Aquisição de Dados que contempla 9 canais para coleta de dados de pulso, 3 para sensores do tipo PT100 e 1 para a conexão de uma célula de carga. O usuário interage com o sistema ao passar parâmetros de configuração por meio de um teclado matricial e monitorar o seu funcionamento através de um display de cristal líquido. Os dados coletados pelos sensores são armazenados em uma memória do tipo pen-drive em forma de arquivo-texto para posteriormente serem processados por um aplicativo desenvolvido para plataforma Microsoft Windows. O aplicativo desenvolvido possui 3 funções básicas: plotar gráficos e exibir dados estatísticos em tempo real; carregar dados de um arquivo-texto gerado por uma coleta e exibir gráficos e dados estatísticos correlacionados e, finalmente, gerar dois outros arquivos a partir de um original, um contendo os dados no formato de unidade de engenharia e outro com dados estatísticos resumidos para cada repetição existente no arquivo. Para exemplificar a utilidade do sistema em pesquisas agropecuárias, o aplicativo contempla a análise de alguns fatores preponderantes para o ensaio de implementos agrícolas, os quais são: patinagem do rodado de um veículo trator, consumo de combustível por um motor, força empregada em determinado ponto, rotações e temperaturas. Foi realizada uma coleta de dados com os três tipos de sensores assistidos pelo sistema a fim de serem verificadas a precisão e a exatidão dos dados.

Page generated in 0.0868 seconds