• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Análise comparativa de modelos de previsão de desempenho de pavimentos flexíveis

Deise Menezes Nascimento 01 June 2005 (has links)
Os modelos de previsão de desempenho de pavimentos são importantes ferramentas utilizadas pelos sistemas de gerência, essenciais para o planejamento das atividades de manutenção e reabilitação, assim como para a estimativa dos recursos necessários para a preservação das rodovias. Este trabalho tem por objetivo comparar modelos de desempenho de pavimentos, desenvolvidos por análises empíricas e empírico-mecanísticas, que predizem a evolução da condição de pavimentos flexíveis, ao longo do tempo e/ou tráfego acumulado. Os modelos de desempenho analisados foram desenvolvidos por pesquisadores e órgãos rodoviários brasileiros e internacionais, inclusive os modelos de deterioração utilizados pelo programa computacional de gerência de pavimentos desenvolvido pelo Banco Mundial, o HDM–4 (Highway Development and Management). A pesquisa está baseada na comparação do desempenho real de seções de pavimentos rodoviários, obtido a partir da base de dados dos experimentos LTPP (Long-Term Pavement Performance) do FHWA (Federal Highway Administration), com o comportamento previsto pelos modelos de desempenho desenvolvidos por Queiroz (1981), Paterson (1987), Marcon (1996) e Yshiba (2003). Neste trabalho, a análise do comportamento das seções de teste LTPP-FHWA é feita utilizando-se uma programação fatorial que, através da análise de variância (ANOVA), permite a determinação do nível de significância de fatores pré- selecionados (variáveis independentes: tráfego, idade e número estrutural corrigido) bem como a modelagem do desempenho dos pavimentos dessas seções (variáveis dependentes: irregularidade longitudinal e deformação permanente). / The pavement performance prediction models are important tools used for pavement management, essential for the planning of maintenance and rehabilitation activities, as well as for budgeting. The aim of this work is to compare performance prediction models developed through empirical and empirical-mechanistic analyses, which predict the evolution of the condition of flexible pavements, throughout the time and/or accumulated traffic. The performance prediction models analyzed were developed by researchers and Brazilian and international road agencies, including the deterioration models used by the pavement management comuputer program HDM-4 (Highway Development and Management), developed by the World Bank. The research is based on the comparison of the real performance of pavement of sections, obtained from the data base of the LTPP Program (Long-Term Pavement Performance) of FHWA (Federal Highway Administration), with the behavior predicted by deterioration models developed by Queiroz (1981), Paterson (1987), Marcon (1996) and Yshiba (2003). In this work, the analysis of the behavior of the LTPP-FHWA test sections is made through a factorial programming. Analysis of Variance (ANOVA) allows the determination of the level of significance of pre-selected factors (independent variables: traffic, age and pavement structure) and the development of performance prediction models (dependent variables: roughness and rutting).
232

Proposta de um sistema de banco de dados para tomografia por ressonância magnética nuclear / Proposal of a database system for magnetic resonance imaging

Freire, Henrique Jota de Paula 05 December 1997 (has links)
Este trabalho é uma proposta e uma implementação de um sistema de banco de dados para ser utilizado no armazenamento e gerenciamento dos dados resultantes da operação de tomógrafos de ressonância magnética nuclear. O objetivo é obter tecnologia na área de sistemas de arquivamento e comunicação de imagens médicas. O trabalho insere-se em um esforço maior do grupo de ressonância do IFSC/USP-São Carlos na pesquisa e desenvolvimento de tecnologias na área de imagens por ressônancia magnética. A motivação para a utilização de sistemas digitais de bancos de dados para o armazenamento e gerenciamento de imagens médicas é o crescente aumento do volume gerado deste tipo de imagem nas instalações médicas. Quando comparado com o sistema de armazenamento tradicional, baseado em filmes, os sistemas digitais prometem ser mais seguros, eficientes e eficazes, além de proporcionar novas possibilidades na área de diagnóstico médico. Os principais resultados do trabalho são um modelo de dados conceitual elaborado com o modelo Entidade-relacionamento Estendido; um modelo de implementação relacional; e um sistema de banco de dados desenvolvido para uma plataforma computacional baseada em microcomputador e sistema operacional da família Windows. A metodologia utilizada no desenvolvimento do trabalho é baseada em conceitos básicos da disciplina de engenharia de programação. O sistema de banco de dados foi desenvolvido utilizando um sistema de gerenciamento de banco de dados comercial, o Microsoft Acess Versão 2.0. O trabalho também apresenta o padrão industrial DICOM 3,0 e destaca as partes que são específicas para a modalidade de imagens médicas por ressonância magnética e que foram implementadas neste trabalho. / This work is a proposal and an implementation of a database system for archiving and management of data related to the operation of magnetic resonance imaging systems. The objective is to acquire technology in the area of medical image archiving and communication systems. This work is part of a broader effort of the IFSC/USP-São Carlos magnetic resonance group in the research and development of technologies in the area of magnetic resonance imaging. The reason for using digital database systems to archive and manage medical images is the growing volume of this kind of images in medical institutions. When compared to the traditional film based archiving systems, digital systems claim to be more secure, efficient and effective, besides giving place to new possibilities in medical diagnoses. The main results of this work are: a conceptual data model built with the Enhanced Entity-relationship model; a relational implementation model; and a database system to run in a PC-Windows computational platform and operational system. The methodology used throughout the development of this work is based on some basic concepts of the software engineering discipline. The database system was developed using a commercial database management system, the Microsoft® Access® Version 2.0. This work also presents the industrial standard DICOM 3.0 and highlights those parts that are specific for the magnetic resonance imaging modality and were implemented in this work.
233

Representação e armazenamento de dados cadastrais 3D em banco de dados geográficos

Holzschuh, Marcelo Leandro [UNESP] 28 November 2013 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:48Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-11-28Bitstream added on 2014-08-13T18:00:30Z : No. of bitstreams: 1 000758653.pdf: 2378189 bytes, checksum: c694dcc15cacf8e4fe22e7445e8c87c3 (MD5) / Existe uma preocupação global com relação às necessidades do cadastro, entre elas, o Cadastro 3D. Nesta tese são apresentadas algumas definições envolvendo o Cadastro Territorial Multifinalitário, com ênfase no armazenamento de parcelas 3D, e um de seus pilares fundamentais que é o banco de dados geográficos. O armazenamento e a recuperação de dados são etapas fundamentais para o cadastro, e com a necessidade de manipular estruturas complexas como a sobreposição de imóveis (públicos ou privados), cabos e dutos subterrâneos, comparece a preocupação com a forma de armazenamento, tanto geométrico como suas relações topológicas. Neste contexto, são utilizados métodos de modelagem de dados para auxiliar o desenvolvimento do banco de dados geográfico e, entre eles, estão a Estrutura Formal de Dados 3D, a Rede de Tetraedros, o Modelo Espacial Simplificado e a Representação por Bordas (B-Rep), a qual foi utilizada neste artigo. O método B-Rep é utilizado para representar a superfície de objetos sólidos. A partir deste método, desenvolveu-se uma modelagem para o Banco de Dados PostgreSQL e sua extensão espacial PostGIS, objetivando armazenar e recuperar objetos cadastrais volumétricos. Observou-se o potencial do modelo B-Rep na representação dos objetos envolvidos no Cadastro 3D, o qual já é utilizado em áreas afins para dados 3D. Através dos experimentos foi possível comprovar a identificação inequívoca da parcela, do imóvel, da quadra e do setor, com sua geométrica tridimensional, respectivamente. Esses resultados viabilizam a integração entre o registro e o cadastro de parcelas tridimensionais. / There is a global concern about the needs of land record, including the 3D cadastre. This thesis presents some definitions of the Multipurpose Cadastre focusing on 3D volumetric storage parcels, and one of its fundamental pillars that is the geographic database. The storage and retrieval of data are fundamental steps to the Multipurpose Cadastre, and which the necessity of cadastre manipulate complex structures such as overlapping property (public or private), underground cables and pipelines, appears to concern the storage form, both as geometric their topological relations. In this context, models are used to represent data to assist the development of geographic database and, between them, are the Formal Structure of 3D data, the Tetrahedrons Network, a Simplified Model Space and Representation by Borders, which was used this article. The B-Rep method is used to represent the solid object surface. From this method, a modeling for the Geographic Data Base PostgreSQL was developed and its space extension PostGIS, with goal of to store and to recoup volumetric cadastral objects. The potential of the B-Rep model was observed in the representation of 3D objects cadastral, which already was used in similar areas for representations 3D data. Through the experiments it was possible to prove the unequivocal identification of the parcel of property, the court and the industry, with its three-dimensional geometry, respectively. These results enable the integration between the recording and registration of three-dimensional plots.
234

Seleção eficiente de conformações de receptor flexível em simulações de docagem molecular

Machado, Karina dos Santos January 2011 (has links)
Made available in DSpace on 2013-08-07T18:42:55Z (GMT). No. of bitstreams: 1 000432221-Texto+Completo-0.pdf: 7126072 bytes, checksum: 4f9458bc22424532f20fd0c85208b5c7 (MD5) Previous issue date: 2011 / Drug Development is one of the biggest challenges of current science since it deals with a process involving time and high costs. One of the most interesting problems in this area is the conformation and energy prediction between ligand and target proteins (or receptors) interaction, where such interaction is evaluated through molecular docking. It is very common to make simplifications such as to treat the receptor structure as rigid during a molecular docking. However, proteins are inherently flexible, and its flexibility is essential for its function. The inclusion of receptor flexibility in docking experiments is not a trivial task, since the allowance of mobility to some receptor atoms implies in an exponential increase in the numbers of degrees of freedom to be considered. Nowadays there are a variety of alternatives to treat this problem, as such the one chosen for this work: to consider the receptors explicit flexibility through a series of molecular docking simulations, using in each one, one different conformation (or snapshot) from a dynamic trajectory, generated by a molecular dynamic simulation (MD). This method execution, however, has the disadvantage of being very time-consuming. In doing so, the aim of this work is to contribute to the selection of receptors conformations in order to execute docking experiments faster, still taking into account the fully receptors flexibility. Besides, this work introduces new methodologies to analyze receptor-ligand interaction in this kind of docking simulations. To achieve this, it is applied a Knowledge Discovery in Databases (KDD) process. The first step required the development of a database, called FReDD. Such a database store detailed information about the receptors and its conformations, ligands and molecular docking results. From the data stored on FReDD, it was possible to apply different data mining techniques. The first set of experiments was performed with the J48 classification algorithm. The second one was executed using M5P regression algorithm, where despite the interesting results, the application of the induced models directly on snapshot selection seems to be not promising. Finally, clustering experiments were executed with 10 different algorithms with a variety of inputs. For these clustering algorithms, we developed different similarity functions where the final results, combined with the P-MIA data pattern, allowed the effective reduction in the amount of docking experiments to be performed. / O desenvolvimento de fármacos é um dos grandes desafios da ciência atual por se tratar de um processo onde os custos e o tempo envolvido são elevados. Um dos problemas mais interessantes nessa área é a predição da conformação e da energia envolvida na interação entre ligantes e suas proteínas-alvo ou receptores. É nos experimentos de docagem molecular que essa interação é avaliada. É muito comum que durante a docagem molecular se façam simplificações onde o receptor é tratado como rígido. Porém, proteínas são inerentemente sistemas flexíveis e essa flexibilidade é essencial para a sua função. A inclusão da flexibilidade do receptor em experimentos de docagem molecular não é uma tarefa trivial, pois, para permitir mobilidade a certos átomos do receptor, há um aumento exponencial do número de graus de liberdade a serem considerados. Há atualmente diversas alternativas para contornar esse problema, entre elas, a que se optou neste trabalho: considerar a flexibilidade explícita do receptor por meio da execução de uma série de simulações de docagem molecular, utilizando em cada um deles uma conformação diferente da trajetória dinâmica do receptor, gerada por uma simulação por dinâmica molecular (DM). Um dos maiores problemas desse método é o tempo necessário para executá-lo. Sendo assim, o objetivo desse trabalho é contribuir para a seleção de conformações do receptor de forma a acelerar a execução de experimentos de docagem molecular com o receptor completamente flexível. Além do mais, o trabalho apresenta novas metodologias para a análise da interação receptor-ligante em simulações de docagem deste tipo. Para alcançar esses objetivos, é aplicado um processo de descoberta de conhecimento.A primeira etapa consistiu no desenvolvimento de um banco de dados para armazenar informações detalhadas sobre o receptor e suas conformações, ligantes e experimentos de docagem molecular, chamado FReDD. Com os dados organizados no FReDD, foi possível a aplicação de diferentes técnicas de mineração de dados. O primeiro conjunto de experimentos foi realizado utilizando o algoritmo de classificação J48. O segundo conjunto de experimentos foi executado com o algoritmo de regressão M5P, onde apesar de resultados interessantes, a utilização direta para seleção de conformações em futuros experimentos de docagem molecular não se mostrou promissora. Finalmente, foram executados os experimentos de agrupamento com 10 diferentes algoritmos, com entradas variadas. Para os algoritmos de agrupamento foram desenvolvidas diferentes funções de similaridade onde os resultados finais utilizados em conjunto com o padrão de dados P-MIA permitiu a redução efetiva da quantidade de experimentos de docagem.
235

Uma abordagem de Data Warehouse para análise de processos de desenvolvimento de software

Novello, Taisa Carla January 2006 (has links)
Made available in DSpace on 2013-08-07T18:42:55Z (GMT). No. of bitstreams: 1 000399218-Texto+Completo-0.pdf: 2830985 bytes, checksum: ffa3a6af739950b3c3732472c58fb2c7 (MD5) Previous issue date: 2006 / Software quality is important and necessary for organizations. They are interested on how to measure and quantitative analyze the processes quality. As organizations work with different projects, processes and metrics, they should looking for alternatives that provide a unified vision using the centralization of different projects data and provide quantitative analysis about Software Development Processes (SDP) through a Metric Program (MP). Thus, the software maturity models suggest the construction of a organizational repository of metrics. However, the construction of a repository that attends the data management and analysis functionality is not a trivial task. This work describes briefly the environment architecture for Data Warehousing that provides support for MP adoption through data stored that means different processes in a unified database. This volume describes two components: the analytic model based on the Data Warehouse (DW), and the presentation component that uses analytic resources to facilitate the users analyses. The development of a repository should consider the particularities of MP and the environment of PDS. About the metrics that compose MP, some of them represent non addictive data what can made the analysis difficult about the environment, the PDS features made difficult the unified model definition that supports distinct characteristics. Besides the data storage, the manner who it is available also must be considered once the users has different analysis needs. Thus, the complexity of the model development and analysis resource availability is high. Thus, the analytic model proposed intends to store metrics and SDP data, according to analysis requirements, considering the MP features particularity and the SDP environment. The definition of analytic resources considers users with different profiles. These resources attend the analysis requirements for each profile and shows the information through many granularity levels, including mechanisms that provide more semantic for the data. Thus, this work provides an infra-structure that supports different SDP and quantitative analyses for different profiles base on MP. / A busca pela qualidade sobre produtos de software se faz cada vez mais presente e necessária em organizações de software. Neste sentido, essas organizações buscam opções de como medir e analisar quantitativamente a qualidade de seus processos de desenvolvimento. No entanto, organizações trabalham com diferentes projetos que, por sua vez, utilizam-se de diversos processos e métricas. Partindo desta premissa, tais organizações devem buscar alternativas de como prover uma visão unificada através da centralização dos dados dos diferentes projetos e ainda disponibilizar, a seus usuários, análises quantitativas de seus Processos de Desenvolvimento de Software (PDS) através de um Programa de Métricas (PM). Para tal, os modelos de qualidade de software sugerem a construção de um repositório organizacional de métricas. Contudo, a construção de um repositório que atenda as características tanto de suporte ao armazenamento dos dados, como da disponibilização de análises aos usuários organizacionais não mostra-se uma tarefa trivial. Perante esta realidade, este trabalho descreve sucintamente a arquitetura de um ambiente de Data Warehousing que provê suporte a adoção de um PM através do armazenamento de dados resultantes de diferentes PDS em uma base de dados unificada e centralizada. Este volume dedica-se a apresentação de dois componentes deste ambiente: o modelo analítico, base do Data Warehouse (DW), e o componente de apresentação no qual definem-se recursos analíticos que facilitam as análises realizadas pelos usuários organizacionais. O desenvolvimento de um repositório deve considerar tanto as especificidades do PM adotado como as do próprio ambiente dos PDS. Quanto às métricas que compõem o PM, algumas representam dados não aditivos que podem comprometer as análises a serem realizadas.Já, quanto ao ambiente, especificidades dos PDS dificultam a definição de um único modelo que comporte características distintas. Além do armazenamento dos dados, a forma como estes serão disponibilizados também deve ser considerada, uma vez que usuários possuem características e necessidades de análise distintas. Por conseqüência, a complexidade de se desenvolver um modelo e prover recursos de análise neste contexto é muito alta. Desta forma, o modelo analítico proposto visa armazenar métricas e dados resultantes dos PDS, considerando as necessidades de análises e tratando tanto as especificidades do PM adotado como também as do ambiente do PDS. A definição dos recursos analíticos propostos, considera usuários com diferentes perfis, bem como suas particularidades. Estes recursos visam satisfazer as necessidades de análise destes perfis disponibilizando informações através de vários níveis de granularidade e disponibilizando mecanismos que forneçam maior semântica aos dados. Assim, este trabalho provê uma infraestrutura que suporta dados resultantes de diferentes PDS e análises quantitativas que consideram diferentes perfis de usuários embasadas em um PM.
236

Avaliando o sistema de arquivos Lustre com uso de cargas de trabalho de aplicações paralelas

Kuszera, Evandro Miguel January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:58Z (GMT). No. of bitstreams: 1 000424004-Texto+Completo-0.pdf: 1341745 bytes, checksum: 512c3632850f9466f0d8d4864c026768 (MD5) Previous issue date: 2010 / The growing advance in computers processing power provides the means to design and run high performance applications. But depending on the application, there is also the need to efficiently store and access large amounts of data. Applications focused on science, engineering, data mining and simulation of natural events are some examples that require high I/O throughput. Linux clusters and distributed file systems are generally used in these scenarios. However, traditional distributed file systems, like NFS, are not suitable for data-intensive applications. The centralized architecture of such systems limits the performance and scalability of the application. Based on this, several parallel file systems were designed with the purpose of alleviating the bottleneck created in data access. Among these systems is Lustre, a parallel file system widely used by the high performance community. In this work, an evaluation of Lustre on a small scale Linux cluster is carried out. The evaluation aims to identify which factors affect the performance of the parallel file system, and how it behaves under typical parallel applications workloads. The results showed that Lustre is a file system suitable for all the evaluated application classes. However, to achieve good performance processes should try to maximize contiguous access to files. In that way, is possible to take advantage of the optimizations provided by Lustre, like the client cache and read-ahead mechanism. / O crescente avanço na capacidade de processamento dos computadores fornece meios para projetar e executar aplicações com demandas cada vez maiores. Contudo, dependendo da aplicação, há também a necessidade de acessar e armazenar grandes porções de dados de forma eficiente. Aplicações voltadas à ciência, engenharia, mineração de dados e simulações de eventos naturais são alguns exemplos de aplicações que requerem alta vazão de dados. Clusters Linux e sistemas de arquivos distribuídos, geralmente são utilizados nestes cenários. Entretanto, sistemas de arquivos distribuídos ditos tradicionais, como NFS, não são adequados para aplicações intensivas em dados. A arquitetura centralizada limita o desempenho e escala da aplicação. Com base nisso, vários sistemas de arquivos paralelos foram concebidos com o objetivo de amenizar o gargalo criado no acesso aos dados. Dentre esses sistemas, destaca-se o Lustre, sistema de arquivos paralelos amplamente utilizado pela comunidade de alto desempenho. Neste trabalho, realiza-se uma avaliação do Lustre sobre um cluster Linux de pequena escala. A avaliação tem por objetivo identificar quais fatores afetam o desempenho do sistema de arquivos, e como o mesmo se comporta sob cargas de trabalho típicas de aplicações paralelas. Os resultados obtidos mostraram que o Lustre é um sistema de arquivos adequado para todas as classes de aplicações avaliadas. Entretanto, para se obter bom desempenho é importante tornar os acessos, realizados pelos processos, contíguos dentro do arquivo. Dessa forma, é possível aproveitar os recursos fornecidos pelo Lustre, como cache cliente e read-ahead.
237

Gestão de métricas e indicadores de doenças em saúde bucal suportado por um ambiente de descoberta de conhecimento em banco de dados

Blomberg, Luciano Costa January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:37Z (GMT). No. of bitstreams: 1 000423037-Texto+Completo-0.pdf: 1478944 bytes, checksum: d2974fba2b6145147b3c83b7003075fb (MD5) Previous issue date: 2010 / Although the last epidemiological survey (BRAZIL, 2006) reveal a significant improvement in oral health status of the Brazilian population in the last two decades, oral diseases still require large financial investments by the federal government. This study aims to develop and document a computational approach (Knowledge Discovery in Database Process) capable of managing large volumes of data and producing more comprehensible models to support the decision making process and the formulation of improved oral health policies, as well as making new teaching and research activities in the area viable. Therefore, we analyze a sample of data concerning the dental records of 598 low-income patients, treated with one unit of PUCRS linked to the SUS (Unified Health System). The main result of this work, we identified opportunities for data mining for the extraction of predictive models applied to the analysis of periodontal diseases, malocclusion and indicators of dental caries. / Embora o último levantamento epidemiológico (BRASIL, 2006) revele uma sensível melhora na condição bucal da população brasileira nas últimas duas décadas, patologias bucais ainda demandam grandes investimentos financeiros por parte do governo federal. Este trabalho tem como objetivo desenvolver e documentar uma abordagem computacional (Knowledge Discovery in Database) capaz de gerenciar grandes volumes de dados e produzir modelos mais compreensíveis para o suporte à tomada de decisão, formulação de melhores políticas de saúde bucal, bem como a viabilização de novas atividades de ensino e pesquisa na área. Para tanto, analisamos uma amostra de dados referente às fichas odontológicas de 598 pacientes de baixa renda, atendidos junto a uma unidade da PUCRS vinculada ao SUS (Sistema Único de Saúde). Como principal resultado deste trabalho, identificamos oportunidades de data mining pela extração de modelos preditivos aplicados à análise de patologias periodontais, má-oclusão e indicadores de cárie dentária.
238

Princípios para a construção de banco de dados de imagens médicas

Marchaukoski, Jeroniza Nunes 27 October 2010 (has links)
No description available.
239

Extraçao de regras de integridade referencial a partir do código fonte

Vallim, David da Assunçao 04 February 2011 (has links)
Resumo: Para atender a solicitações de manutenção em sistemas de informação, os responsáveis pelo sistema necessitam conhecer suas funcionalidades, regras de negócio, ou pelo menos, a parte do sistema que será afetada pela alteração. Esta pode ser uma tarefa simples quando executada por quem construiu o sistema, mas se torna complexa quando o projetista original foi deslocado para outras funções ou não está mais na empresa e não existe documentação para obter as informações necessárias. Neste caso, para ajudar a resolver o problema é necessário buscar informações em todos os lugares onde possam existir. Elas podem ser obtidas do esquema do banco de dados, com colegas que participaram na construção do sistema, com o usuário e nos códigos fonte dos programas, sendo este último um dos recursos mais utilizados. Quando se pretende obter informações gerenciais com cruzamento de variáveis, a falta do conhecimento das relações e regras de integridade, podem levar a resultados imprecisos ou equivocados e comprometer decisões importantes. Para fazer reengenharia de sistemas ou para criação de bases de informações gerencias o conhecimento de relações e regras de integridade são de igual forma fundamental. Por isso a proposta deste trabalho é mostrar que é possível identificar, extrair e armazenar regras de integridade referencial do código fonte para subsidiar estas atividades.
240

Um modelo para gerenciamento de transações com controle de cache em um repositório chave-valor

Oliveira, Wendel Muniz de January 2017 (has links)
Orientadora : Profª. Drª. Carmem Satie Hara / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2017 / Inclui referências : p. 48-50 / Resumo: As estratégias mais comuns para alocação de dados em sistemas distribuídos são as tabelas de dispersão distribuídas (DHT) e os sistemas de diretórios distribuídos. As DHTs garantem escalabilidade, porém não dão às aplicações usuárias controle sobre a localidade dos dados. Por outro lado, os diretórios distribuídos mantêm o mapeamento entre os itens alocados e os servidores que compõem o sistema, o que garante flexibilidade de alocação, mas com escalabilidade limitada. Em um Sistema Gerenciador de Banco de Dados (SGBD), o controle sobre a localidade pode garantir a proximidade dos dados que são frequentemente acessados de forma conjunta nas consultas, com o intuito de reduzir acessos remotos que aumentam o tempo de execução. O ALOCS é um sistema desenvolvido sobre diretórios distribuídos que tem por finalidade ser utilizado como backend de armazenamento de um SGBD. Ele adota o conceito de buckets, compostos por um conjunto de pares chave-valor, como unidade de comunicação de dados entre servidores. Dessa forma, a aplicação usuária pode alocar em um mesmo bucket pares que são frequentemente utilizados em conjunto. Para minimizar ainda mais a quantidade de comunicação, o ALOCS mantém buckets previamente acessados em cache. A utilização de cache pode gerar problemas para a consistência dos dados quando vários servidores mantêm em cache buckets com dados atualizados. O objetivo desta dissertação é desenvolver uma solução para manter a consistência entre os dados atualizados em cache e o sistema de armazenamento distribuído. A solução é baseada no modelo de concorrência multiversão, com transações que garantem o isolamento por snapshot. Ele foi escolhido por sua abordagem otimista e por não bloquear transações somente de leitura. O sistema foi implementado e os experimentos mostram o impacto da alocação de dados sobre o desempenho do sistema, bem como o overhead do protocolo de controle de concorrência sobre o tempo de recuperação e escrita de dados. Os resultados demonstraram a importância do controle sobre a localidade dos dados. O uso do cache foi determinante para reduzir o tempo de execução das consultas. Palavras-chave: controle de concorrência, controle de localidade, cache. / Abstract: The most common strategies for data allocating in distributed systems are Distributed Hash Tables (DHT) and Distributed Directory Systems. DHTs guarantee scalability but do not allow control over data location to user applications. On the other hand, distributed directories store the location of data items, that is, a mapping between the stored data and servers that compose the system. This strategy guarantees flexibility of allocation but limits its scalability. In a Database Management Systems (DBMS), control over data locality can ensure the proximity of data that are frequently accessed together in queries in order to reduce the number of remote accesses that increase their execution time. ALOCS is a system developed on distributed directories to be used as a storage backend for DBMSs. It adopts the concept of buckets, composed by a set of key-value pairs, as the communication unit between servers. In this way, the user application can allocate pairs that are often used together in the same bucket. To further minimize the amount of communication, ALOCS maintains previously accessed buckets in cache. Caching can cause problems for data consistency when multiple servers cache buckets with updated data. The main objective of this dissertation is to develop a solution to maintain the consistency of the updated data in the cache and the storage system. The solution is based on a multiversion concurrency control with snapshot isolation. It has been chosen for its optimistic approach and non-blocking read-only transactions. The system was implemented and our experiments show the impact of data allocation on the system performance as well as the overhead of the concurrency control protocol on the data recovery and writing time. The results show the importance of allocation control on reducing the execution time of queries. Moreover, they show that caching is crucial to reduce the query execution time. Keywords: concurrency control, locality control, cache.

Page generated in 0.0302 seconds