• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 9
  • 9
  • 7
  • 7
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelo de replicação para a preservação de dados em repositórios

Pinho, Micael Ferreira Alves de January 2012 (has links)
Tese de mestrado integrado. Engenharia Informática e de Computação. Faculdade de Engenharia. Universidade do Porto. 2012
2

Replicação assíncrona em bancos de dados evolutivos / Asynchronous Replication in Evolutionary Databases

Helves Humberto Domingues 02 June 2011 (has links)
A modelagem evolutiva de bancos de dados é necessária devido às frequentes mudanças de requisitos das aplicações. O desafio é ainda maior quando o banco de dados tem de atender simultaneamente a várias aplicações. A solução proposta por Scott Ambler para evolução utiliza refatorações e define um período de transição, durante o qual tanto o esquema antigo quanto o novo coexistem e os dados são replicados por meio de um processo síncrono que apresenta várias dificuldades, como a interferência no funcionamento normal das aplicações. Para minimizar essas dificuldades, esta tese propõe um processo assíncrono para manter atualizados esses esquemas e apresenta um protótipo de uma ferramenta para auxiliar as evoluções dos bancos de dados. A proposta foi validada por meio de um experimento em laboratório que comparou a solução aqui apresentada com a proposta por Ambler. / Evolutionary database modeling is necessary due to the frequent changes in application requirements. The challenge is greater when the database must support multiple applications simultaneously. The solution for evolution proposed by Scott Ambler is refactoring with a transition period, during which both the old and the new database schemas coexist and data is replicated via a synchronous process, what brings several difficulties, such as interference with the normal operation of applications. To minimize these difficulties, this thesis proposes an asynchronous process to keep these schemas updated and presents a prototype tool to evolve databases. The proposal was validated by a laboratory experiment in which the solution presented here was compared with the one proposed by Ambler.
3

Análise de algoritmos distribuídos para escalonamento em Data Grids / Analysis of distributed algorithms for scheduling in Data Grids

Gustavo Vilaça Lourenço 18 April 2012 (has links)
É um resultado conhecido que em Data Grids, onde o processamento envolve grandes quantidades de dados, pode ser mais eficaz escalonar os processos para execução nos sites que já dispõem dos dados do que transferir os dados para um site onde o processo que irá necessitar deles foi escalonado. Os estudos existentes se baseiam em pequenas quantidades de sites, com conhecimento centralizado sobre o estado dos diversos sites. Essa opção não é escalável para Grids com grande número de participantes. Este trabalho analisa versões distribuídas com informação local para os algoritmos de escalonamento de processo e replicação de dados, mostrando o efeito das topologias de interconexão de sites no desempenho desses. É observado que, considerando a existência apenas de informações locais devido às restrições topologicas, resultados diferentes quanto aos melhores algoritmos de escalonamento de processos e replicação de dados são encontrados. / It is a known result that in Data Grids, where the processing involves large amounts of data, can be more effective schedule processes to run on sites that already have the data than transfering data to a site where the process that will require them was installed. The existing studies are based on small numbers of sites, with centralized knowledge about the state of the various sites. This option is not scalable for grids with large numbers of participants. This paper will propose distributed versions with local information for process scheduling algorithms and data replication, showing the effect of interconnect topologies on the performance of these sites. It is observed that, considering the existence of only local information due to topological constraints, different results related to the best scheduling algorithms and data replication processes are found.
4

Replicação de dados e aplicações em sistemas de quiosques multimédia

Vieira, José Maria da Silva January 2000 (has links)
Dissertação apresentada para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores (Área de especialização de Telecomunicações), na Faculdade de Engenharia da Universidade do Porto, sob a orientação do Professor João Correia Lopes
5

Análise de algoritmos distribuídos para escalonamento em Data Grids / Analysis of distributed algorithms for scheduling in Data Grids

Lourenço, Gustavo Vilaça 18 April 2012 (has links)
É um resultado conhecido que em Data Grids, onde o processamento envolve grandes quantidades de dados, pode ser mais eficaz escalonar os processos para execução nos sites que já dispõem dos dados do que transferir os dados para um site onde o processo que irá necessitar deles foi escalonado. Os estudos existentes se baseiam em pequenas quantidades de sites, com conhecimento centralizado sobre o estado dos diversos sites. Essa opção não é escalável para Grids com grande número de participantes. Este trabalho analisa versões distribuídas com informação local para os algoritmos de escalonamento de processo e replicação de dados, mostrando o efeito das topologias de interconexão de sites no desempenho desses. É observado que, considerando a existência apenas de informações locais devido às restrições topologicas, resultados diferentes quanto aos melhores algoritmos de escalonamento de processos e replicação de dados são encontrados. / It is a known result that in Data Grids, where the processing involves large amounts of data, can be more effective schedule processes to run on sites that already have the data than transfering data to a site where the process that will require them was installed. The existing studies are based on small numbers of sites, with centralized knowledge about the state of the various sites. This option is not scalable for grids with large numbers of participants. This paper will propose distributed versions with local information for process scheduling algorithms and data replication, showing the effect of interconnect topologies on the performance of these sites. It is observed that, considering the existence of only local information due to topological constraints, different results related to the best scheduling algorithms and data replication processes are found.
6

Modelo para análise de desempenho do processo de replicação de dados em portais de biodiversidade. / Model for performance analysis of the replication process of biodiversity portal data.

Pablo Salvanha 08 December 2009 (has links)
Atualmente muitas instituições mantêm coleções de espécimes biológicas, e através de ferramentas computacionais digitalizam e disponibilizam seus dados para acesso através de portais de dados de biodiversidade. Um exemplo deste tipo de ferramenta é o portal de espécimes utilizado pelo GBIF (Global Biodiversity Information Facility), que centraliza em suas bases de dados milhões de registros, provenientes de instituições de diferentes localizações. A replicação das bases de dados locais nos portais é realizada através da utilização de protocolos (DiGIR / TAPIR) e esquemas de dados (DarwinCore). Entretanto a execução desta solução demanda uma grande quantidade de tempo, englobando tanto a transferência dos fragmentos de dados como o processamento dos mesmos dentro do portal. Com o crescimento da digitalização de dados dentro das instituições, este cenário tende a ser agravado cada vez mais, dificultando assim a manutenção de dados sempre atualizados dentro dos portais. Esta pesquisa propõe uma análise do processo de replicação de dados com objetivo de avaliar seu desempenho. Para isto é utilizado o portal de biodiversidade de polinizadores da IABIN como estudo de caso, o qual possui, além da replicação de dados convencionais o suporte a dados de interação. Com os resultados desta pesquisa é possível simular situações antes da efetivação das mesmas, prevendo assim qual será o seu desempenho. Adicionalmente estes resultados podem contribuir para melhorias futuras deste processo, visando a diminuição do tempo necessário da disponibilização dos dados dentro de portais de biodiversidade. / Currently many institutions keep collections of biological specimens, and through computational tools they digitalize and provide access to their data through biodiversity data portals. An example of this tool is the specimens portal used by GBIF (Global Biodiversity Information Facility), which focuses on its databases millions of records from different institutions around the world. The replication of databases in those portals is accomplished through the use of protocols (DiGIR / TAPIR) and data schemas (DarwinCore). However the implementation of this solution demands a large amount of time, encompassing both, the transfer of fragments of data as processing data within the portal. With the growth of data digitalization within the institutions, this scenario tends to be increasingly exacerbated, making it hard to maintenance the records up to date within the portals. This research proposes analyze the replication process data to evaluate its performance. To reach this objective is used the IABIN biodiversity portal of pollinators as study case, which support both situations: the conventional data and the interaction data replication. With the results of this research is possible to simulate situations before its execution, thus predicting what will be its performance. Additionally these results may contribute to future improvements of this process; in order to decrease the time required to make the data available in the biodiversity portals.
7

Análise de mecanismos de replicação de dados para grades de computadores / Analysis of data replication mechanisms for grid computing

Leonardo Pancieri Ferreira de Freitas 28 April 2010 (has links)
Uma grade de dados (datagrid) é um ambiente computacional distribuído destinado a agregar e compartilhar recursos de armazenamento que estão geograficamente separados. As grades de dados provêm infra-estrutura e serviços para descoberta, transferência, manipulação e gerenciamento de grandes quantidades de dados armazenados em repositórios distribuídos. As grades de dados possuem características em comum com redes peer-to-peer, bancos de dados distribuídos e redes de distribuição de conteúdo (CDN). Muitas das políticas de replicação, substituição e busca utilizadas nestas redes são comuns com as de grades de dados. O foco deste trabalho é estudar a influência das políticas (replicação, substituição e busca), topologias de rede e interação entre políticas no desempenho para armazenamento, busca de arquivos, sobrevivência de réplicas e tráfego de rede. O estudo também considera as interações das diversas políticas com estrutura topológicas da rede e falhas em nós. A metodologia adotada para realizar avaliações no trabalho foi a simulação. Com o simulador foi possível concentrar os estudos nas relações entre as políticas e topologias de rede, evitando complexidade de uma grade como heterogeneidade de recursos. Nos resultados foram encontrados efeitos importantes de características topológicas em redes e sua interação com políticas utilizadas no desempenho da grade. / A datagrid is an distributed computing environment designed to aggregate and share storage resources that are geographically distant. Datagrids provides infrastructure and services for discovery, transfer, handling and managing large amounts of data stored in distributed repositories. The datagrids share characteristics with peer-to-peer networks, distributed databases and content distribution networks (CDN). Many of the replication, placement and search policies used in these networks are common with datagrids. The focus of this work is to study the influence of policies (replication, placement and search), network topologies and their interaction on the performance for storage, file searching, replica survival and network traffic. This research also considers the interactions of various policies with topologies of networks under node failures. The methodology adopted to carry out the evaluation in this work is the use of simulation. With a simulator it is possible to concentrate studies on the relationships between policies and network topologies, avoiding the complexity of a grid with heterogeneous resources. Results show significant effects on grid performance of topological features of the networks and its interaction with policies.
8

Modelo para análise de desempenho do processo de replicação de dados em portais de biodiversidade. / Model for performance analysis of the replication process of biodiversity portal data.

Salvanha, Pablo 08 December 2009 (has links)
Atualmente muitas instituições mantêm coleções de espécimes biológicas, e através de ferramentas computacionais digitalizam e disponibilizam seus dados para acesso através de portais de dados de biodiversidade. Um exemplo deste tipo de ferramenta é o portal de espécimes utilizado pelo GBIF (Global Biodiversity Information Facility), que centraliza em suas bases de dados milhões de registros, provenientes de instituições de diferentes localizações. A replicação das bases de dados locais nos portais é realizada através da utilização de protocolos (DiGIR / TAPIR) e esquemas de dados (DarwinCore). Entretanto a execução desta solução demanda uma grande quantidade de tempo, englobando tanto a transferência dos fragmentos de dados como o processamento dos mesmos dentro do portal. Com o crescimento da digitalização de dados dentro das instituições, este cenário tende a ser agravado cada vez mais, dificultando assim a manutenção de dados sempre atualizados dentro dos portais. Esta pesquisa propõe uma análise do processo de replicação de dados com objetivo de avaliar seu desempenho. Para isto é utilizado o portal de biodiversidade de polinizadores da IABIN como estudo de caso, o qual possui, além da replicação de dados convencionais o suporte a dados de interação. Com os resultados desta pesquisa é possível simular situações antes da efetivação das mesmas, prevendo assim qual será o seu desempenho. Adicionalmente estes resultados podem contribuir para melhorias futuras deste processo, visando a diminuição do tempo necessário da disponibilização dos dados dentro de portais de biodiversidade. / Currently many institutions keep collections of biological specimens, and through computational tools they digitalize and provide access to their data through biodiversity data portals. An example of this tool is the specimens portal used by GBIF (Global Biodiversity Information Facility), which focuses on its databases millions of records from different institutions around the world. The replication of databases in those portals is accomplished through the use of protocols (DiGIR / TAPIR) and data schemas (DarwinCore). However the implementation of this solution demands a large amount of time, encompassing both, the transfer of fragments of data as processing data within the portal. With the growth of data digitalization within the institutions, this scenario tends to be increasingly exacerbated, making it hard to maintenance the records up to date within the portals. This research proposes analyze the replication process data to evaluate its performance. To reach this objective is used the IABIN biodiversity portal of pollinators as study case, which support both situations: the conventional data and the interaction data replication. With the results of this research is possible to simulate situations before its execution, thus predicting what will be its performance. Additionally these results may contribute to future improvements of this process; in order to decrease the time required to make the data available in the biodiversity portals.
9

Metadados para reconciliação de transações em bancos de dados autônomos / Metadata for transaction reconciliation in autonomous databases

Gustavo Luiz Duarte 19 December 2011 (has links)
O uso de técnicas de replicação de dados em dispositivos móveis permite que uma aplicação móvel compartilhe dados com um servidor e possa atuar sobre tais dados durante períodos de desconexão. Embora essa característica seja fundamental em diversos domínios, a reconciliação das transações que foram aplicadas sobre a réplica móvel dos dados apresenta-se como um desafio a ser superado. O uso de bloqueios apresenta-se impraticável em determinados domínios de aplicação. Por outro lado, ao permitir a execução de operações de escrita em diversas réplicas sem uma sincronização a priori, o sistema se torna suscetível a conflitos de atualização, sendo necessário a implementação de um mecanismo de resolução de conflitos. Resolver conflitos é uma tarefa complexa e propensa a erros, em especial nos casos em que há a necessidade de intervenção humana. Diante desse cenário, foi desenvolvido um modelo para controle de transações em bancos de dados autônomos que faz uso de metadados e multiversão de banco de dados de forma a permitir a auditoria e retificação de resoluções de conflitos. Isso torna a resolução de conflitos uma operação não destrutiva, reduzindo, assim, o impacto de uma resolução de conflito incorreta. Neste trabalho é apresentado também um arcabouço para reconciliação de transações que implementa o modelo proposto. Como estudo de caso, o arcabouço desenvolvido foi utilizado para implementar a integração entre dois sistemas reais que possuem necessidades de replicação de dados e atualizações desconectadas. / The use of data replication techniques on mobile devices allows a mobile application to share data with a server and to work on such data while disconnected. While this feature is crucial in some application domains, the reconciliation of transactions applied to the mobile replica of data proves to be challenging. The use of locking is not feasible in some application domains. However, allowing write operations to be applied on several replicas without \\emph{a priori} synchronization makes the system susceptible to update conflicts, requiring a conflict resolution mechanism. Conflict resolution is a complex and error prone task, specially when human intervention is involved. Given this scenario, we developed a transactions control model for autonomous databases that uses metadata and database versioning to provide auditing and rectification of conflict resolutions. This turns the conflict resolution into a nondestructive operation, thus reducing the impact of an incorrect conflict resolution. This work presents also a framework for transaction reconciliation that implements the proposed model. As a case study, the developed framework was used to integrate two real systems that needed data replication and disconnected updates.

Page generated in 0.1402 seconds