• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Join operators for asymmetric media / Join operators for asymmetric media (Português / inglês)

Evangelista, Neusa Liberato 02 December 2016 (has links)
Made available in DSpace on 2019-03-30T00:02:22Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-12-02 / Nowadays the use of Solid State Drive (SSD) is a reality for storing large databases. SSDs are capable to provide random access times up to three orders of magnitude faster than magnetic Hard Disk Drives (HDDs) and Input/Output operations Per Second (IOPS) rates over 100 times faster than 15K RPM HDDs. Nonetheless, SSD, as other Storage Class Memory (SCM) devices, presents time asymmetry for executing read/write operations, which poses challenges on the database technology. This is because existing Database Management Systems (DBMS) have been designed by assuming that databases are stored on devices in which read/write operations are executed in the same amount of time. Thus, this research claims that to take full pro¿t from SCM properties, components of DBMS should be aware of read/write asymmetry in SCM. It is well known that the join operation is the query operator which requires the highest amount of accesses (read/write operations) to the secondary memory. This dissertation presents new join algorithms, called Bt-Join and Dict-Join. The key goal of these algorithms is to reduce the amount of write operations during the execution of any join operation R ¿¿ S. By making less writes, we intend to extend the lifetime of SCM media and by requiring less main memory space, improve the response time of novel join algorithms. Bt-Join and Dict-Join were empirically evaluated. The results show that the proposed join operators can be at least 30% faster than FlashJoin for the most of queries which compose the experiments. FlashJoin is a well-known join operator proposed to be deployed in SSDs. Keywords: Databases, Storage Class Memory, Query Operator, Join Algorithm, Material ization Strategies, Join index. / Atualmente o uso de dispositivos de estado sólido (solid state drives - SSDs) é uma realidade para armazenamento de grandes bases de dados. SSDs são capazes de prover velocidades de IOPS três ordens de magnitude maiores que as velocidades dos discos rígidos (hard disk drives ¿ HDD). Apesar disso, SSDs apresentam assimetria no tempo de execução das operações de leitura/escrita, o que gera desa¿os para a tecnologia dos bancos de dados. Isto porque os sistemas gerenciadores de bancos de dados (SGBD) foram projetados sob a premissa de que os dados são armazenados em dispositivos nos quais as operações de leitura/escrita são executadas na mesma velocidade (tempos de execução idênticos). Então, esta pesquisa defende que, para tirar total proveito das propriedades do SSD, componentes do SGBD devem ser cientes da assimetria entre leitura/escrita em SSDs. É sabido que a operação de junção é o operador de consulta que requer a maior quantidade de acessos (operações de leitura/escrita) à memória secundária. Esta dissertação apresenta novos algoritmos de junção, chamados Bt-Join e Dict-Join. O objetivo principal destes algoritmos é reduzir a quantidade de operações de escrita durante a execução de uma operação de junção. Nosso intento, ao realizar menos escritas, é estender o tempo de vida da mídia SCM e, ao requerer menos espaço de memória, melhorar o tempo de resposta dos novos algoríttmos de junção. Bt-Join e Dict-Join foram avaliados empiricamente. Os resultados mostram que os operadores de junção propostos podem ser no mínimo 30% mais rápidos que o algoritmo FlashJoin para a grande maioria das consultas que compuseram os experimentos. FlashJoin é um operador de junção proposto para ser executado em SSDs. Palavras-chave: Bancos de Dados, Mídias Assimétricas, Operador de Consulta, Algoritmos de Junção, Estratégias de Materizalicação, Join index.
22

Uma abordagem de gestão de continuidade e disponibilidade aplicada a serviços de banco de dados / An Approach of Continuity and Availability Management Applied to Database Services (Inglês)

Pontes, Leonardo Bastos 22 June 2017 (has links)
Made available in DSpace on 2019-03-30T00:08:28Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-06-22 / This dissertation is held in the information technology services management environment, with a few ideas of information technology governance, and purposes to implement a hybrid model to manage the services of a database, based on the principles of information technology services management. It is a hybrid model because utilizes fundamental nuances of services management guides, such as CMMI for Services, COBIT, ISO 20000, ITIL and MPS.BR for Services. The study is focused in a specific incident in a corporation that offers health plans, and this incident is directly connected in the data flow and concurrency control. In the many knowledge topics of information technology service management, the continuity and availability management were chosen as key processes to maintain and improve the data flow and concurrency incidents; with blocking processes and services as the major problem/incident. Keywords: Availability, Continuity, Services Management, Database. / Este trabalho está situado no ambiente de gestão de serviços de tecnologia de informação, com nuances de banco de dados e alguns aspectos de governança de tecnologia da informação, se propondo a definir um modelo de gestão de continuidade e disponibilidade dos serviços de banco de dados. Este modelo utiliza fundamentos dos principais guias de gestão de serviços, tais como CMMI Para Serviços, COBIT, ISO 20000, ITIL e MPS.BR Para Serviços. As áreas estudadas ¿ disponibilidade e continuidade ¿ foram escolhidas em harmonia pelo fato de mais da metade dos guias utilizados as tratarem dessa maneira: continuidade complementando a disponiblidade. O estudo está focado em um incidente específico em uma organização que oferta planos de saúde, e este incidente está diretamente ligado ao controle do fluxo de concorrência e informação em tal empresa. A abordagem trabalhou tanto no gerenciamento do incidente citado, quanto no seu monitoramento, utilizando recursos não onerosos do sistema de gestão do banco de dados. Na gama de áreas de conhecimentos dos guias e padrões de gerenciamento de serviços de tecnologia da informação, a continuidade e disponibilidade são pontos chave para o aperfeiçoamento do fluxo no ambiente estudado, levando em conta o frequente incidente de acessos; situações em que serviços e usuários realizam operações que geram bloqueio no banco de dados. Palavras-chave: Disponibilidade, Continuidade, Gestão de Serviços, Banco de Dados.
23

Ajax : an adaptive join algorithm for extreme restrictions

Araujo, Eriko Werbet de Oliveira 21 October 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:42Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-10-21 / In a mobile ad hoc network (MANET), the nodes represent mobile computers in which database systems may reside. Such mobile computers (nodes) are free to move arbitrarily. In such an environment, we may have a collection of autonomous, distributed, heterogeneous and mobile databases (denoted Mobile Database Community or MDBC). Thus, each database user (in a mobile host) can access databases belonging to an MDBC through the MANET. Traditional query processing techniques fail to support the access to databases in an MDBC, since data delivery rate in such an environment becomes unpredictable and mobile hosts may suffer from limited available main memory to process some query operators (e.g., join). To react to those events, this dissertation presents an adaptive join operator, called AJAX, for processing join operations on mobile databases in an MDBC. AJAX ensures: (i) incremental production of results as soon as the data become available; (ii) progress of the query processing even when the delivery of data is blocked, and; (iii) reaction to situations of memory limitation on the execution of operator. Cost estimation and experimental results are presented to evidence that AJAX is an effective solution for processing join operation on mobile databases. Keywords: adaptive query processing, adaptive query operators, mobile databases, distributed systems. / Uma Comunidade de Bancos de Dados Móveis (MDBC) representa uma coleção de bancos de dados móveis e autônomos. Em tal contexto, cada usuário de um sistema de banco de dados participante da comunidade pode acessar os outros bancos de dados através de uma infra-estrutura de comunicação sem fio. A utilização de técnicas tradicionais para processamento de consultas no acesso à banco de dados em uma MDBC tem se mostrado ineficiente devido à imprevisibilidade na taxa de acesso a bancos de dados da comunidade e a limitação de memória disponível nos dispositivos móveis para a execução de certos operadores, como a junção, por exemplo. A imprevisibilidade é provocada por quedas constantes na comunicação entre os membros de uma MDBC (cenário comum em redes sem fio) e limitação de processamento de certas unidades móveis, atrasando a entrega de tuplas. Para reagir a estes eventos, é apresentado neste trabalho um operador de junção para processamento de consultas em bancos de dados móveis, denominado AJAX. O operador proposto garante as seguintes propriedades: (i) produção incremental de resultados à medida que os dados são disponibilizados; (ii) continuidade no processamento da consulta mesmo que a entrega dos dados esteja bloqueada, e; (iii) reação a situações de limitação de memória durante a execução do operador. Palavras-chave: processamento adaptativo de consultas, operadores adaptativos, bancos de dados móveis, sistemas distribuídos.
24

Database buffer management stratyegies for asymmetric media / Estratégias de Gerenciamento de Buffer para Bancos de Dados em Mídias Assimétricas (Inglês)

Tavares, Julio Alcantara 05 October 2015 (has links)
Made available in DSpace on 2019-03-29T23:53:05Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-10-05 / For decades, hard disk drives (HDD) have dominated the scene with regard to data storage for large databases systems. HDDs may be considered a symmetric media because there is no difference between the time (and cost) for reading and writing data. As a counterpart, in the last years, a whole new class of storage media has raised, whose the main feature is to have no mechanical parts and, more importantly, to be asymmetric. In a asymmetric media, the time forreading data is faster than the time in which such media writes data. Depending on manufacturing, this asymmetry may reach a factor of 10 or even higher. Asymmetric storage impacts on the most important database management system components, more specifically, on the buffer manager. In this research, we propose database buffer replacement algorithms for asymmetric media. They try to take advantage from the use of a asymmetric media by keeping written(dirty) pages in main memory, postponing their writing down on media and also adapting to achieve good hit ratios. Keywords: Databases, Storage Class Memory, Buffer Management Policies. / Durante décadas, unidades de disco rígido (HDD) têm dominado o armazenamento de dados para grandes sistemas gerenciadores de banco de dados. Os HDDs podem ser considerados um meio simétrico porque não há diferença entre o tempo (custo) das operações de leitura e escrita. Em contrapartida, nos últimos anos, uma nova categoria de dispositivos de armazenamento ganhou notoriedade. Sua principal característica é não possuir partes mecânicas e, mais importante, serem assimétricos. Em uma mídia assimétrica, o tempo para a leitura de dados é bastante inferior ao tempo gasto por uma operação de escrita. A depender do fornecedor, a assimetria pode atingir um fator de 10 ou mais. Essa assimetria gera um impacto direto nos componentes mais importantes do SGBD, mais especificamente, no gerenciador de buffer. Neste trabalho, propomos algoritmos de substituição de páginas para mídias assimétricas. Os algoritmostentam se beneficiar da mídia assimétrica mantendo as páginas alteradas em memória principal, adiando a sua escrita para a mídia de armazenamento persistente e adaptando-se para também obter boas taxas de acerto. Palavras-chave: Bancos de Dados, Mídias Assimétricas, Políticas de Gerenciamento de Buffer.
25

Um algoritmo de filtragem colaborativa baseado em SVD

Pereira Filho, João Bosco A. 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-graduação em Ciência da Computação, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T08:55:33Z (GMT). No. of bitstreams: 1 286638.pdf: 551379 bytes, checksum: e816c4734203fde09171e8dbaf05ced4 (MD5) / A presente dissertação tem como objetivo contribuir com a pesquisa na área de sistemas de recomendaçãao e propõe um algoritmo de ?ltragem colaborativa baseado em Decomposição por Valor Singular (SVD) que modela o per?l de um grande grupo de usuários, com o intuito de fazer recomendações personalizadas a eles. Tal algoritmo utiliza técnicas normalmente utilizadas no treinamento de redes neurais arti?cais, técnicas de estatística e de álgebra linear para processar as recomendações. É proposta uma maneira inteligente de se inicializar o modelo do algoritmo, que acaba por acelerar a convergência do treinamento e melhora a e?cácia do mesmo. As experimentações foram realizadas no contexto do concurso Net?ix Prize, que disponibiliza uma grande base de dados e uma metodologia de avaliação dos resultados. Tais experimentações realizadas e uma análise comparativa com outro algoritmo demonstram que o algoritmo proposto retorna resultados mais precisos, apesar de ser mais lento. Além disso, o algoritmo também foi experimentado em conjunto com este outro algoritmo e as recomendações geradas por esta combinação se mostraram ainda mais precisas.
26

Gerenciamento de dados de proveniência de workflow de bioinformática com banco de dados baseados em grafo

Almeida, Rodrigo Pinheiro de 26 June 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-06-07T16:28:08Z No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-12-21T17:01:19Z (GMT) No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5) / Made available in DSpace on 2016-12-21T17:01:19Z (GMT). No. of bitstreams: 1 2015_RodrigoPinheirodeAlmeida.pdf: 2786870 bytes, checksum: 683fe7a67964204f75f57755f9546e73 (MD5) / Muitos experimentos científicos na bioinformática são executados como workflows computacionais. Algumas vezes para a validação e reconhecimento de um experimento é necessário reexecutá-lo sob as mesmas circustâncias nas quais foi originado. Proveniência de dados diz respeito à origem ou procedência dos dados. Para facilitar o entendimento e análise dos resultados, é interessante ter os dados de proveniência, que detalham e documentam a história e os caminhos dos dados de entrada, do início do experimento até o final. Portanto, neste contexto, a proveniência de dados pode ser aplicada para realizar a rastreabilidade de um experimento. Considerando que uma execução de um workflow pode ser representado por um grafo, como definido no modelo PROV-DM, este documento apresenta uma arquitetura capaz de realizar a proveniência de dados de expe- rimentos científicos na bioinformática de forma automática e armazenamento em bancos de grafo. / Many scientific experiments in bioinformatics are executed as computational work- flows. Sometimes for the validation and recognition of an experiment is need rerun under same circumstances in which it was originated. Date provenance concers the origin data. To facilate the understanding and analysis of the results is interesting to have the source data, detailing and documeting the history and the paths of the input data, the beginning of the experiment until the end. Therefore, in this context, the data provenance can be applied to realize an experiment traceability. Whereas an execution of a workflow can be represented by a graph, as defined in PROV-DM model, this document presents an architecture able to perform the data provenance of iscientif experiments in bioinformatics automatically and storage graph database.
27

Otimização de consultas em sistemas de gerencia de bancos distribuidos

Camargo, Murilo Silva de January 1988 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2013-07-15T20:55:24Z (GMT). No. of bitstreams: 1 83629.pdf: 2878788 bytes, checksum: 8eb9737b09e977e407c26539308d7854 (MD5) / Este trabalho apresenta uma análise comparativa de seis modelos para Otimização de Consultas Distribuídas. Estes modelos foram selecionados por serem relevantes e pelas suas diferentes abordagens do problema. Esta análise comparativa é feita baseada em uma taxonomia proposta, que considera parâmetros tais como: tipo de consulta, tratamento de dados fragmentados, topologia da rede, complexibilidade do modelo, tempo de otimização, função objetivo, componentes do custo etc.
28

Bancos de dados distribuídos heterogêneos

Manica, Heloise January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-18T12:25:56Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T21:19:38Z : No. of bitstreams: 1 177023.pdf: 3021166 bytes, checksum: ec123f91736a774f1ecbf4a5e0732e3a (MD5) / Com o desenvolvimento das empresas e instituições, surge a necessidade de integração dos sistemas de bancos de dados preexistentes, autônomos e diferentes. A utilização de Sistemas de Bancos de Dados Heterogêneos, por sua capacidade de integrar arquiteturas diferentes, apresenta-se como uma alternativa interessante para a solução do problema de integração dos dados. A tecnologia de Sistemas de Dados Heterogêneos permite que sistemas de modelos, fabricantes e produtos diferentes possam ser integrados de forma a oferecer uma visão única ao usuário. No entanto, devido à autonomia e heterogeneidade dos sistemas existentes, este ambiente apresenta muitos desafios. Acessar e gerenciar dados originários de vários bancos de dados independentes gera vários problemas. Este trabalho apresenta um estudo e análise sobre os principais problemas e soluções propostas para a integração de bases de dados heterogêneas. Foram analisadas as principais abordagens utilizadas por diferentes autores para tratar problemas relacionados ao processamento/otimização de consultas, gerenciamento/concorrência de transações e interoperabilidade em ambientes autônomos e heterogêneos. Por fim, apresentamos comentários sobre alguns projetos de sistemas gerenciadores de bancos de dados heterogêneos que vem sendo desenvolvidos nos últimos anos.
29

Automatização da evolução de esquemas em ferramentas de transporte de dados para data warehouse

Kavalco, Gilmar 08 February 2011 (has links)
Resumo: A diversidade de bases de dados encontradas nas empresas vem criando um dos desafios mais importantes na área de Bancos de Dados. Este desafio é o de tomar interoperáveis as diversas bases de dados existentes nestas empresas. Uma forma de conseguir a interoperabilidade dos dados é através da criação de um esquema integrado a partir dos sistemas aplicativos operacionais, tais como Recursos Humanos, Contabilidade, Contas a Pagar, entre outros. O conjunto de todos estes sistemas permite criar um ambiente integrado e consolidado de informações da empresa. Este tipo de ambiente têm como característica a contínua evolução dos diversos modelos de dados dos sistemas que participam da consolidação como fornecedores de informações. Este trabalho estuda o processo de administração do transporte contínuo de dados para um ambiente consolidado e o controle automático da evolução dos esquemas que participam da integração, visando a criação de um ambiente de data warehouse. Buscou-se uma solução através do desenvolvimento de um modelo de dados, o qual chamamos de "integrador". Com base neste modelo foi construída uma ferramenta para administrar e automatizar todo o movimento de informações sobre mudanças nos modelos, informações estas que caracterizam a evolução dos modelos. Para dar maior independência na solução e padronizar a comunicação entre modelos, foi utilizado XML na formatação dos arquivos e nas mensagens entre esquemas. Para testar a ferramenta e o modelo "integrador" proposto, desenvolveu-se um projeto piloto de data warehouse simulando um ambiente do setor bancário.
30

Mapeamento de atributos complexos e multivalorados na extração de esquemas utilizando XML

Pinto, Jose Simão de Paula 08 February 2011 (has links)
Resumo: Este trabalho aborda uma maneira de mapear atributos complexos e/ou multivalorados de um ambiente visual para banco de dados relacionais, usando XML. Estes atributos usualmente surgem após a aplicação de uma metodologia de integração, como o modelo ERC+, independentemente de existirem nos modelos originais. O mapeamento foi produzido em bases já integradas, usando arquivos DTD para reter o conhecimento sobre as bases pré-integradas, e uma ferramenta para consultas visuais desenvolvida no protótipo do Sistema VIQUEN, que gera a visualização do esquema utilizando o modelo ERC+. As consultas e seus resultados são visualizadas em ambiente gráfico. Expressar consultas em um ambiente gráfico possibilita a usuários comuns, não especializados em informática, criar suas próprias consultas, usando 4 uma ferramenta que esconde detalhes complexos de bancos de dados e não exige conhecimento sobre a linguagem de consulta SQL.

Page generated in 0.077 seconds