• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6159
  • 344
  • 174
  • 151
  • 151
  • 146
  • 78
  • 73
  • 62
  • 59
  • 58
  • 58
  • 7
  • 3
  • 3
  • Tagged with
  • 6652
  • 2730
  • 1380
  • 1042
  • 911
  • 895
  • 859
  • 753
  • 749
  • 692
  • 685
  • 659
  • 622
  • 609
  • 567
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Definição e implementação de um modelo de dados para representação de sólidos

Longhi, Magalí Teresinha January 1987 (has links)
O trabalho tem por objetivo definir um modelo de dados adequado à representação de sólidos e implementar um núcleo de modelagem geométrica para validar este modelo. Foi adotada a abordagem semântica Abstração de Dados para a representação formal do modelo geométrico. Os objetos são modelados utilizando operações de combinação e transformação geométrica. Foram adotadas as formas de representação interna por OCTREE, que define explicitamente as porções do espaço ocupadas pelos objetos, e por uma árvore CSG que mantém a descrição estruturada dos objetos segundo o processo construtivo. São apresentados os algoritmos para as operações de manipulação (combinação e transformação geométrica) e de exibição através de vistas ortográficas e de seções planas, bem como operações de consulta às propriedades dos objetos. / The goal of this work is to define a data model suitable for representing solids and to implement a solids modelling kernel. It, was used the Data Abstraction semantic model for representing the geometric model. The objects are modeled through set operations and geometric transformations. It was used two schemas of solids representations: OCTREE, which explicitly define the space occupied by objects, and CSG that is used to keep a structural description of objects according to the construction process. The algorithms for solids manipulation (set operations and geometric transformations) and the display generation through orthographic views and plane sections are presented as well as query operations over the objects properties.
32

Sistema de testes de redes de teleprocessamento

Machado, Gilberto Soares January 1980 (has links)
Este trabalho apresenta um sistema para teste de redes de teleprocessamento. O sistema e capaz de monitorar uma linha de teleprocessamento, armazenando de maneira seletiva o fluxo de dados em uma memória de 2043 palavras. Ele capaz tamb6m de simular elementos da rede, sendo seu protocolo montado pelo operador. O sistema pode ainda realizar medidas de taxa de erro. Os dados armazenados durante a monitoração podem ser visualizados num mostrador de 32 caracteres, existente no painel, ou serem despejados em uma impressora. O sistema foi implementado com microprocessador, memória e diversos interfaces que ligam o processador central ao canal de comunicação e ao painel de comando. / This paper presents a datacommunications network test system. This system is capable of monitoring a link, selectively storing the data stream in a 2K bytes memory. It is also capable of simulating network elements, with its protocol being defined by the operator. During a simulation test the monitoring feature is active. The system is also able to measure error rates. This system was implemented with a microprocessor, memory and interface circuits to the communications channel and to the command front panel. The data acquired during a monitoring test can be inspected in a 32 character display in the front panel or dumped in a printer.
33

Replicação de dados em workflows de bioinformática usando os bancos de dados NoSQL

Lima, Iasmini Virgínia Oliveira 02 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-02-14T20:06:16Z No. of bitstreams: 1 2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-13T18:57:10Z (GMT) No. of bitstreams: 1 2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Made available in DSpace on 2017-03-13T18:57:10Z (GMT). No. of bitstreams: 1 2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Projetos em Bioinformática são geralmente executados como workflows científicos. Os biólogos frequentemente podem executar o mesmo workflow diversas vezes com diferentes parâmetros. Estas execuções podem gerar um grande volume de arquivos com diferentes formatos, que precisam ser armazenados para futuras execuções. Dentre diversos sistemas de armazenamento de dados apresentados na literatura, novos modelos de bancos de dados têm sido definidos para armazenar grandes volumes de dados, os bancos de dados NoSQL (Not Only SQL), que surgiram da necessidade de uma alta escalabilidade e de um desempenho superior quando o volume de dados é muito grande. Nesse contexto, é proposta a análise do impacto da replicação de dados quando se utiliza bancos de dados NoSQL para o armazenamento dos diferentes formatos de arquivos resultantes da execução de workflows de Bioinformática. Foram executados três workflows de Bioinformática envolvendo diferentes formatos de dados, os quais foram utilizados para os testes nos bancos de dados NoSQL Cassandra e MongoDB, e em seguida é apresentada uma análise dessas execuções e testes. Os resultados obtidos mostraram que os tempos de inserção e extração dos dados são mínimos comparados aos tempos de execução dos workflows e portanto, os bancos de dados NoSQL mostraram ser uma boa opção para armazenamento e gerenciamento de dados biológicos. / Projects in bioinformatics are generally executed as scientific workflows. The biologists often perform the same workflow several times with different parameters. These executions can generate a large volume of files with different formats, which need to be stored for future executions. Among several data storage systems presented in the literature, new database models have been defined to store large volumes of data, the NoSQL databases (Not Only SQL), which arose from the need for high scalability and superior performance when the data volume is too large. In this context, it is proposed to analyze the impact of data replication when using NoSQL databases for the storage of the different file formats resulting from the execution of bioinformatics workflows. Three bioinformatics workflows involving different data formats were executed, which were used for testing the NoSQL Cassandra and MongoDB databases, and then an analysis of those executions and tests is presented. The results show that the data insertion and extraction times are minimal compared to the execution times of the workflows, and therefore, the NoSQL databases have proved to be a good option for the storage and management of biological data.
34

Uma abordagem para detecção de problemas de qualidade dos dados a partir da avaliação de regras de validação

ALVES, Artur de Carvalho 22 February 2017 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-03-23T16:18:52Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - vbiblioteca-entregue.pdf: 2262393 bytes, checksum: c1702dddb4516c055e0d177cb0a8dd62 (MD5) / Made available in DSpace on 2018-03-23T16:18:52Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - vbiblioteca-entregue.pdf: 2262393 bytes, checksum: c1702dddb4516c055e0d177cb0a8dd62 (MD5) Previous issue date: 2017-02-22 / Estudos apontam que diversas empresas e organizações, públicas e privadas, têm acumulado prejuízos por tomarem decisões baseandose em dados de baixa qualidade. Com isso, vimos que desenvolvedores e usuários têm se preocupado cada vez mais com a Qualidade dos Dados. O aumento dessa preocupação fez com que as pesquisas na área crescessem significamente a fim de medir e melhorar a Qualidade dos Dados. Qualidade é um termo subjetivo e na maior parte das vezes está relacionado à satisfação do usuário. Por esse motivo, a Qualidade dos Dados possui um contexto multidimensional e as pesquisas apontam diferentes métodos de avaliação a partir de diferentes conjuntos de Dimensão de Qualidade dos Dados. Para algumas Dimensões de Qualidade, a avaliação é realizada demaneira objetiva, para outras apenas é possível fazer a avaliação a partir de formulários subjetivos aplicados aos usuários dos dados. Trabalhos recentes apontam que é possível melhorar a Qualidade de Dados a partir de métodos automáticos de deteção e correção de Problemas de Qualidade dos Dados. Nesse contexto, a proposta deste trabalho consiste em apresentar uma abordagem para detecção de Problemas de Qualidade dos Dados a partir da avaliação de Regras de Validação. Para isso, é realizada uma associação entre conjuntos de Regras de Validação de Dados e Dimensões de Qualidade dos Dados. Além disso, foi desenvolvido um protótipo capaz de detectar Problemas de Qualidade dos Dados conforme a abordagem proposta. Por fim, a abordagem e o protótipo desenvolvidos foram utilizados em um estudo de caso em cenário real num contexto de migração de dados. Os resultados mostraram que a proposta se mostrou útil na detecção de Problemas de Qualidade dos Dados, e que a correção dos problemas encontrados, de fato, ajudaram no processo de migração dos dados. / Studies indicate that several companies and organizations, public and private, have accumulated losses by making decisions based on data of low quality. Then, to overcome such problems, developers and users have been increasingly concerned with Data Quality. As a consequence, Data Quality research is growing significantly in order to provide solutions to measure and improve the quality of the data. Quality is a subjective term and is most often related to user satisfaction. For this reason, Data Quality has a multidimensional context and the researches point out different methods of evaluation based on several Data Quality dimensions. For some Data Quality dimensions, the evaluation is performed in an objective way, for others it is only possible to make the subjective evaluations based on the data users opinion. Recent works indicate that automatic methods of detecting and correcting Data Quality Problems may be very useful to improve the data quality . In this context, the proposal of this work is to present an approach to detect Data Quality Problems based on the evaluation of Validation Rules. For this, an association is made between sets of Data Validation Rules and Data Quality Dimensions. In addition, a prototype capable of detecting Data Quality Problems was developed according to the proposed approach. Finally, the developed approach and prototype were used in a case study in a real scenario in a data migration context. The results showed that the proposal proved useful in the detection of Data Quality Problems, and that the correction of those problems, in fact, helped during the process of data migration.
35

Estratégia para extração, transformação e armazenamento em Data Warehouse ativo baseada em políticas configuráveis de propagação de dados /

Scarpelini Neto, Paulo. January 2013 (has links)
Orientador: Carlos Roberto Valêncio / Banca: José Marcio Machado / Banca: Marilde Terezinha Prado Santos / Resumo: Em arquiteturas de Data Warehouse os dados são integrados periodicamente por meio da execução de processos de Extração, Transformação e Armazenamento - ETA. A atualização desses dados de forma periódica provoca um problema referente à desatualização das informações, uma vez que as ferramentas ETAs são executadas geralmente uma vez ao dia. A crescente necessidade do mundo corporativo por análises sobre dados cada vez mais recentes evidencia a necessidade de arquiteturas DW que possuam um maior grau de atualização. Nesse contexto, surgiram os DW ativos cujo intervalo de tempo entre as execuções do processo ETAs diminuem significativamente. Para suportar o aumento da frequência das atualizações, surge a necessidade de criação de critérios para priorização dos dados a serem transferidos, uma vez que a transferência de todo e qualquer dado inserido nas fontes pode sobrecarregar os sistemas envolvidos. O trabalho proposto consiste na construção de uma estratégia denominada ETA-PoCon, que tem como objetivo a execução do processo ETA em DW ativos. A estratégia distingue-se das existentes, pois possui políticas configuráveis de propagação de informações com base em parâmetros como intervalo de tempo em que a informação deve ser transferida, volume que deve ser propagado e relevância dos dados em relação às informações contidas no repositório. É demonstrado por meio dos experimentos executados que a aplicação da estratégia proporciona uma redução considerável no número de transferência de dados ao DW, uma vez que em todos os resultados a redução no total de atualizações foi superior a 60% / Abstract: In Data Warehouse (DW) architectures data are periodically integrated by means of execution of Extraction, Transformation and Load (ETL) processes which lead to the problem of outdated information. The growing necessity in the corporate world for analysis of constantly renewed data bespeaks of the need for DW architectures with higher level of freshness. In that context, active DWs appeared having a significant reduction of the interval of time between the executions of ETL processes. To support the increased frequency of the refreshment it's necessary to create criteria to prioritise the data to be transferred, since a transfer of all and any data from the sources would overload the systems. This work consists of the construction of a strategy called ETL-PoCon to execute ETL processes in active DWs. The original contribution of this work is to provide a strategy that considerably reduces the quantity of data transfers to active DWs, besides maintaining a satisfactory level of data freshness. Said reduction is obtained by means of configurable policies of data propagation based on parameters such as: the time in which the data must be transferred, the volume to be propagated and the relevance of the data regarding to the information stored in the DW. Experiments have shown that the ETL-PoCon strategy significantly contributes towards a reduction of the overload on the systems involved in the active DW environment, since all results presented a reduction higher than 60% in the amount of DW refreshments / Mestre
36

Modelo de replicação para a preservação de dados em repositórios

Pinho, Micael Ferreira Alves de January 2012 (has links)
Tese de mestrado integrado. Engenharia Informática e de Computação. Faculdade de Engenharia. Universidade do Porto. 2012
37

Sistema de recolha de dados de produção e processo na Bial -Portela & Cª, S.A.

Monteiro, Maria João Miranda January 2010 (has links)
Estágio realizado na empresa Bial - Portela & Cª, S.A. e orientado pelo Eng.º Luís Marinheiro / Tese de mestrado integrado. Engenharia Industrial e Gestão. Faculdade de Engenharia. Universidade do Porto. 2010
38

Upgrading and enhancing the LHC logging system

Teixeira, Daniel Dinis January 2008 (has links)
Estágio realizado no CERN, Suiça e orientado pelo Eng.º Ronny Billen e Chris Roderick / Tese de mestrado integrado. Engenharia Informátca e Computação. Faculdade de Engenharia. Universidade do Porto. 2008
39

Integração de bases de dados utilizando a mobilidade do código

Claro, Daniela Barreiro January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T22:58:26Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T17:35:29Z : No. of bitstreams: 1 172993.pdf: 2171260 bytes, checksum: 1eeebaf91f25a2d2f3a654bf34bbc09d (MD5) / O objetivo deste trabalho é mostrar a integração de bases de dados distintas, como tema de dissertação do curso de Pós-Graduação da Universidade Federal de Santa Catarina. Esta integração permite utilizar bancos de dados existentes nas empresas que não podem ser desprezados a curto prazo. Para tal, a utilização de agentes móveis permite que esta integração seja transparente para o usuário, visto que o agente é o responsável pela pesquisa de informações armazenadas nesses bancos. Além disso, os agentes móveis também são responsáveis pela comunicação com outros agentes, particionando as tarefas entre agentes estáticos com a finalidade de acesso aos dados em uma determinada base.
40

Projeto de um DB2 extender para suporte aos conceitos de tempo e versão

Costa, Raquel Vieira Coelho January 2004 (has links)
A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Page generated in 0.0329 seconds