• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Um modelo para projeto e implementação de bancos de dados analítico-temporais. / A model for design and implementation of analytic-temporal databases.

Poletto, Alex Sandro Romeu de Souza 07 December 2007 (has links)
O presente trabalho descreve um modelo para, a partir de Bancos de Dados Operacionais, projetar e implementar Bancos de Dados Analítico-Temporais, cujo principal objetivo é o de armazenar históricos de dados, os quais, por sua vez, visam servir de alicerce para, principalmente, auxiliar no processo de tomada de decisões de médio e longo prazo. O modelo é dividido em três atividades principais. Na primeira atividade o objetivo é mapear os Modelos de Dados Operacionais em um Modelo de Dados Unificado, sendo que este último modelo serve de base para a segunda atividade que é a geração do Modelo de Dados Analítico-Temporal. Para realizar essas duas primeiras atividades, foram elaborados alguns passos que englobam as principais características a serem verificadas e desenvolvidas. Na terceira atividade objetivou-se disponibilizar mecanismos que possibilitem a geração, o transporte e o armazenamento dos dados Analítico-Temporais. Para a realização dessa terceira atividade foram especificados gatilhos e procedimentos armazenados genéricos. / This work describes a model whose main objective is to store historic data, resulting in the Analytic-Temporal Databases. The origins of the data are the Operational Databases. This model can aid in the design and implementation of the Analytic-Temporal Databases that constitutes a very adequate foundation to help in the medium and long time decision taking process. The model is divided into three main activities. In the first activity the objective is to map the Operational Data Models into a Unified Data Model. This last model is the base for the second activity, which is the generation of the Analytical-Temporal Data Model. Considering these two activities, there were elaborated some steps, which encompass the main characteristics to be evaluated and developed. In the third activity the objective is to make available mechanisms, allowing the generation, the transport and the storage of the Analytical-Temporal data. For this third activity, there were specified generic triggers and stored procedures.
112

Um modelo para projeto e implementação de bancos de dados analítico-temporais. / A model for design and implementation of analytic-temporal databases.

Alex Sandro Romeu de Souza Poletto 07 December 2007 (has links)
O presente trabalho descreve um modelo para, a partir de Bancos de Dados Operacionais, projetar e implementar Bancos de Dados Analítico-Temporais, cujo principal objetivo é o de armazenar históricos de dados, os quais, por sua vez, visam servir de alicerce para, principalmente, auxiliar no processo de tomada de decisões de médio e longo prazo. O modelo é dividido em três atividades principais. Na primeira atividade o objetivo é mapear os Modelos de Dados Operacionais em um Modelo de Dados Unificado, sendo que este último modelo serve de base para a segunda atividade que é a geração do Modelo de Dados Analítico-Temporal. Para realizar essas duas primeiras atividades, foram elaborados alguns passos que englobam as principais características a serem verificadas e desenvolvidas. Na terceira atividade objetivou-se disponibilizar mecanismos que possibilitem a geração, o transporte e o armazenamento dos dados Analítico-Temporais. Para a realização dessa terceira atividade foram especificados gatilhos e procedimentos armazenados genéricos. / This work describes a model whose main objective is to store historic data, resulting in the Analytic-Temporal Databases. The origins of the data are the Operational Databases. This model can aid in the design and implementation of the Analytic-Temporal Databases that constitutes a very adequate foundation to help in the medium and long time decision taking process. The model is divided into three main activities. In the first activity the objective is to map the Operational Data Models into a Unified Data Model. This last model is the base for the second activity, which is the generation of the Analytical-Temporal Data Model. Considering these two activities, there were elaborated some steps, which encompass the main characteristics to be evaluated and developed. In the third activity the objective is to make available mechanisms, allowing the generation, the transport and the storage of the Analytical-Temporal data. For this third activity, there were specified generic triggers and stored procedures.
113

Sistema de consultas para a analise de dados cadastrais de usinas hidreletricas

Hidalgo, Ieda Geriberto, 1976- 30 July 2004 (has links)
Orientador: Secundino Soares Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T22:14:58Z (GMT). No. of bitstreams: 1 Hidalgo_IedaGeriberto_M.pdf: 1603815 bytes, checksum: 05b225666c8373baf5e3ff417ec400bd (MD5) Previous issue date: 2004 / Resumo: Esse trabalho apresenta o desenvolvimento de uma ferramenta para a criação de consultas avançadas a uma base de dados cadastrais do Sistema Hidrelétrico Brasileiro, denominada HydroData. Para realizar essas consultas foi desenvolvido um módulo, chamado HydroConsulta, integrado à interface do programa HydroData. o HydroConsulta pode ser entendido como um agente gerenciador que conecta o usuário à base de dados do sistema HydroData e possibilita a criação de consultas, deixando os detalhes de sintaxe invisíveis para o usuário. O mecanismo interno de execução dessas consultas baseia-se numa linguagem denominada Structured Query Language (SQL). O projeto de software e a implementação computacional do HydroConsulta utilizaram-se do paradigma da orientação a objetos e da linguagem C++, respectivamente, o que assegura ao sistema uma estruturação moderna e eficiente / Abstract: This work presents the development of a new toolbox for making advanced search procedures inside a registered data base of the Brazilian Hydroelectric System, denominated HydroData. o implement such search procedures, it was developed a software module called HydroConsulta, which is integrated with the interface ofthe HydroData programo The HydroConsulta program can be understood as a management agent which connects the user with data base content of the HydroData and makes it possible for the user to build advanced searches leaving syntax requisites invisible for the end user. The internal execution mechanism of the search procedure was based on a query language called Structured Query Language (SQL). The software project of HydroConsulta and its computational implementation use the object-oriented paradigm and C++ language respectively, which assures to the system a modern and efficient structure / Mestrado / Mestre em Engenharia Elétrica
114

Elaboração de banco de imagens mamográficas digitalizadas / not available

Benatti, Rodrigo Henrique 30 April 2003 (has links)
Este trabalho teve como objetivo o desenvolvimento de um banco de imagens mamográficas digitalizadas para oferecer suporte a treinamento e testes de processamentos em esquemas de auxílio ao diagnóstico (CADs). Juntamente com o banco de dados associado, desenvolveu-se ainda uma interface gráfica que permitiu a recuperação das imagens e que auxiliou no acesso às imagens de interesse. Foram incluídas imagens de vários hospitais, com características diferentes quanto aos mamógrafos utilizados. Além disso, o banco de dados também incorporou dados clínicos das pacientes analisadas e laudos radiológicos e patológicos emitidos por médicos. O banco de imagens mostrou-se abrangente em relação às questões dos parâmetros de digitalização utilizados, às características das pacientes e contemplou os diversos tipos de patologias mamárias existentes. Realizaram-se testes de processamento de imagens, mostrando a viabilidade e a facilidade do uso do banco de imagens em situações práticas do desenvolvimento de novas técnicas e algoritmos computacionais relacionados à área de mamografia. / This work had the main purpose of develop a digital mammographic image database to provide support to training and testing procedures of image processing techniques commonly used in Computer-Aided Diagnosis schemes. Also, a graphic interface was developed in order to ease the retrieval and access to images of interest accordingly to the processing technique in test. Images from several hospitals were included in the database, with different mammographic equipments features. Besides, the database was also provided with patient\'s clinical information and, when available, radiological reports issued by expert physicians. The image database was developed so a wide range of pathologies could be expressed and different digitization and acquiring parameters could be used in the images included. Image processing tests using images from the database was done, and results showed that the database was useful and easy to use in practical situations that demand tests of new image processing techniques development and computerized algorithms related to mammographic research area.
115

Um sistema multimétodos para compressão de dados

Dalcio Diogenes de Lima Ribas 00 December 2001 (has links)
Os objetivos deste trabalho sao proporcionar a compreensao ea avaliacao de metodos de compressao de dados, com preservacao da informacao, quando empregados em varios tipos de aplicacoes e construir um sistema multimetodos para codificar e decodificar informacoes com economia de espaco. Uma visao qualitativa do melhor metodo para determinada aplicacao e apresentada, bem como, melhoriase novos metodos sao propostos. A dissertacao apresenta varios metodos encontrados na literatura. Muitos desses metodos foram adaptados e modificados, perfazendo um total de sessenta e nove metodos implementados em linguagem C. Os resultados obtidos sao comparados aos produzidos por alguns produtos comerciais. Classificando-se as fontes geradoras de dados, realiza-se uma avaliacao do desempenho dos metodos propostos. O sistema apresenta em tela o resultado obtido de cada uma dos sessenta e nove metodos e usa para a codificacao definitiva o de melhor rendimento.
116

Uma abordagem de qualidade de dados em grandes bancos de dados heterogêneos / A Data Quality Approach in Large-scale Heterogeneous Databases (Inglês)

Marques, Wilson Wagner Barroso 20 December 2016 (has links)
Made available in DSpace on 2019-03-30T00:01:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-12-20 / Dirty data is characterized by presenting inconsistencies, inaccuracy or errors. The consequences of dirty data may be severe. For instance, inaccurate data costs the U.S. economy $600 billion a year. Thus, data quality improvement becomes a critical goal in large enterprises. In this sense, this work presents a novel approach for evaluating data quality in heterogeneous databases. Furthermore, a framework for cleaning data stored in the evaluated databases is described and experiments on real databases show the effectiveness and efficiency of the proposed approach. Keywords: Data Quality in Enterprise applications; Data Maintenance; Heterogeneous databases. / Os dados sujos são caracterizados por apresentar inconsistências, imprecisão ou erros. As consequências de dados sujos podem ser graves. Por exemplo, os dados imprecisos custam à economia dos EUA $ 600 bilhões por ano. Assim, a melhoria da qualidade dos dados se torna um objetivo crítico em grandes empresas. Nesse sentido, este trabalho apresenta uma nova abordagem para avaliar a qualidade dos dados em bases de dados heterogêneas. Além disso, é descrita uma estrutura para limpar dados armazenados nas bases de dados avaliadas e as experiências em bases de dados reais mostram a eficácia e eficiência da abordagem proposta. Palavras-chave: Qualidade de dados em aplicações empresariais; Manutenção de dados; Bases de dados heterogêneas.
117

Uma metodologia baseada em análise de dados para compreender a caminhada dos trabalhadores usuários de transporte público / A data based methodology to understand the daily walking of workers using the public transportation (Inglês)

Maciel, Andre Luis Araujo 31 July 2018 (has links)
Made available in DSpace on 2019-03-30T00:23:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-07-31 / The purpose of this study was to develop a methodology to analyze the walking journey made by workers that use public transport in their commute trip. Crossing information concerning the registration data of the transport ticket, the ticket sales in the buses and the users¿ database of the companies local-based bus companies allowed to estimate the walking distance between its origin and stop, as well as between the landing stop and the workplace of the users. Using the registration data of the users and social, economic and urban indicators of the neighborhoods of the city, we describe the walk itinerary of different social profiles and investigate possible factors related to a greater or lesser walking distance to a city zone to another. As a result, it was estimated, for the city of Fortaleza, that the workers walk on average 585 meters from home stretch to the bus stop, and 691 meters between the get off point to the final destination. Youth walk more than the elderly in the first section, but older people walk more than young in the second section of their itinerary. It was identified that factors such as population density, land use for trade and services activities have an influence in the walking distance. We conclude that the methodology can help the public administration to better understand the walking itineraries related to public transport, and thus better plan the mobility of the city with a low cost and well representative methodology. Keywords: Walking journey, Mobility, Data crossing, Public transportation. / O presente estudo teve como objetivo desenvolver uma metodologia para analisar o percurso caminhado pelos trabalhadores nos trajetos: de suas casas até as paradas de ônibus de embarque, e das paradas de desembarque aos seus locais de trabalho. A partir do cruzamento de dados cadastrais do bilhete de transporte, bilhetagem em dos ônibus e cadastro das empresas situadas na cidade, após o tratamento de dados, permitiu-se estimar, para a amostra escolhida, a distância caminhada entre sua origem e parada de embarque, e entre a parada de desembarque e seu local de trabalho. Utilizando-se dos dados cadastrais dos usuários e de indicadores sociais, econômicos e urbanísticos dos bairros da cidade, descrevemos a caminhada para diferentes perfis sociais e investigamos possíveis fatores relacionados a uma maior ou menor caminhada para uma região. Como resultado, estimou-se, para a cidade de Fortaleza, que os trabalhadores caminham em média 585 metros no trecho de casa a parada de embarque, e 691 metros entre a parada de desembarque e o destino final. Jovens caminham mais que idosos no primeiro trecho, porém idosos caminham mais que jovens na segunda parte do itinerário. Identificou-se que fatores como densidade populacional, uso do solo para atividades de serviço e comércio influenciam na distância caminhada. Conclui-se que a metodologia pode ajudar a administração pública, a baixo custo e com uma boa representatividade, a compreender os percursos caminhados relacionados ao transporte público, e assim melhor planejar a mobilidade da cidade. Palavras-chave: Caminhada; Mobilidade urbana; Cruzamento de dados; Transporte público
118

Processamento de consultas em redes de sensores sem fio : uma abordagem de detecção de novidades para o controle da qualidade dos serviços de consultas / Processamento de Consultas em Redes de Sensores sem Fio: Uma Abordagem de Detecção de Novidades para o Controle da Qualidade dos Serviços das Consultas (Inglês)

Souza, Karina Marinho de 19 November 2009 (has links)
Made available in DSpace on 2019-03-29T23:15:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-11-19 / Wireless Sensor Networks (WSNs) are communication networks composed of geographically distributed devices (sensor nodes) which can be used to monitor a variety of physical phenomena in real time. Due to the nature of these devices, WSNs have computational restrictions in terms of data processing and storage, and they are usually prone to failures. The main critical point of these networks, however, is in the way the levels of energy available in the sensor nodes are consumed; if this is done properly, the operational lifetime of the WSN can be prolonged. This work presents an approach for adapting query processing in WSNs based on notions of quality of query service and novelty detection (ND). While the former concept captures the idea of possibly having different queries serviced in different ways by the same WSN, the latter relates to a machine learning technique embedded in the WSN components that allows them to modify their query processing behaviours in a dynamic fashion. This approach aims at the intelligent consumption of the limited resources available in these networks while still trying to deliver the data quality as expected by their users. In this context, four classes of quality of query service have been specified having in mind distinct levels of requirements in terms of accuracy and temporal behaviour of the sensed data. Moreover, a new ND-based algorithm, named AdaQuali (ADAptive QUALIty control for query processing in wireless sensor networks), is introduced in detail as a way to control the activities of sensor nodes through the adjustment of their rates of data collection and transmission. For validation purposes, experiments with a prototype have been conducted over real data, and the results achieved point to gains in terms of energy consumption reduction that vary from 1.73% to 42.99% for different classes of quality of query service in the experiment that varies the number of sensor nodes of the network. KEY WORDS: Wireless Sensor Networks. Query processing. Novelty detection. Quality of query services. / Redes de Sensores Sem Fio (RSSFs) são redes de comunicação compostas por dispositivos de sensoriamento distribuídos geograficamente, nós-sensores, que podem ser empregadas para monitorar fenômenos físicos em tempo real. Devido à natureza física desses dispositivos, as RSSFs são usualmente propensas a falhas e possuem restrições computacionais para armazenar e processar dados. Apesar disso, o ponto crítico dessas redes está no modo como a energia disponível nos nós-sensores é consumida; se isso for feito apropriadamente, a vida operacional da RSSF poderá ser prolongada. Este trabalho apresenta uma abordagem para adaptar o processamento de consultas em RSSFs baseada em noções de qualidade de serviço das consultas e detecção de novidades. Enquanto o primeiro conceito captura a idéia de se possivelmente ter diferentes consultas servidas de diferentes maneiras em uma mesma RSSF, o segundo refere-se a técnicas de aprendizado de máquina embutidas nos seus componentes para possibilitá-los alterar dinamicamente seus comportamentos durante o processamento de consultas. Essa abordagem foca o consumo inteligente dos limitados recursos dessas redes ao passo que tenta manter a qualidade dos dados esperada pelos seus usuários. Nesse contexto, quatro classes de qualidade de serviço de consultas foram definidas tendo-se em conta níveis distintos de requisitos relativos à acurácia e ao comportamento temporal dos dados coletados. Além disso, um novo algoritmo baseado em detecção de novidades, nomeado AdaQuali (ADAptive QUALIty control for query processing in wireless sensor networks), é introduzido em detalhe como uma forma de controlar as atividades dos nós-sensores, através da adaptação de suas freqüências de coletas e transmissões de dados. Para propósitos de validação, experimentos foram conduzidos com um protótipo sobre dados reais, e os resultados apontam para ganhos de conservação de energia que variam de 1,73% a 42,99% para diferentes classes de qualidade de serviço no experimento que varia o número de nós-sensores da rede. PALAVRAS-CHAVE: Redes de sensores sem fio. Processamento de consulta. Detecção de novidades. Qualidade de serviço da consulta.
119

Um protocolo distribuído para controle de consistência em banco de dados replicados para ambiente de computação móvel / Um Protocolo Distribuído para Controle de Consistência em Banco de Dados Replicados para Ambiente de Computação Móvel (Inglês)

Costa, Alex Silveira da 16 March 2010 (has links)
Made available in DSpace on 2019-03-29T23:23:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-03-16 / A mobile replicated database is comprised of several devices dynamically distributed, interconnected through a wireless network with intermittent connectivity, where there are multiple copies the same database stored in database servers (replicas), distributed throughout the network. The use of data replication in mobile computing environments increases data availability and throughtput of transactions. In order to ensure data consistency in mobile replicated databases, several replication control protocols have been proposed. However, most of them reveal relevant limitations, such as: possessing a single failure point and flooding the network with messages exchange. In this work is introduced a protocol which guarantees data consistency of replicated databases in mobile computing. The proposed approach is completely distributed, avoids the existence of a single failure point, uses a read-any/write-any replication scheme, increases data availability, and reduces the number of messages exchanged among the replicated servers. Furthermore, it allows the user to choose a transaction isolation level (degree in which the execution of a given transaction is isolated from all other concurrent transactions). Experimental results show the potential efficiency of the proposed approach. Keywords: Concurrency Control, Data Replication, Mobile Computing / Um banco de dados móvel replicado é composto por diversos dispositivos distribuídos de forma dinâmica (servidores e/ou clientes), interconectados através de uma rede sem fio com conectividade intermitente, onde existem várias cópias de um mesmo banco de dados armazenadas em servidores de banco e dados conhecidos como réplicas, distribuídos pela rede. O uso da replicação de dados em ambientes de computação móvel possibilita o aumento da disponibilidade dos dados e da vazão das transações. A fim de garantir a consistência de dados em banco de dados móveis replicados, vários protocolos de controle de réplica têm sido propostos. Entretanto, a maioria deles possui limitações relevantes, tais como: possuir um ponto único de falha ou sobrecarregar a rede com intensa troca de mensagens. Neste trabalho de dissertação é proposto um protocolo que garante consistência de bancos de dados replicados em ambiente de computação móvel. A abordagem proposta é completamente distribuída, evitando a ocorrência de um ponto único de falha, utiliza o esquema de replicação read-any/write-any, aumentando a disponibilidade dos dados, e pode reduzir o número de mensagens trocadas entre os servidores replicados. Além disso, permite ao usuário escolher o nível de isolamento de transação (grau em que a execução de uma determinada transação é isolada das outras transações concorrentes). Experimentos realizados em um simulador, com análise de desempenho comparativa, comprovam a eficiência da abordagem proposta. Palavras-chaves: Controle de Concorrência, Replicação de Dados, Computação Móvel
120

ORION : uma abordagem eficaz e robusta para aquisição de valores de atributos de entidades do mundo real / ORION: an effective and robust approach for acquiring attribute values of real-world entities

Manica, Edimar January 2017 (has links)
Página-entidade é uma página Web que publica dados que descrevem uma entidade de um tipo particular. Adquirir os valores dos atributos de entidades do mundo real publicados nessas páginas é uma tarefa estratégia para diversas empresas. Essa aquisição envolve as tarefas de encontrar as páginas-entidade nos sites e extrair os valores dos atributos publicados nessas páginas. Os trabalhos que discorrem sobre como realizar as tarefas de descoberta das páginasentidade e de extração dos dados de forma integrada possuem aplicação limitada porque são específicos para um domínio de aplicação ou porque requerem anotações a priori. Tendo em vista essa lacuna, esta Tese apresenta Orion, uma abordagem para aquisição de valores de atributos de entidades do mundo real a partir de páginas-entidade baseadas em template. Orion descobre as páginas-entidade nos sites e extrai os valores dos atributos publicados nessas páginas. A principal originalidade da abordagem Orion é realizar as tarefas de descoberta das páginas-entidade e de extração dos dados de forma integrada, independentemente de domínio de aplicação e de anotação a priori. A abordagem Orion inclui uma etapa de descoberta de páginas-entidade que combina características de HTML e URL sem a necessidade de intervenção do usuário para definição dos limiares de similaridade entre as páginas. A etapa de descoberta utiliza uma nova função de similaridade entre páginas baseada na URL que atribui diferentes pesos para os termos de URL de acordo com a capacidade de distinção de páginas-entidade das demais páginas. A abordagem Orion também inclui uma etapa de extração de valores de atributos a partir de consultas Cypher em um banco de dados orientado a grafos. Essa etapa infere as consultas automaticamente. A abordagem Orion é robusta porque inclui uma etapa adicional de reforço que realiza o tratamento de atributos com variação de template. Esse reforço é realizado por meio de uma combinação linear de diferentes funções de similaridade. A fim de avaliar a eficácia de cada etapa da abordagem isoladamente e da abordagem de forma integral, foram realizados experimentos exaustivos utilizando sites reais. Nesses experimentos, a abordagem Orion foi numérica e estatisticamente mais eficaz que os baselines. / Entity-page is a Web page which publishes data that describe an entity of a specific type. Acquiring the attribute values of the real-world entities that are published in these pages is a strategic task for various companies. This acquisition involves the tasks of discovering the entitypages in the websites and extracting the attribute values that are published in them. However, the current approaches that carry out the tasks of discovering entity-pages and extracting data in an integrated way have limited applications because they are restricted to a particular application domain or require an a priori annotation. This thesis presents Orion, which is an approach to acquire the attribute values of real-world entities from template-based entity-pages. Orion discovers the entity-pages in the websites and extracts the attribute values that are published in them. What is original about the Orion approach is that it carries out the tasks of discovering entity-pages and extracting data in a way that is integrated, domain-independent, and independent of any a priori annotation. The Orion approach includes an entity-page discovery stage that combines the HTML and URL features without requiring the user to define the similarity threshold between the pages. The discovery stage employs a new URL-based similarity function that assigns different weights to the URL terms in accordance with their capacity to distinguish entity-pages from other pages. Orion also includes a stage during which the attribute values are extracted by means of Cypher queries in a graph database. This stage automatically induces the queries. It should be noted that the Orion approach is robust because it includes an additional reinforcement stage for handling attributes with template variations. This stage involves exploring a linear combination of different similarity functions. We carried out exhaustive experiments through real-world websites with the aim of evaluating the effectiveness of each stage of the approach both in isolation and in an integrated manner. It was found that the Orion approach was numerically and statistically more effective than the baselines.

Page generated in 0.087 seconds