• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Praticas participativas na elicitação de requisitos para "database marketing" / Participatory design techniques used in requirements elicitation for database marketing

Santos, Fernanda Regina Benhami dos 31 July 2006 (has links)
Orientador: Maria Cecilia Calani Baranauskas / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T11:33:12Z (GMT). No. of bitstreams: 1 Santos_FernandaReginaBenhamidos_M.pdf: 1651997 bytes, checksum: 11791fd5437c38c9e9af31d0eb194308 (MD5) Previous issue date: 2006 / Resumo: O uso de informações pelas organizações para criarem estratégias e estabelecerem longos relacionamentos com seus clientes, cria a necessidade da construção de um Database Marketing para dar suporte a estas iniciativas. Muitas estratégias deste tipo não foram bem sucedidas por não disponibilizarem dados e informações sobre seus clientes, que realmente fossem úteis para as análises realizadas. Este trabalho propõe uma abordagem que utiliza práticas participativas como Group Elicitation Method, BluePrint Mapping e PICTIVE para compor uma metodologia aplicada à fase de elicitação de requisitos, a fim de minimizar as falhas ocorridas nesta fase, que poderiam se propagar aos resultados esperados pelas organizações. Um estudo de caso demonstra o uso destas técnicas em conjunto com os comentários sobre os resultados obtidos apontando os pontos fortes e fracos, além da proposta de trabalhos futuros que podem ser realizados a partir dos resultados apontados / Abstract: The use of information by organizations to define strategies and establish a long-term relationship with their customers, generates the need of having a Database Marketing to give support to those initiatives. Many of these strategies did not succeed because of a lack of data and information about their customers, that were not available to be used in the analysis. This essay suggests an approach based on participatory design (PD) techniques such as Group Elicitation Method, BluePrint Mapping and PICTIVE to create a methodology applicable to the requirements elicitation phase, in order to minimize missing information that occurs regularly in this phase, and could be propagated to the results expected by organizations. A case study demonstrate the use of this methodology based on PD techniques with comments about results obtained, including a list of weak and strong points of this methodology, and also a proposal for future work that can be done based on the results listed herein / Mestrado / Mestre Profissional em Ciencia da Computação
222

Organization is sharing = from eScience to personal information management = Organização é compartilhamento: de eScience para gestão de informação pessoal / Organização é compartilhamento : de eScience para gestão de informação pessoal

Senra, Rodrigo Dias Arruda, 1974- 12 October 2012 (has links)
Orientador: Claudia Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-22T03:52:51Z (GMT). No. of bitstreams: 1 Senra_RodrigoDiasArruda_D.pdf: 1421466 bytes, checksum: 10286dd7415a632d012984fc38bcca53 (MD5) Previous issue date: 2012 / Resumo: Compartilhamento de informação sempre foi um aspecto chave em qualquer tipo de esforço conjunto. Paradoxalmente, com o dilúvio de dados, a incremental disponibilização de informação tem dificultado o projeto e implementação de soluções que efetivamente estimulam o compartilhamento. Esta tese analisa aspectos distintos do compartilhamento - desde ambientes relacionados à eScience até informação pessoal. Como resultado desta análise, ela provê respostas para alguns dos problemas encontrados, ao longo de três eixos. O primeiro, SciFrame, é um arcabouço específico para descrição de sistemas ou processos envolvendo manipulação de dados científicos no formato digital, servindo como um padrão que auxilia a comparação de sistemas. A adoção do SciFrame para descrição de ambientes científicos virtuais permite a identificação de pontos em comum e oportunidades de interoperabilidade. O segundo eixo de contribuição contempla o problema da comunicação entre sistemas arbitrários e serviços oferecidos por bancos de dados, através do uso dos então chamados descritores de bancos de dados ou DBDs. Estes descritores contribuem para desacoplar aplicações dos serviços, melhorando, portanto o compartilhamento entre aplicações e bancos de dados. A terceira contribuição, Organografos, provê meios para a organização de informação multifacetada. Ela contempla problemas de compartilhamento de informação pessoal por intermédio da exploração da forma como organizamos tais informações. Neste caso, ao invés de tentarmos prover meios para o compartilhamento da informação propriamente dita, a unidade de compartilhamento é a própria organização da informação. Através do projeto e compartilhamento de organografos, grupos distintos trocam entre si visões reconfiguráveis de como a informação está organizada, promovendo assim interoperabilidade e reuso. Organografos são umas abordagens inovadoras para o gerenciamento de dados hierárquicos. Essas três contribuições estão centradas nas idéias básicas de construção e compartilhamento de informação organizada hierarquicamente. Parte destas contribuições foi validada por estudos de caso e, no caso de organografos, por uma implementação de fato / Abstract: Information sharing has always been a key issue in any kind of joint effort. Paradoxically, with the data deluge, the more information available, the harder it is to design and implement solutions that effectively foster such sharing. This thesis analyzes distinct aspects of sharing - from eScience-related environments to personal information. As a result of this analysis, it provides answers to some of the problems encountered, along three axes. The first, SciFrame, is a specific framework that describes systems or processes involving scientific digital data manipulation, serving as a descriptive pattern to help system comparison. The adoption of SciFrame to describe distinct scientific virtual environments allows identifying commonalities and points for interoperation. The second axe contribution addresses the specific problem of communication between arbitrary systems and services provided by distinct database platforms, via the use of the so-called database descriptors or DBDs. These descriptors contribute to provide independence between applications and the services, thereby enhancing sharing across applications and databases. The third contribution, Organographs, provides means to deal with multifaceted information organization. It addresses problems of sharing personal information by means of exploiting the way we organize such information. Here, rather than trying to provide means to share the information itself, the unit of sharing is the organization of the information. By designing and sharing organographs, distinct groups provide each other dynamic, reconfigurable views of how information is organized, thereby promoting interoperability and reuse. Organographs are an innovative approach to hierarchical data management. These three contributions are centered on the basic idea of building and sharing hierarchical organizations. Part of these contributions was validated by case studies and, in the case of organographs, an actual implementation / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
223

Desenvolvimento de metodologia de avaliação de egressos de um programa de mestrado em pesquisa clínica

Desiderio, Tamiris Mariani Pereira January 2019 (has links)
Orientador: Ana Silvia Sartori Barraviera Seabra Ferreira / Resumo: A pós-graduação na modalidade profissional vem ganhando espaço em todas instituições mundiais e representa um divisor de águas entre o modelo acadêmico tradicional e as necessidades mais recentes do sistema de inovação científica, tecnológica e setor produtivo. Com isso, passa a ter uma crescente procura por ingressantes que já atuam no mercado de trabalho. O êxito do egresso, seja medido por inserção em instituições, empregabilidade e salários ou outras variáveis, é de grande importância para que os programas possam aprimorar suas metodologias e também conhecer mais sobre a área em que estão atuando. Objetivou-se elaborar um sistema de avaliação do perfil e êxito dos egressos do Programa de Mestrado em Pesquisa Clínica – FMB/CEVAP contribuindo para sua melhoria, atendendo às necessidades da Unesp e órgãos governamentais como a CAPES. Diante desta realidade foram feitas adaptações em um instrumento de avaliação de egressos que foi submetido à metodologia DELPHI por meio de consulta a dois grupos de peritos da área de Pesquisa Clínica que foram selecionados por meio de listas de pesquisadores que atendiam critérios como: obtenção de publicações na área de Pesquisa Clínica, vínculo institucional com estabelecimentos de pesquisa, participação em projetos na área de Pesquisa Clínica. Os participantes avaliaram as questões utilizando a escala LIKERT. Após a análise estatística das respostas e consequente verificação da concordância dos mesmos sobre o instrumento, houve a disponibi... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Professional graduate programs have been gaining ground in all world institutions and represent a watershed between the traditional academic model and the more recent needs of the scientific, technological and productive innovation system. As a result, there is a growing demand for new entrants who already work in the labor market. The success of the egress has been by insertion in institutions, employability salaries and other variables, so identifying the profile of the egress it is of great importance for the programs to improve their methods and also to know more about the field in which the prior students they are acting. The objective of the study was to elaborate and validate a system of evaluation of the profile and success of the graduates of a Masters program and to contribute to the increasing improvement of the same, attending to institutional needs and governmental organs. Faced with this reality, adaptations were made in a graduated evaluation instrument that was submitted to validation by the DELPHI methodology using the LIKERT scale. After it statistical analysis of the answers and consequent validation of the instrument, will be made available an online platform that will be applied graduate students of the Postgraduate Course in Clinical Research (Professional Master's Degree) of FMB / CEVAP - UNESP in 2017 and subsequent years. / Mestre
224

Base de dados online na disseminação sobre lazer de idosos /

Teodoro, Ana Paula Evaristo Guizarde. January 2011 (has links)
Orientador: Gisele Maria Schwartz / Banca: Jossett Campagna / Banca: Afonso Antonio Machado / Resumo: O processo evolutivo da internet tem ampliado a adesão humana ao ambiente virtual, o que levou a comunidade científica a investir esforços para compreender melhor os aspectos inerentes à qualidade dessa interação. No âmbito das pesquisas envolvendo a temática do lazer virtual, bem pouco se tem debruçado atenção sobre a qualidade das informações específicas veiculadas, principalmente, em relação ao público idoso, instigando a atenção deste estudo. Este estudo, de natureza qualitativa, teve como objetivo a produção de uma base de dados, por intermédio de links contendo informações a respeito dos conteúdos culturais do lazer, neste caso, para a população idosa, além da elaboração e aplicação do Inventário de Avaliação de Usabilidade de Sites sobre Lazer (IAUSLA-21+). Esse instrumento foi dividido em duas partes, sendo a primeira referente à caracterização da amostra e a segunda composta por uma escala do tipo Likert, graduada em 5 pontos. O instrumento foi aplicado após vivências inclusivas no site, com uma amostra intencional de 60 sujeitos, de ambos os sexos, acima de 60 anos, familiarizados com o uso de computador e que se dispuseram a participar do estudo, pertencentes a programas de inclusão digital da cidade de Rio Claro-SP e São Paulo-SP. Os dados provenientes da aplicação dos instrumentos foram analisados de forma descritiva, por meio da utilização da Técnica de Análise de Conteúdo Temática e ilustrados numericamente, de modo percentual. Em relação ao layout, informação e operacionalização, os resultados reiteram que a base de dados construída atendeu aos objetivos do estudo, indicando boa usabilidade, porém, atualizações deverão ser realizadas sempre que necessário. Sugere-se que novas possibilidades referentes ao campo do lazer virtual sejam oferecidas aos idosos, no sentido de ampliar as perspectivas de vivências frente às novas tecnologias / Abstract: The evolutionary process of the Internet has expanded the membership to human virtual environment, which led the scientific community to make efforts to better understand the intrinsic qualities of this interaction. In the context of research involving the theme of virtual entertainment, little attention has been addressing the quality of information on specific vehicles, particularly in relation to senior public, arousing the attention of this study. Therefore, this qualitative study aimed to produce a database, through links to information about the cultural content of leisure in this case for the elderly, and the development and implementation of the Usability Evaluation of Recreation Sites Inventory (IAUSLA-21 +). The instrument was divided into two parts, the first referring to the characterization of the sample, and the second consisting of a Likert type scale, graduated in 5 points. The instrument was administered to an intentional sample of 60 subjects of both sexes over 60 years, familiar with computer use and that were willing to participate in the study, belonging to the Digital Inclusion Programs, at Rio Claro-SP and Sao Paulo-SP cities. Data from the application of the instruments were descriptively analyzed through the use of Thematic Content Analysis Technique and numerically illustrated by percentage. The results indicated that the built database met the objectives of the study, indicating good usability, but updates should be held whenever necessary. Therefore, it is suggested that new possibilities could be offered to the elderly, including those relating to leisure field, to broaden the perspectives of experiences facing the new technologies / Mestre
225

Imersão de espaços métricos em espaços multidimensionais para indexação de dados usando detecção de agrupamentos / Embedding of metric spaces in multidimensional spaces for data indexing using cluster detection

Paterlini, Adriano Arantes 28 March 2011 (has links)
O sucesso dos Sistemas de Gerenciamento de Banco de Dados (SGBDs) em aplicações envolvendo dados tradicionais (números e textos curtos) encorajou o seu uso em novos tipos de aplicações, que exigem a manipulação de dados complexos. Séries temporais, dados científicos, dados multimídia e outros são exemplos de Dados Complexos. Inúmeras áreas de aplicação têm demandado soluções para o gerenciamento de dados complexos, dentre as quais a área de informática médica. Dados complexos podem também ser estudos com técnicas de descoberta de conhecimentos, conhecidas como KDD (Knowledge Discovery in Database), usando alguns algoritmos de detecção de agrupamentos apropriados. Entretanto, estes algoritmos possuem custo computacional elevado, o que dificulta a sua utilização em grandes conjuntos de dados. As técnicas já desenvolvidas na Área de Bases de Dados para indexação de espaços métricos usualmente consideram o conjunto de maneira uniforme sem levar em conta a existência de agrupamentos nos dados, por isso as estruturas buscam maximizar a eficiência das consultas para todo o conjunto simultaneamente. No entanto muitas vezes as consultas por similaridade estão limitadas a uma região específica do conjunto de dados. Neste contexto, esta dissertação propõe a criação de um novo método de acesso, que seja capaz de indexar de forma eficiente dados métricos, principalmente para conjuntos que contenham agrupamentos. Para atingir esse objetivo este trabalho também propõe um novo algoritmo para detecção de agrupamentos em dados métricos tornando mais eficiente a escolha do medoide de determinado conjunto de elementos. Os resultados dos experimentos mostram que os algoritmo propostos FAMES e M-FAMES podem ser utilizados para a detecção de agrupamentos em dados complexos e superam os algoritmos PAM, CLARA e CLARANS em eficácia e eficiência. Além disso, as consultas por similaridade realizadas com o método de acesso métrico proposto FAMESMAM mostraram ser especialmente apropriados para conjuntos de dados com agrupamentos / The success of Database Management System (DBMS) for applications with traditional data (numbers and short texts) has encouraged its use in new types of applications that require manipulation of complex data. Time series, scientific data and other multimedia data are examples of complex data. Several application fields, like medical informatics, have demanded solutions for managing complex data. Complex data can also be studied by means of Knowledge Discovery Techniques (KDD) applying appropriate clustering algorithms. However, these algorithms have high computational cost hindering their use in large data sets. The techniques already developed in the Databases research field for indexing metric spaces usually consider the sets have a uniform distribution, without taking into account the existence of clusters in the data, therefore the structures need to generalize the efficiency of queries for the entire set simultaneously. However the similarity searching is often limited to a specific region of the data set. In this context, this dissertation proposes a new access method able to index metric data efficiently, especially for sets containing clusters. It also proposes a new algorithm for clustering metric data so that selection of a medoid from a particular subset of elements becomes more efficient. The experimental results showed that the proposed algorithms FAMES and M-FAMES can be used as a clustering technique for complex data that outperform PAM, CLARA and CLARANS in effectiveness and efficiency. Moreover, the similarity searching performed with the proposed metric access method FAMESMAM proved to be especially appropriate to data sets with clusters
226

Tratamento de condições especiais para busca por similaridade em bancos de dados complexos / Treatment of special conditional for similarity searching in complex data bases

Kaster, Daniel dos Santos 23 April 2012 (has links)
A quantidade de dados complexos (imagens, vídeos, séries temporais e outros) tem crescido rapidamente. Dados complexos são adequados para serem recuperados por similaridade, o que significa definir consultas de acordo com um dado critério de similaridade. Além disso, dados complexos usualmente são associados com outras informações, geralmente de tipos de dados convencionais, que devem ser utilizadas em conjunto com operações por similaridade para responder a consultas complexas. Vários trabalhos propuseram técnicas para busca por similaridade, entretanto, a maioria das abordagens não foi concebida para ser integrada com um SGBD, tratando consultas por similaridade como operações isoladas, disassociadas do processador de consultas. O objetivo principal desta tese é propor alternativas algébricas, estruturas de dados e algoritmos para permitir um uso abrangente de consultas por similaridade associadas às demais operações de busca disponibilizadas pelos SGBDs relacionais e executar essas consultas compostas eficientemente. Para alcançar este objetivo, este trabalho apresenta duas contribuições principais. A primeira contribuição é a proposta de uma nova operação por similaridade, chamada consulta aos k-vizinhos mais próximos estendida com condições (ck-NNq), que estende a consulta aos k-vizinhos mais próximos (k-\'NN SUB. q\') de maneira a fornecer uma condição adicional, modificando a semântica da operação. A operação proposta permite representar consultas demandadas por várias aplicações, que não eram capazes de ser representadas anteriormente, e permite homogeneamente integrar condições de filtragem complementares à k-\'NN IND.q\'. A segunda contribuição é o desenvolvimento do FMI-SiR (user-defined Features, Metrics and Indexes for Similarity Retrieval ), que é um módulo de banco de dados que permite executar consultas por similaridade integradas às demais operações do SGBD. O módulo permite incluir métodos de extração de características e funções de distância definidos pelo usuário no núcleo do gerenciador de banco de dados, fornecendo grande exibilidade, e também possui um tratamento especial para imagens médicas. Além disso, foi verificado através de experimentos sobre bancos de dados reais que a implementação do FMI-SiR sobre o SGBD Oracle é capaz de consultar eficientemente grandes bancos de dados complexos / The amount of complex data (images, videos, time series and others) has been growing at a very fast pace. Complex data are well-suited to be searched by similarity, which means to define queries according to a given similarity criterion. Moreover, complex data are usually associated with other information, usually of conventional data types, which must be employed in conjunction with similarity operations to answer complex queries. Several works proposed techniques for similarity searching, however, the majority of the approaches was not conceived to be integrated into a DBMS, treating similarity queries as isolated operations detached from the query processor. The main objective of this thesis is to propose algebraic alternatives, data structures and algorithms to allow a wide use of similarity queries associated to the search operations provided by the relational DBMSs and to execute such composite queries eficiently. To reach this goal, this work presents two main contributions. The first contribution is the proposal of a new similarity operation, called condition-extended k-Nearest Neighbor query (ck-\'NN IND. q\'), that extends the k-Nearest Neighbor query (k-\'NN IND. q\') to provide an additional conditio modifying the operation semantics. The proposed operation allows representing queries required by several applications, which were not able to be represented before, and allows to homogeneously integrate complementary filtering conditions to the k-\'NN IND. q\'. The second contribution is the development of the FMI-SiR(user-defined Features, Metrics and Indexes for Similarity Retrieval), which is a database module that allows executing similarity queries integrated to the DBMS operations. The module allows including user-defined feature extraction methods and distance functions into the database core, providing great exibility, and also has a special treatment for medical images. Moreover, it was verified through experiments over real datasets that the implementation of FMI-SiR over the Oracle DBMS is able to eficiently search very large complex databases
227

Descoberta de conhecimento em múltiplas perspectivas : aplicação em bases de dados do ICMS

Gomes Junior, Jose Aguilberto Silveira 27 June 2002 (has links)
Made available in DSpace on 2019-03-30T00:33:44Z (GMT). No. of bitstreams: 0 Previous issue date: 2002-06-27 / In this work, we describe the methodology and techniques used in the task of exploring the tax database (ICMS) of the Secretary of the Treasury of the State of Ceara along with the initial results obtained from this process. It is a practical work within the context of Knowledge Engineering that makes use of organizational modeling techniques and inductive algorithms from automatic learning. The main contribution of this study lies in developing a methodology to assist in preparing data for submission to a concept formation algorithm that generates hierarchies which can then be viewed from various perspectives. This approach permits Treasury specialists to better structure information contained in the database and to abstract knowledge from it. The algorithm FORMVIEW generates concept hierarchies and reveals relationships between different hierarchical perspectives providing a means through which individuals of dissimilar levels of expertise may better communicate with one another. / Neste trabalho, descreve-se a metodologia e as técnicas usadas no trabalho de exploração de bases de dados do ICMS da Secretaria da Fazenda do Estado do Ceará e os primeiros resultados alcançados a partir deste processo. Trata-se de um trabalho prático que se insere no contexto da Engenharia do Conhecimento e faz recurso às técnicas de modelagem organizacional e algoritmos indutivos de aprendizagem automática. A contribuição principal da pesquisa desenvolvida consiste no desenvolvimento de uma metodologia de auxílio à preparação dos dados a serem submetidos a um algoritmo de formação de conceitos, que podem ser visualizados em diferentes perspectivas. Este enfoque visa dar aos especialistas de uma organização, em particular os especialistas fazendários, uma forma melhor de estruturar as informações contidas nos bancos de dados e a descobrir conhecimento a partir dos mesmos. O algoritmo FORMVIEW gera hierarquias de conceitos e descobre relacionamentos entre as hierarquias de diferentes perspectivas, o que fornece um mecanismo para prover comunicação entre diferentes expertises.
228

Agregação e predição de dados no processamento de consultas em redes de sensores sem fio

Matos, Raimundo Tales Benigno Rocha 21 October 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:27Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-10-21 / Over the past few years, many research works in Wireless Sensor Networks (WSN) have been focused on node power saving. In order to achieve this goal, the amount of data sent over the node network should be reduced. In this work, we propose an efficient strategy that aggregates and predicts data in WSN, aiming at to reduce the data volume sent over the network and thus maximizing the network lifetime. The proposed prediction strategy, denote ADAGA-p, is based on linear regression model, using data acquired from one or several sensors. Furthermore, ADAGA-p is fully distributed, being executed in-network by several sensors distributed in a WSN. Experimental results show that ADAGA-p is able to reduce power consumption in WSN. Keywords: DataBase, Aggregation, Data Prediction, Wireless Sensor Networks / Muitas pesquisas em redes de sensores sem fio (RSSF) têm sido desenvolvidas nos últimos anos, com foco na economia de energia dos nós sensores. Para alcançar este objetivo, tais pesquisas utilizam como estratégia a redução de dados enviados na rede. Neste trabalho, é proposta uma estratégia eficiente de agregação e predição de dados em RSSF, com o objetivo de reduzir o volume de dados enviados através da rede e assim maximizando a vida útil desta. A estratégia de predição proposta, chamada ADAGA-p, é baseada em um modelo de regressão linear, utilizando dados obtidos a partir de um ou vários sensores. Além disso, ADAGA-p é totalmente distribuído, sendo executado em rede por vários sensores distribuídos em uma RSSF. Resultados experimentais demonstram que ADAGA-p é capaz de reduzir o consumo de energia em RSSF. Palavras-chave: Banco de Dados, Agregação, Predição de Dados, Redes de Sensores Sem Fio
229

Optimizing query processing in cache-aware wireless sensor networks / Optimizing Query Processing in Cache-Aware Wireless Sensor Networks (Inglês)

Alencar, Romulo Alexandre Ellery de 26 July 2010 (has links)
Made available in DSpace on 2019-03-29T23:22:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-07-26 / Most models for Wireless Sensor Networks (WSNs) assume the existence of a base station where query results could in principle be cached, however, the opportunity for re-using such cached data for minimizing data traffic in the WSN has not been well explored thus far. Aiming at filling this gap, we propose an approach that first clips the original query into a polygon after selectively choosing a good subset of the cached queries for reuse. Next, this polygon is partitioned into sub-queries that are then submitted to the WSN. These two problems are interconnected and lead to a highly combinatorial problem that justifies the use of efficient and effective heuristics. This work presents algorithms for each of these problems that are used within a cost-driven optimization search in order to find a set of sub-queries that minimizes the cost of in-network query processing. Experimental results show that our heuristic solution is orders of magnitude faster than an exhaustive search, and yields no more than 10% loss compared to the optimal query processing. Keywords: Databases, sensor networks, query optimization, cache / A maioria dos modelos para Redes de Sensores sem Fio (RSSFs) assume a exis- tência de uma estação base onde os resultados de consultas poderiam em princípio ser armazenados em um cache. Apesar disso, a oportunidade de reutilizar tal cache para mi- nimizar o tráfego de dados na RSSF não tem sido bem explorada até o momento. Visando a preencher este espaço, nós propomos uma abordagem que primeiramente recorta a con- sulta original em um polígono após selecionarmos um bom sub-conjunto das consultas do cache para reuso. Em seguida, este polígono é particionado em sub-consultas que são, então, submetidas à RSSF. Estes dois problemas estão interconectados e conduzem a um problema altamente combinatório que justifica o uso de heurísticas eficientes e eficazes. Este trabalho apresenta algoritmos para cada um desses problemas, que são utilizados em um método de otimização com o intuito de encontrar um conjunto de sub-consultas que minimize o custo do processamento das consultas na rede. Resultados de experimentos mostram que nossa solução heurística é ordens de magnitude mais rápida que uma busca exaustiva, e obtém não mais que 10% de perda comparada ao processamento ótimo da consulta. Palavras-chave: Bancos de dados, redes de sensores, otimização de consultas, cache
230

Um mecanismo eficiente para a compressão de dados em banco de dados orientado a colun para diispositivos móveis / An Efficient Technique for Data Compression in Column-Oriented Database for Mobile Devices (Inglês)

Amorim, Danielle Christina Costa 06 September 2013 (has links)
Made available in DSpace on 2019-03-29T23:38:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-09-06 / Accessing data anywhere and anytime, via mobile devices, is a very present reality nowadays. However, even with technological advances, such de-vices may have limited computing resources, such as available secondary mem-ory space and data processing capacity. It is well known that data compression feature may reduce significantly the size of databases as well as improve the performance of I/O intensive workloads. This work presents an approach for data compression to be applied over data existing in such devices to optimize the memory space. The used framework implements a storage column oriented architecture. One of the major advantages concerning this approach is its effect on compression, because data is stored in columns, and there is only one type of data in each column, thus it is possible to use the most appropriate technique for each data type. Experimental results show that the proposed technique reduces the space allocated to store data on mobile devices, and ensures reasonable data access time to access compressed data. The compression technique does not jeopardize data access efficiency. Keywords: Database, Mobile database, Data compression, Column-oriented database. / Acessar dados em qualquer lugar e a qualquer momento, através de dispositivos móveis, é uma realidade muito presente nos dias atuais. Porém, mesmo com os avanços tecnológicos, tais dispositivos apresentam recursos computacionais limitados, tais como espaço de memória secundária e capacidade de processamento. Quando se utiliza esse tipo de dispositivo reduzir o espaço de memória usado é um aspecto critico. Porém, o uso da compressão de dados pode reduzir significativamente o espaço dos dados desses dispositivos, bem como melhorar a performance de E/S. Esse trabalho apresenta um mecanismo eficiente para a compressão de dados em dispositivos móveis que otimiza o espaço em memória, além de não pôr em risco a eficiência do acesso aos dados. O mecanismo tem como base uma arquitetura de armazenamento orientada à coluna. Uma das principais vantagens desse tipo de armazenamento é a compressão, pois os dados são armazenados em colunas, e existe apenas um tipo de dados em cada coluna, assim é possível utilizar a técnica de compressão mais adequada para cada tipo de dado. Resultados experimentais mostram que a técnica de compressão proposta reduz o espaço alocado para armazenar os dados em dispositivos móveis, e garante o acesso aos dados compactados num tempo razoável. Palavras-chave: Banco de Dados, Banco de Dados Móveis, Banco de Dados Orientado a Coluna, Compressão de Dados.

Page generated in 0.2165 seconds