• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 85
  • 84
  • 46
  • 23
  • 12
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 407
  • 407
  • 105
  • 100
  • 94
  • 74
  • 69
  • 61
  • 61
  • 61
  • 52
  • 49
  • 48
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

The Impact of Adopting “Business Intelligence (BI)” in Organizations

Rahman, Shahbaaz January 2011 (has links)
In economically turbulent times, Business Intelligence (BI) is increasingly being used to mitigate risk and increase certainty. The evolution of BI from a series of technologies to a platform for supporting strategies is analyzed in this thesis. The concentration is on how BI can streamline manufacturing, quality assurance, marketing and customer service are evaluated, as are the potential payoffs of increasing the level of insight an organization has. The thesis also includes analysis of how the more complex value chain processes including build-to-order, configure-to-order and quote-to-order can be made more efficient and profitable through the inclusion of BI and its associated analytics and technologies. The inclusion of the Delphi research technique makes this paper unique and strong in its content as well. The role of BI has shifted from being used in specific functional areas of an organization to being strategic in scope. The intent of this thesis is to evaluate its contributions to the customer-facing processes that are the most complex and most challenging to sustain, making BI an indispensible platform for their successful execution on the base of theories and practical experience of the BI experts.
132

Design von Stichproben in analytischen Datenbanken

Rösch, Philipp 28 July 2009 (has links) (PDF)
Aktuelle Studien belegen ein rasantes, mehrdimensionales Wachstum in analytischen Datenbanken: Das Datenvolumen verzehnfachte sich in den letzten vier Jahren, die Anzahl der Nutzer wuchs um durchschnittlich 25% pro Jahr und die Anzahl der Anfragen verdoppelte sich seit 2004 jährlich. Bei den Anfragen handelt es sich zunehmend um komplexe Verbundanfragen mit Aggregationen; sie sind häufig explorativer Natur und werden interaktiv an das System gestellt. Eine Möglichkeit, der Forderung nach Interaktivität bei diesem starken, mehrdimensionalen Wachstum nachzukommen, stellen Stichproben und eine darauf aufsetzende näherungsweise Anfrageverarbeitung dar. Diese Lösung bietet signifikant kürzere Antwortzeiten sowie Schätzungen mit probabilistischen Fehlergrenzen. Mit den Operationen Verbund, Gruppierung und Aggregation als Hauptbestandteile analytischer Anfragen ergeben sich folgende Anforderungen an das Design von Stichproben in analytischen Datenbanken: Zwischen den Stichproben fremdschlüsselverbundener Relationen ist die referenzielle Integrität zu gewährleisten, sämtliche Gruppen sind angemessen zu repräsentieren und Aggregationsattribute sind auf extreme Werte zu untersuchen. In dieser Dissertation wird für jedes dieser Teilprobleme ein Stichprobenverfahren vorgestellt, das sich durch speicherplatzbeschränkte Stichproben und geringe Schätzfehler auszeichnet. Im ersten der vorgestellten Verfahren wird durch eine korrelierte Stichprobenerhebung die referenzielle Integrität bei minimalem zusätzlichen Speicherplatz gewährleistet. Das zweite vorgestellte Stichprobenverfahren hat durch eine Berücksichtigung der Streuung der Daten eine angemessene Repräsentation sämtlicher Gruppen zur Folge und unterstützt damit beliebige Gruppierungen, und im dritten Verfahren ermöglicht eine mehrdimensionale Ausreißerbehandlung geringe Schätzfehler für beliebig viele Aggregationsattribute. Für jedes dieser Verfahren wird die Qualität der resultierenden Stichprobe diskutiert und bei der Berechnung speicherplatzbeschränkter Stichproben berücksichtigt. Um den Berechnungsaufwand und damit die Systembelastung gering zu halten, werden für jeden Algorithmus Heuristiken vorgestellt, deren Kennzeichen hohe Effizienz und eine geringe Beeinflussung der Stichprobenqualität sind. Weiterhin werden alle möglichen Kombinationen der vorgestellten Stichprobenverfahren betrachtet; diese Kombinationen ermöglichen eine zusätzliche Verringerung der Schätzfehler und vergrößern gleichzeitig das Anwendungsspektrum der resultierenden Stichproben. Mit der Kombination aller drei Techniken wird ein Stichprobenverfahren vorgestellt, das alle Anforderungen an das Design von Stichproben in analytischen Datenbanken erfüllt und die Vorteile der Einzellösungen vereint. Damit ist es möglich, ein breites Spektrum an Anfragen mit hoher Genauigkeit näherungsweise zu beantworten. / Recent studies have shown the fast and multi-dimensional growth in analytical databases: Over the last four years, the data volume has risen by a factor of 10; the number of users has increased by an average of 25% per year; and the number of queries has been doubling every year since 2004. These queries have increasingly become complex join queries with aggregations; they are often of an explorative nature and interactively submitted to the system. One option to address the need for interactivity in the context of this strong, multi-dimensional growth is the use of samples and an approximate query processing approach based on those samples. Such a solution offers significantly shorter response times as well as estimates with probabilistic error bounds. Given that joins, groupings and aggregations are the main components of analytical queries, the following requirements for the design of samples in analytical databases arise: 1) The foreign-key integrity between the samples of foreign-key related tables has to be preserved. 2) Any existing groups have to be represented appropriately. 3) Aggregation attributes have to be checked for extreme values. For each of these sub-problems, this dissertation presents sampling techniques that are characterized by memory-bounded samples and low estimation errors. In the first of these presented approaches, a correlated sampling process guarantees the referential integrity while only using up a minimum of additional memory. The second illustrated sampling technique considers the data distribution, and as a result, any arbitrary grouping is supported; all groups are appropriately represented. In the third approach, the multi-column outlier handling leads to low estimation errors for any number of aggregation attributes. For all three approaches, the quality of the resulting samples is discussed and considered when computing memory-bounded samples. In order to keep the computation effort - and thus the system load - at a low level, heuristics are provided for each algorithm; these are marked by high efficiency and minimal effects on the sampling quality. Furthermore, the dissertation examines all possible combinations of the presented sampling techniques; such combinations allow to additionally reduce estimation errors while increasing the range of applicability for the resulting samples at the same time. With the combination of all three techniques, a sampling technique is introduced that meets all requirements for the design of samples in analytical databases and that merges the advantages of the individual techniques. Thereby, the approximate but very precise answering of a wide range of queries becomes a true possibility.
133

Processo de desenvolvimento participativo de sistema de data Warehouse: uma aplicação no PROGER

Lustosa, Rodrigo Bastos 22 July 2009 (has links)
Made available in DSpace on 2015-04-16T14:49:18Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1087884 bytes, checksum: 429902be9382cf69a51711eb3b6a7a19 (MD5) Previous issue date: 2009-07-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Studies in the field of Information Technology (IT) have always been concerned with the technical aspects of the technology and neglect the social and organizational aspects. It is recognized that information systems (IS) have had some impact on the workplace, and the decision making process in the organizational environment. In the field of decision support systems, it is mentioned that the technology of Data Warehouse (DW) provides efficient access to integrate data and historical heterogeneous sources, helping the decision making process. With this function, the Data Warehouse technology is classified as analytical systems, which differentiated it from other kind of information systems such as the well recognized transaction information systems. However, the success of Data Warehouse is dependent upon many factors, including its development methodology steps. The information system development process has always emphasized the technological problems, neglecting that users are severe affecting by the technology. Studies in Information systems development methodology in Data Warehouse are very rare. So, how to develop Data Warehouse? The purpose of this study is to propose a methodology for the initial phase of a Data Warehouse development, increasing user s participation in the development context, based on the Participatory Design approach. The qualitative research method and action research were used in this work. The study was developed in the public agency named DATAPREV, which is the government information technology company for social security issues. One of DATAPREV project is to replace the analytical systems of the Brazilian Labour and Employment Ministry. For contractual reasons, the Employment and Income Generation Program, name PROGER, was selected for this study. As result of this, the PROGER s system was chosen, and among the seven phases proposed, the initiation phase was selected and divided into five activities as a guide to start the development of a Data Warehouse with users participation. The initiation phase was validated and used in other projects with the same objectives. Furthermore, as an action research work that involved system analysts, the study promoted the reduction in the gap between business practice and academic literature in the research field. / Estudos no campo de Tecnologia de Informação (TI) tem sempre se preocupado com os aspectos da tecnologia, negligenciando os aspectos sociais e organizacionais. Reconhece-se que os Sistemas de Informação (SI) tem tido alguns impactos no ambiente de trabalho e no processo de tomada de decisão nas organizações. No campo de sistemas de apoio às decisões, tem sido mencionado que a tecnologia de Data Warehouse (DW) proporciona acesso eficiente aos dados integrados e ao histórico de fontes heterogêneas. Por este motivo auxiliam o planejamento e o processo decisório, sendo classificados como sistemas analíticos, diferenciando-se de outras espécies de sistemas de informação, a exemplo dos reconhecidos sistemas de informações transacionais. Contudo, o sucesso do Data Warehouse depende de muitos fatores, incluindo os passos para sua construção. O processo tradicional de desenvolvimento de sistemas tem sempre enfatizado os problemas tecnológicos. Entretanto, os usuários que são severamente afetados pela tecnologia não são valorizados. Os estudos sobre metodologia de desenvolvimento de sistemas de Data Warehouse são muito raros. Então, como desenvolver Data Warehouse? O propósito deste estudo é propor uma metodologia para a fase inicial de desenvolvimento de um Data Warehouse, aumentando a participação do usuário no contexto de desenvolvimento, com base no enfoque do Desenho Participativo. A pesquisa qualitativa e a pesquisa-ação foram utilizadas no trabalho. O trabalho foi desenvolvido na empresa pública DATAPREV, que possui um projeto responsável por atender à solicitação do Ministério do Trabalho e Emprego (MTE) para a substituição de parte de seus sistemas analíticos, destacando o PROGER (Programa de Geração de Emprego e Renda). Como resultado chegou-se a elaboração de sete fases, sendo a fase de iniciação detalhada em cinco atividades. Em conjunto essas atividades apresentam um guia para iniciar o desenvolvimento de um Data Warehouse em parceria com os usuários. Todas as atividades para a iniciação do PROGER são apresentadas. Assim, a fase de iniciação foi validada e colocada em uso para outros projetos com a mesma necessidade. Além disso, por se tratar de uma pesquisa-ação que envolveu os próprios desenvolvedores, promoveu, em seu universo de estudo, a diminuição do abismo existente entre práticas comerciais e a literatura acadêmica.
134

Diretrizes metodológicas e validação estatística de dados para a construção de data warehouses / Methodological guidelines and statistical data validation for the construction of data warehouses

Pedro Losco Takecian 14 August 2014 (has links)
Os sistemas de integração de dados que usam a arquitetura de data warehouse (DW) têm se tornado cada vez maiores e mais difíceis de gerenciar devido à crescente heterogeneidade das fontes de dados envolvidas. Apesar dos avanços tecnológicos e científicos, os projetos de DW ainda são muito lentos na geração de resultados pragmáticos. Este trabalho busca responder à seguinte questão: como pode ser reduzida a complexidade do desenvolvimento de sistemas de DW que integram dados provenientes de sistemas transacionais heterogêneos? Para isso, apresenta duas contribuições: 1) A criação de diretrizes metodológicas baseadas em ciclos de modelagem conceitual e análise de dados para guiar a construção de um sistema modular de integração de dados. Essas diretrizes foram fundamentais para reduzir a complexidade do desenvolvimento do projeto internacional Retrovirus Epidemiology Donor Study-II (REDS-II), se mostrando adequadas para serem aplicadas em sistemas reais. 2) O desenvolvimento de um método de validação de lotes de dados candidatos a serem incorporados a um sistema integrador, que toma decisões baseado no perfil estatístico desses lotes, e de um projeto de sistema que viabiliza o uso desse método no contexto de sistemas de DW. / Data integration systems that use data warehouse (DW) architecture are becoming bigger and more difficult to manage due to the growing heterogeneity of data sources. Despite the significant advances in research and technologies, many integration projects are still too slow to generate pragmatic results. This work addresses the following question: how can the complexity of DW development for integration of heterogeneous transactional information systems be reduced? For this purpose, we present two contributions: 1) The establishment of methodological guidelines based on cycles of conceptual modeling and data analysis to drive construction of a modular data integration system. These guidelines were fundamental for reducing the development complexity of the international project Retrovirus Epidemiology Donor Study-II (REDS-II), proving suited to be applied in real systems. 2) The development of a validation method of data batches that are candidates to be incorporated into an integration system, which makes decisions based on the statistical profile of these batches, and a project of a system that enables the use of this method in DW systems context.
135

Utilização da tecnologia Data Warehousing e da ferramenta OLAP para apoiar a captação de doadores de sangue: estudo de caso no Hemonúcleo Regional de Jáu / Use of the technology dates warehousing and of the ferramenta OLAP to support the donors\' of blood reception: study of case of \"Regional Blood Bank of Jaú\"

Katia Milena Gonçalves Meira 21 December 2004 (has links)
As pesquisas de apoio a decisão na área de saúde, muitas vezes enfocam o diagnóstico e não o caráter gerencial da instituição. Portanto, as unidades de saúde com todas as suas particularidades, necessitam de informações confiáveis e precisas para auxiliá-las na tomada de decisão. Os hemonúcleos convivem com uma luta constante na captação de doadores de sangue para que possam garantir hemocomponentes em quantidade necessária e qualidade para a sua região de abrangência e, informações que possam auxiliá-los na manutenção desses estoques são imprescindíveis. A tecnologia Data Warehousing pode trazer muitos benefícios nesse sentido, por possibilitar o armazenamento de dados históricos que relacionados podem demonstrar tendências e identificar relacionamentos muitas vezes desconhecidos, além de utilizar ferramentas de fácil interação com o usuário. Dessa forma, essa pesquisa tem como objetivo desenvolver uma ferramenta de apoio à decisão que extraia dados do banco de dados transacional atual do Hemonúcleo Regional de Jaú e consista esses dados de forma que as informações possam ser acessadas de maneira simples e rápida pelo usuário final. / Many times, researches sorrounding the health area focus on the diagnostic instead of the managerial character of the institution. Because of this, the health units with their details need reliable and precise information to help them in their decision making. The blood banks live a constant battle to capture blood donors to guarantee a good quantity and quality of blood components for their region and they need information that can help them maintain storage of the blood. Data Warehouse technology brings a lot of benefits because they allow the storage of historic data that, when related, can present tendences and identify unknown relationships. Besides, Data Warehouse technology frequently uses user-friendly interface tools. Therefore, this research has a aim to develop a decision supporting tool that extract data from the current transaction database of Regional Blood Bank of Jau and that check these data so that the information may be easily and quickly accessed by the final user(s).
136

Uma análise da nova geração de sistemas de apoio à decisão / An analysis of the new generation of decision support systems

Carlos Alberto Ferreira Bispo 14 December 1998 (has links)
Nesta dissertação são feitas três abordagens. Na primeira apresentam-se os componentes necessários para que se possa compreender melhor o cenário atual onde se encontram aqueles que são os responsáveis pelo processo decisório nas empresas. São abordados as evoluções do processo decisório e do suporte ao mesmo, suas etapas e os seus fatores de influência. A segunda abordagem é relativa às três ferramentas que constituem a nova geração de Sistemas de Apoio à Decisão. A primeira ferramenta é o data warehouse, um banco de dados específico para propósitos gerenciais e que é independente dos bancos de dados operacionais. A segunda ferramenta é o On-Line Analytical Processing (OLAP) e é utilizada para se realizar análises sofisticadas, que permitem aos seus usuários compreenderem melhor os negócios que são realizados na empresa. A última ferramenta é o data mining que permite que se faça uma análise nos dados armazenados, durante anos, para que se descubram relacionamentos ocultos entres os dados, revelando perfis de compras e de clientes; desta forma, as informações obtidas podem se tornar estratégias de negócios. Com a abordagem destas três novas ferramentas, deseja-se analisar o que existe de mais avançado, atualmente, para dar um melhor suporte ao processo decisório, sem entrar nos detalhes estritamente técnicos destas tecnologias. A terceira abordagem é constituída de exemplos de empresas que implementaram estas ferramentas e os resultados obtidos, assim como pelas tendências destas ferramentas para os próximos anos. / In this dissertation we will deal with three approaches. On the first we present the necessary elements to make one understand better the current scenery where the responsible persons for the decision process of companies meet. The evolution of the decision process and its support, phases and influence factors. The second approach is related to the three tools that constitute the new generation of Decision Support Systems. The first tool is the data warehouse, a specific database for the managerial purposes that is independent from the operational databases. The second tool is the On-Line Analytical Processing (OLAP) used in carrying out sophisticated analyses allowing its users a better understanding of the business accomplished in the company. The last tool is the data mining that allows for an analysis of the data stored along the years so that one is able to find out the correct relationship among the collect’s data, revealing business and clients profiles. In such way all the information gathered in the process can be converted into business strategy. With the approach of these three new tools we intend to analyze the most advanced techniques available nowadays to give a better decision support without getting into strictly technical details of these technologies. The third approach is made up of examples of companies that implemented such tools and the attained results, as well, the trends for these tools in the coming years.
137

Proposta de um modelo de sistema de apoio à decisão em vendas: uma aplicação / Proposal of decision support system\'s model for sales: an application

Franklin Seoane Stefanoli 20 March 2003 (has links)
Este trabalho teve por objetivo o desenvolvimento de uma proposta de um modelo de sistema de apoio à decisão em vendas e sua aplicação. O levantamento sobre o perfil das vendas no mercado corporativo - de empresas-para-empresas, as técnicas de vendas, informações necessárias para a realização de uma venda eficiente, tal qual o controle das ações e resultados dos vendedores com a ajuda de relatórios, tudo isso aliado às tecnologias de data warehouse, data mart, OLAP foram essenciais na elaboração de uma proposta de modelo genérico e sua implantação. Esse modelo genérico foi aplicado levando-se em conta uma editora de listas e guias telefônicos hipotética, e foi construído buscando-se suprir os profissionais de vendas com informações que poderão melhorar a efetividade de suas vendas e dar-lhes maior conhecimento sobre seus produtos, clientes, usuários de listas e o mercado como um todo, além de suprir os gerentes de uma ferramenta rápida e confiável de auxílio à análise e coordenação dos esforços de vendas. A possibilidade de visualização rápida, confiável e personalizada das diversas informações permitidas por esse sistema, tal qual o êxito em responder às perguntas de pesquisas apresentadas no trabalho, comprova que essa aplicação poderá ser útil à empresa e em específico aos profissionais de vendas e gerentes tomadores de decisão. / The objective of this study was a development of a decision support system\'s application for sales. Relevant information about business markets and business buying behavior, principles of selling and evaluation models for sales representatives, all of this supported by data warehouse, data mart and OLAP technologies was important to create a generic DSS model as well your application. This generic model was created due to match some information needs of sales professionals from a hypothetic publishing company (yellow page). This system and the information generated by it would improve the effectiveness of sales professionals (sales reps), giving them more information and knowledge about your product, market, customers, users, and offering to sales managers as well decision makers a reliable, fast and interactive tool for sales effort\'s analysis and monitoring. A fast, interactive, reliable and customized visualization of information - characteristics of this system, as well your effectiveness of answering questions presented in the beginning of this study reinforce the utility and applicability of this model in order to satisfy sales professionals, managers and publishing companies information needs.
138

Um data warehouse de publicações científicas: indexação automática da dimensão tópicos de pesquisa dos data marts / A Data warehouse for scientific publications: automatic indexing of the research topic dimension for using in data marts

Augusto Kanashiro 04 May 2007 (has links)
Este trabalho de mestrado insere-se no contexto do projeto de uma Ferramenta Inteligente de Apoio à Pesquisa (FIP), sendo desenvolvida no Laboratório de Inteligência Computacional do ICMC-USP. A ferramenta foi proposta para recuperar, organizar e minerar grandes conjuntos de documentos científicos (na área de computação). Nesse contexto, faz-se necessário um repositório de artigos para a FIP. Ou seja, um Data Warehouse que armazene e integre todas as informações extraídas dos documentos recuperados de diferentes páginas pessoais, institucionais e de repositórios de artigos da Web. Para suportar o processamento analítico on-line (OLAP) das informações e facilitar a ?mineração? desses dados é importante que os dados estejam armazenados apropriadamente. Dessa forma, o trabalho de mestrado teve como objetivo principal projetar um Data Warehouse (DW) para a ferramenta FIP e, adicionalmente, realizar experimentos com técnicas de mineração e Aprendizado de Máquina para automatizar o processo de indexação das informações e documentos armazenados no data warehouse (descoberta de tópicos). Para as consultas multidimensionais foram construídos data marts de forma a permitir aos pesquisadores avaliar tendências e a evolução de tópicos de pesquisa / This dissertation is related to the project of an Intelligent Tool for Research Supporting (FIP), being developed at the Laboratory of Computational Intelligence at ICMC-USP. The tool was proposed to retrieve, organize, and mining large sets of scientific documents in the field of computer science. In this context, a repository of articles becomes necessary, i.e., a Data Warehouse that integrates and stores all extracted information from retrieved documents from different personal and institutional web pages, and from article repositories. Data appropriatelly stored is decisive for supporting online analytical processing (OLAP), and ?data mining? processes. Thus, the main goal of this MSc research was design the FIP Data Warehouse (DW). Additionally, we carried out experiments with Data Mining and Machine Learning techniques in order to automatize the process of indexing of information and documents stored in the data warehouse (Topic Detection). Data marts for multidimensional queries were designed in order to facilitate researchers evaluation of research topics trend and evolution
139

Processamento de consultas analíticas com predicados de similaridade entre imagens em ambientes de data warehousing / Processing of analytical with similarity search predicates over images in data warehousing environments

Jefferson William Teixeira 29 May 2015 (has links)
Um ambiente de data warehousing oferece suporte ao processo de tomada de decisão. Ele consolida dados de fontes de informação distribuições, autônomas e heterogêneas em um único componente, o data warehouse, e realiza o processamento eficiente de consultas analíticas, denominadas OLAP (on-line analytical processing). Um data warehouse convencional armazena apenas dados alfanuméricos. Por outro lado, um data warehouse de imagens armazena, além desses dados convencionais, características intrínsecas de imagens, permitindo a realização de consultas analíticas estendidas com predicados de similaridade entre imagens. Esses ambientes demandam, portanto, a criação de estratégias que possibilitem o processamento eficiente dessas consultas complexas e custosas. Apesar de haver na literatura trabalhos voltados a índices bitmap para ambientes de data warehousing e métodos de acesso métricos para melhorar o desempenho de consultas por similaridade entre imagens, no melhor do nosso conhecimento, não há uma técnica que investigue essas duas questões em um mesmo contexto. Esta dissertação visa preencher essa lacuna na literatura por meio das seguintes contribuições: (i) proposta do ImageDWindex, um mecanismo para a otimização de consultas analíticas estendidas com predicados de similaridade entre imagens; e (ii) definição de diferentes estratégias de processamento de consultas sobre data warehouses de imagens usando o ImageDW-index. Para validar as soluções propostas, foram desenvolvidas duas outras contribuições secundárias, que são: (iii) o ImageDW-Gen, um gerador de dados com o objetivo de povoar o data warehouse de imagens; e (iv) a proposta de quatro classes de consulta, as quais enfocam em diferentes custos de processamento dos predicados de similaridade entre imagens. Utilizando o ImageDW-Gen, foram realizados testes de desempenho para investigar as vantagens introduzidas pelas estratégias propostas, de acordo com as classes de consultas definidas. Comparado com o trabalho mais correlato existente na literatura, o uso do ImageDWindex proveu uma melhora no desempenho do processamento de consultas IOLAP que variou em média de 55,57% até 82,16%, considerando uma das estratégias propostas. / A data warehousing environment offers support to the decision-making process. It consolidates data from distributed, autonomous and heterogeneous information sources into one of its main components, the data warehouse. Furthermore, it provides effcient processing of analytical queries (i.e. OLAP queries). A conventional data warehouse stores only alphanumeric data. On the other hand, an image data warehouse stores not only alphanumeric data but also intrinsic features of images, thus allowing data warehousing environments to perform analytical similarity queries over images. This requires the development of strategies to provide efficient processing of these complex and costly queries. Although there are a number of approaches in the literature aimed at the development of bitmap index for data warehouses and metric access methods for the efficient processing of similarity queries over images, to the best of our knowledge, there is not an approach that investigate these two issues in the same setting. In this research, we fill this gap in the literature by introducing the following main contributions: (i) the proposal of the ImageDW-index, an optimization mechanism aimed at the efficient processing of analytical queries extended with similarity predicates over images; and (ii) definition of different processing strategies for image data warehouses using the ImageDW-index. In order to validate these main proposals, we also introduce two secondary contributions, as follows: (iii) the ImageDW-Gen, a data generator to populate image data warehouses; and (iv) the proposal of four query classes, each one enforcing different query processing costs associated to the similarity predicates in image data warehousing environments. Using the ImageDW-Gen, performance tests were carried out in order to investigate the advantages introduced by the proposed strategies, according to the query classes. Compared to the most related work available in the literature, the ImageDW-index provided a performance gain that varied from 55.57% to 82.16%, considering one of the proposed strategies.
140

SIMCQC: SISTEMA INTELIGENTE PARA MONITORAMENTO E CONTROLE DA QUALIDADE DE COMBUSTÍVEL / SIMCQC: INTELLIGENT SYSTEM FOR MONITORING AND CONTROL OF THE QUALITY OF FUEL

Silva, Reinaldo de Jesus da 26 June 2008 (has links)
Made available in DSpace on 2016-08-17T14:52:48Z (GMT). No. of bitstreams: 1 Reinaldo de Jesus da Silva.pdf: 4540612 bytes, checksum: 7f60713fcfa6b7c9454af971170a8d47 (MD5) Previous issue date: 2008-06-26 / The National Agency, Natural Gas and Biofuels, established the Program for Monitoring the Quality of Fuel Automotive, to evaluate continuously the quality of fuels and map the problems of non-compliance to standards. The research proposes the development of a system for monitoring the quality of fuel PASSI applying the methodology and techniques from artificial intelligence, using intelligent agents, and the JADE platform and language along with JESS Data Warehouse to create a repository of data that facilitates the management and support for decision-making of the Laboratory for Analysis and Research in Analytical Chemistry of Oil of the Federal University of Maranhão. / A Agência Nacional de Petróleo, Gás Natural e Biocombustíveis instituiu o Programa de Monitoramento da Qualidade de Combustíveis Automotivos, com o objetivo de avaliar permanentemente a qualidade dos combustíveis e mapear os problemas de não conformidade às normas estabelecidas. A pesquisa propõe o desenvolvimento de um sistema para o monitoramento da qualidade de combustíveis aplicando a metodologia PASSI e técnicas provenientes da Inteligência Artificial, utilizando agentes inteligentes, assim como a plataforma JADE e a linguagem JESS juntamente com Data Warehouse para criar um repositório de dados que facilite o gerenciamento e o apoio à tomada de decisão do Laboratório de Análise e Pesquisa em Química Analítica de Petróleo da Universidade Federal do Maranhão.

Page generated in 0.0526 seconds