• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 114
  • 88
  • 69
  • 38
  • 12
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 494
  • 494
  • 115
  • 108
  • 99
  • 81
  • 74
  • 73
  • 69
  • 69
  • 63
  • 56
  • 56
  • 53
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Uma análise da nova geração de sistemas de apoio à decisão / An analysis of the new generation of decision support systems

Bispo, Carlos Alberto Ferreira 14 December 1998 (has links)
Nesta dissertação são feitas três abordagens. Na primeira apresentam-se os componentes necessários para que se possa compreender melhor o cenário atual onde se encontram aqueles que são os responsáveis pelo processo decisório nas empresas. São abordados as evoluções do processo decisório e do suporte ao mesmo, suas etapas e os seus fatores de influência. A segunda abordagem é relativa às três ferramentas que constituem a nova geração de Sistemas de Apoio à Decisão. A primeira ferramenta é o data warehouse, um banco de dados específico para propósitos gerenciais e que é independente dos bancos de dados operacionais. A segunda ferramenta é o On-Line Analytical Processing (OLAP) e é utilizada para se realizar análises sofisticadas, que permitem aos seus usuários compreenderem melhor os negócios que são realizados na empresa. A última ferramenta é o data mining que permite que se faça uma análise nos dados armazenados, durante anos, para que se descubram relacionamentos ocultos entres os dados, revelando perfis de compras e de clientes; desta forma, as informações obtidas podem se tornar estratégias de negócios. Com a abordagem destas três novas ferramentas, deseja-se analisar o que existe de mais avançado, atualmente, para dar um melhor suporte ao processo decisório, sem entrar nos detalhes estritamente técnicos destas tecnologias. A terceira abordagem é constituída de exemplos de empresas que implementaram estas ferramentas e os resultados obtidos, assim como pelas tendências destas ferramentas para os próximos anos. / In this dissertation we will deal with three approaches. On the first we present the necessary elements to make one understand better the current scenery where the responsible persons for the decision process of companies meet. The evolution of the decision process and its support, phases and influence factors. The second approach is related to the three tools that constitute the new generation of Decision Support Systems. The first tool is the data warehouse, a specific database for the managerial purposes that is independent from the operational databases. The second tool is the On-Line Analytical Processing (OLAP) used in carrying out sophisticated analyses allowing its users a better understanding of the business accomplished in the company. The last tool is the data mining that allows for an analysis of the data stored along the years so that one is able to find out the correct relationship among the collect’s data, revealing business and clients profiles. In such way all the information gathered in the process can be converted into business strategy. With the approach of these three new tools we intend to analyze the most advanced techniques available nowadays to give a better decision support without getting into strictly technical details of these technologies. The third approach is made up of examples of companies that implemented such tools and the attained results, as well, the trends for these tools in the coming years.
192

Utilização da tecnologia Data Warehousing e da ferramenta OLAP para apoiar a captação de doadores de sangue: estudo de caso no Hemonúcleo Regional de Jáu / Use of the technology dates warehousing and of the ferramenta OLAP to support the donors\' of blood reception: study of case of \"Regional Blood Bank of Jaú\"

Meira, Katia Milena Gonçalves 21 December 2004 (has links)
As pesquisas de apoio a decisão na área de saúde, muitas vezes enfocam o diagnóstico e não o caráter gerencial da instituição. Portanto, as unidades de saúde com todas as suas particularidades, necessitam de informações confiáveis e precisas para auxiliá-las na tomada de decisão. Os hemonúcleos convivem com uma luta constante na captação de doadores de sangue para que possam garantir hemocomponentes em quantidade necessária e qualidade para a sua região de abrangência e, informações que possam auxiliá-los na manutenção desses estoques são imprescindíveis. A tecnologia Data Warehousing pode trazer muitos benefícios nesse sentido, por possibilitar o armazenamento de dados históricos que relacionados podem demonstrar tendências e identificar relacionamentos muitas vezes desconhecidos, além de utilizar ferramentas de fácil interação com o usuário. Dessa forma, essa pesquisa tem como objetivo desenvolver uma ferramenta de apoio à decisão que extraia dados do banco de dados transacional atual do Hemonúcleo Regional de Jaú e consista esses dados de forma que as informações possam ser acessadas de maneira simples e rápida pelo usuário final. / Many times, researches sorrounding the health area focus on the diagnostic instead of the managerial character of the institution. Because of this, the health units with their details need reliable and precise information to help them in their decision making. The blood banks live a constant battle to capture blood donors to guarantee a good quantity and quality of blood components for their region and they need information that can help them maintain storage of the blood. Data Warehouse technology brings a lot of benefits because they allow the storage of historic data that, when related, can present tendences and identify unknown relationships. Besides, Data Warehouse technology frequently uses user-friendly interface tools. Therefore, this research has a aim to develop a decision supporting tool that extract data from the current transaction database of Regional Blood Bank of Jau and that check these data so that the information may be easily and quickly accessed by the final user(s).
193

O uso de business intelligence para gerar indicadores de desempenho no chão-de-fábrica: uma proposta de aplicação em uma empresa de manufatura / The use of Business Intelligence to produce performance indicators in the shop floor: an application proposal in a manufacturing company

Marcos Roberto Fortulan 07 February 2006 (has links)
A evolução pela qual passou o chão-de-fábrica no último século transformou-o numa área estratégica para as empresas, por meio da qual é possível atender e satisfazer as necessidades dos seus clientes. Esse novo chão-de-fábrica gera hoje uma grande quantidade de dados nos controles do seu processo produtivo, os quais, em muitos casos, após seu uso imediato ou de curto prazo, acabam descartados ou armazenados inadequadamente, impossibilitando ou dificultando seu acesso. Esses dados, no entanto, podem vir a ter uma importante utilidade como matéria-prima para a geração de informações úteis à gestão do negócio. Aliado à necessidade que as empresas hoje têm de possuir um adequado sistema de medição de desempenho, é possível obter, a partir dos dados históricos do chão-de-fábrica, um bom conjunto de indicadores de desempenho para a área. Para isso, esses dados precisam ser modelados em sistemas especialmente projetados para esta função. Esses sistemas vêm sendo tratados como sistemas de apoio à decisão (SAD) ou Business Intelligence (BI). Como solução para os problemas acima, foi feita então uma revisão sobre os temas: sistemas de informação, ERP, sistemas de medição de desempenho, qualidade da informação, SAD/BI, bem como uma revisão sobre os trabalhos científicos relacionados ao tema da tese. Uma vez tendo sido esses conceitos consolidados, partiu-se para o desenvolvimento de um modelo dimensional de BI que se utilizou das ferramentas de Data Warehouse, On Line Analytical Processing (OLAP) e Data Mining. O software utilizado foi o Analysis Services, pertencente ao banco de dados Microsoft SQL Server 2000. Em seguida, o modelo foi testado com dados reais de uma empresa do ramo metal-mecânico, tratada aqui como “empresa A”. Por meio do modelo e dos dados reais, uma série de análises foram realizadas com o intuito de mostrar a contribuição, capacidade, flexibilidade e facilidade de uso do modelo, atingindo o objetivo proposto / The shop floor evolution in the last century has transformed it in a strategic area for the companies, through which is possible to reach and to satisfy the customers needs. This new shop floor generates today a great amount of data by the productive process controls, the ones which, in many cases, after its immediate use or in a short period, are discarded or stored inadequately, disabling or making impossible its access. These data, however, can come to have an important use as raw material for the production of useful information to the business administration. Together to the need that the companies have today to possess an appropriated performance measure system, it is possible to obtain, from the historical shop floor data, a good performance indicators group for the area. For that, these data must be modeled by systems specifically designed for this purpose. These systems have been treated as decision support systems (DSS) or Business Intelligence (BI). As solution for the problems above, it was made a review over the following themes: information systems, ERP, performance measure system, information quality, DSS/BI, as well as a review about the scientific works related to this thesis theme. Once consolidated these concepts, started the development of a BI dimensional model, that used Data Warehouse tools, On Line Analytical Processing (OLAP) and Data Mining. It was used the Analysis Services software, belonged to the Microsoft SQL Server 2000 database. In the following, the model was tested with real data from a metal-mechanic company branch, called here as “company A”. Through the model and of the real data, a series of analyses was accomplished with the intention of showing the model contribution, capacity, flexibility and use easiness, reaching the proposed objective
194

IDEO Integrador de dados da Execução Orçamentária Brasileira: um estudo de caso da integração de dados das receitas e despesas nas Esferas Federal, Estadual Governo de São Paulo, e Municipal Municípios do Estado de São Paulo / The integration of multi-source heterogeneous data: an open data case study for budgetary execution in Brazil.

José Rodolfo Beluzo 30 September 2015 (has links)
Este trabalho apresenta um grupo de processos para a integracao de dados e esquemas das receitas e despesas da execucao do orcamento publico brasileiro nas tres esferas governamentais: governo federal, estadual e municipios. Estes processos visam resolver problemas de heterogeneidade encontrados pelo cidadao ao buscar por informacoes publicas em diferentes entes. Estas informacoes atualmente sao disponibilizadas pelos portais de transparencia que seguem a obrigatoriedade definida pelo arcabouco legal brasileiro, no qual estes devem publicar, dentre outras informacoes, o registro de receitas, despesas, transferencias financeiras e processos licitatorios, de forma integra, primaria, autentica e atualizada. Porem, apesar das exigencias citadas por lei, nao existe um padrao para publicacao, alem de inconsistencias e ambiguidades de dados entre os diferentes portais. Assim, este trabalho visa resolver estes problemas de heterogeneidade enfrentados pelo cidadao. Para tal, como prova de conceito foram selecionados os dados de receitas e despesas do governo federal, do governo do estado de Sao Paulo e de 645 municipios do estado de Sao Paulo. Este trabalho padronizou um modelo conceitual de receitas e despesas baseado no manual tecnico do orcamento redigido pelo governo federal anualmente. A partir deste modelo criou-se esquemas de dados padronizados de acordo com os datasets que estao disponibilizados nos portais de transparencia de cada ente federativo, assim como um esquema integrado entre estes. Os dados de execucao orcamentaria do periodo de 2010 a 2014 dos governos citados foram extraidos dos portais, passando por um processo de transformacao e limpeza, e carregados no sistema integrador. Apos os dados carregados no sistema, a partir do prototipo foi possivel obter informacoes a respeito da execucao orcamentaria as quais nao eram possiveis de se realizar de forma direta acessando os portais de transparencia, ou, quando possivel o trabalho de compilacao da informacao seria muito elevado. Tambem foi possivel analisar e apontar possiveis falhas sistemicas nos portais de transparencia atraves dos resultados obtidos no processo, podendo contribuir com a melhoria destes. / This dissertation presents a process group for data integration and schemes of the Brazilian public budget s revenues and expenditures from all government level spheres (municipalities, states and nationwide). These process group aims to solve some heterogeneity problems to access public information provided by different government entities. Budget information is currently disclosed on e-gov portals, which must comply the requirements set by the Brazilian legal framework. Data about revenues, expenses, financial transfers and bidding processes must be published in a primary, authentic and updated way. However, there is no standards for publication, besides the poor data quality and inconsistencies found in the same data provided by different portals. Thus, this work aims to give some contributions to address these heterogeneity problems. To achieve this, we implemented a proof of concept that gathers revenue and expenditure data from the Brazilian federal government, the state government of Sao Paulo and 645 municipalities of Sao Paulo state. As a result, this work has standardized a conceptual model of revenues and expenses based on the technical manual of the budget. From this model, we created standardized data schemas according to the datasets that are available at the website of transparency of each government entity, as well as an integrated scheme between them. Data disclosed from 2010-2014 by all mentioned government were gathered, cleaned and loaded into the prototype. The resulting data warehouse allows queries about budget execution in Brazil that are not possible to perform directly accessing the transparency portals, or, when it is possible, this compilation work is very time consuming. During the validation phase was also possible to analyze and identify possible some failures in the e-gov portals and some recomendations try to give some contribution to their improvement.
195

Integra??o da l?gica nebulosa ? recupera??o de informa??o em data warehouse / Fuzzy logic integration to information retrieval in data warehouse

Luz, Robinson 28 June 2005 (has links)
Made available in DSpace on 2016-04-04T18:36:28Z (GMT). No. of bitstreams: 1 Robinson Luz 1.pdf: 1073059 bytes, checksum: 0604a48ed74be248d60095338d576759 (MD5) Previous issue date: 2005-06-28 / This research has as its objective to study the integration of fuzzy logic to data warehouse technologies, having its basis on Information Science theories and practices, it proposes an alternative conceptual model of organization and information retrieval. To develop the model it is described many types of data base in its history file, since its creation up to the data storage known as data warehouse . Regarding the data warehouse , it is showed its architecture, dimension and volatility to show its basis and justify the choice of this kind of database for rendering a comparative study of data recovery using Boolean logic and fuzzy logic . Basic concepts of fuzzy logic , its characteristics, uses and importance to support the decision taking are presented. It is still presented the advantages on using the methods of fuzzy treatment to deal with system that interact with human beings through simulation and thinking. It is presented tests which exemplify the effectiveness degree of data retrieval in data warehouse through Boolean logic and also through fuzzy logic . As a result of this study, it is shown a parameter proposal that will be taken in consideration when integrating the fuzzy logic to data warehouses . / A presente pesquisa tem como objeto de estudo a integra??o da l?gica nebulosa ?s tecnologias de data warehouse . Objetiva, especificamente, propor, com base nas teorias e pr?ticas da Ci?ncia da informa??o, um modelo conceitual alternativo de organiza??o e recupera??o de informa??o.Para o desenvolvimento do modelo s?o descritos diversos tipos de bancos de dados e seu hist?rico, desde sua cria??o at? os armaz?ns de dados chamados data warehouse . Quanto aos data warehouse , s?o expostos sua arquitetura, dimens?es e volatilidade, para fundamentar e justificar a escolha deste tipo de banco de dados para realizar estudo comparativo de recupera??o de dados utilizando-se a l?gica booleana e a l?gica nebulosa . S?o apresentados tamb?m conceitos b?sicos de l?gica nebulosa , suas caracter?sticas, aplica??es e sua import?ncia para auxilio ? tomada de decis?o. S?o apresentadas, ainda, as vantagens do uso de m?todos de tratamento nebuloso para lidar com sistemas que interagem com seres humanos por meio da simula??o de racioc?nios. S?o apresentados testes que exemplificam o grau de efic?cia da recupera??o de dados em data warehouse por meio da l?gica booleana e por meio da l?gica nebulosa . Como resultado do estudo, apresenta-se uma proposta de par?metros que ser?o considerados na integra??o da l?gica difusa aos data warehouses .
196

Diretrizes metodológicas e validação estatística de dados para a construção de data warehouses / Methodological guidelines and statistical data validation for the construction of data warehouses

Takecian, Pedro Losco 14 August 2014 (has links)
Os sistemas de integração de dados que usam a arquitetura de data warehouse (DW) têm se tornado cada vez maiores e mais difíceis de gerenciar devido à crescente heterogeneidade das fontes de dados envolvidas. Apesar dos avanços tecnológicos e científicos, os projetos de DW ainda são muito lentos na geração de resultados pragmáticos. Este trabalho busca responder à seguinte questão: como pode ser reduzida a complexidade do desenvolvimento de sistemas de DW que integram dados provenientes de sistemas transacionais heterogêneos? Para isso, apresenta duas contribuições: 1) A criação de diretrizes metodológicas baseadas em ciclos de modelagem conceitual e análise de dados para guiar a construção de um sistema modular de integração de dados. Essas diretrizes foram fundamentais para reduzir a complexidade do desenvolvimento do projeto internacional Retrovirus Epidemiology Donor Study-II (REDS-II), se mostrando adequadas para serem aplicadas em sistemas reais. 2) O desenvolvimento de um método de validação de lotes de dados candidatos a serem incorporados a um sistema integrador, que toma decisões baseado no perfil estatístico desses lotes, e de um projeto de sistema que viabiliza o uso desse método no contexto de sistemas de DW. / Data integration systems that use data warehouse (DW) architecture are becoming bigger and more difficult to manage due to the growing heterogeneity of data sources. Despite the significant advances in research and technologies, many integration projects are still too slow to generate pragmatic results. This work addresses the following question: how can the complexity of DW development for integration of heterogeneous transactional information systems be reduced? For this purpose, we present two contributions: 1) The establishment of methodological guidelines based on cycles of conceptual modeling and data analysis to drive construction of a modular data integration system. These guidelines were fundamental for reducing the development complexity of the international project Retrovirus Epidemiology Donor Study-II (REDS-II), proving suited to be applied in real systems. 2) The development of a validation method of data batches that are candidates to be incorporated into an integration system, which makes decisions based on the statistical profile of these batches, and a project of a system that enables the use of this method in DW systems context.
197

IDEO Integrador de dados da Execução Orçamentária Brasileira: um estudo de caso da integração de dados das receitas e despesas nas Esferas Federal, Estadual Governo de São Paulo, e Municipal Municípios do Estado de São Paulo / The integration of multi-source heterogeneous data: an open data case study for budgetary execution in Brazil.

Beluzo, José Rodolfo 30 September 2015 (has links)
Este trabalho apresenta um grupo de processos para a integracao de dados e esquemas das receitas e despesas da execucao do orcamento publico brasileiro nas tres esferas governamentais: governo federal, estadual e municipios. Estes processos visam resolver problemas de heterogeneidade encontrados pelo cidadao ao buscar por informacoes publicas em diferentes entes. Estas informacoes atualmente sao disponibilizadas pelos portais de transparencia que seguem a obrigatoriedade definida pelo arcabouco legal brasileiro, no qual estes devem publicar, dentre outras informacoes, o registro de receitas, despesas, transferencias financeiras e processos licitatorios, de forma integra, primaria, autentica e atualizada. Porem, apesar das exigencias citadas por lei, nao existe um padrao para publicacao, alem de inconsistencias e ambiguidades de dados entre os diferentes portais. Assim, este trabalho visa resolver estes problemas de heterogeneidade enfrentados pelo cidadao. Para tal, como prova de conceito foram selecionados os dados de receitas e despesas do governo federal, do governo do estado de Sao Paulo e de 645 municipios do estado de Sao Paulo. Este trabalho padronizou um modelo conceitual de receitas e despesas baseado no manual tecnico do orcamento redigido pelo governo federal anualmente. A partir deste modelo criou-se esquemas de dados padronizados de acordo com os datasets que estao disponibilizados nos portais de transparencia de cada ente federativo, assim como um esquema integrado entre estes. Os dados de execucao orcamentaria do periodo de 2010 a 2014 dos governos citados foram extraidos dos portais, passando por um processo de transformacao e limpeza, e carregados no sistema integrador. Apos os dados carregados no sistema, a partir do prototipo foi possivel obter informacoes a respeito da execucao orcamentaria as quais nao eram possiveis de se realizar de forma direta acessando os portais de transparencia, ou, quando possivel o trabalho de compilacao da informacao seria muito elevado. Tambem foi possivel analisar e apontar possiveis falhas sistemicas nos portais de transparencia atraves dos resultados obtidos no processo, podendo contribuir com a melhoria destes. / This dissertation presents a process group for data integration and schemes of the Brazilian public budget s revenues and expenditures from all government level spheres (municipalities, states and nationwide). These process group aims to solve some heterogeneity problems to access public information provided by different government entities. Budget information is currently disclosed on e-gov portals, which must comply the requirements set by the Brazilian legal framework. Data about revenues, expenses, financial transfers and bidding processes must be published in a primary, authentic and updated way. However, there is no standards for publication, besides the poor data quality and inconsistencies found in the same data provided by different portals. Thus, this work aims to give some contributions to address these heterogeneity problems. To achieve this, we implemented a proof of concept that gathers revenue and expenditure data from the Brazilian federal government, the state government of Sao Paulo and 645 municipalities of Sao Paulo state. As a result, this work has standardized a conceptual model of revenues and expenses based on the technical manual of the budget. From this model, we created standardized data schemas according to the datasets that are available at the website of transparency of each government entity, as well as an integrated scheme between them. Data disclosed from 2010-2014 by all mentioned government were gathered, cleaned and loaded into the prototype. The resulting data warehouse allows queries about budget execution in Brazil that are not possible to perform directly accessing the transparency portals, or, when it is possible, this compilation work is very time consuming. During the validation phase was also possible to analyze and identify possible some failures in the e-gov portals and some recomendations try to give some contribution to their improvement.
198

The Impact of Adopting “Business Intelligence (BI)” in Organizations

Rahman, Shahbaaz January 2011 (has links)
In economically turbulent times, Business Intelligence (BI) is increasingly being used to mitigate risk and increase certainty. The evolution of BI from a series of technologies to a platform for supporting strategies is analyzed in this thesis. The concentration is on how BI can streamline manufacturing, quality assurance, marketing and customer service are evaluated, as are the potential payoffs of increasing the level of insight an organization has. The thesis also includes analysis of how the more complex value chain processes including build-to-order, configure-to-order and quote-to-order can be made more efficient and profitable through the inclusion of BI and its associated analytics and technologies. The inclusion of the Delphi research technique makes this paper unique and strong in its content as well. The role of BI has shifted from being used in specific functional areas of an organization to being strategic in scope. The intent of this thesis is to evaluate its contributions to the customer-facing processes that are the most complex and most challenging to sustain, making BI an indispensible platform for their successful execution on the base of theories and practical experience of the BI experts.
199

Design von Stichproben in analytischen Datenbanken

Rösch, Philipp 28 July 2009 (has links) (PDF)
Aktuelle Studien belegen ein rasantes, mehrdimensionales Wachstum in analytischen Datenbanken: Das Datenvolumen verzehnfachte sich in den letzten vier Jahren, die Anzahl der Nutzer wuchs um durchschnittlich 25% pro Jahr und die Anzahl der Anfragen verdoppelte sich seit 2004 jährlich. Bei den Anfragen handelt es sich zunehmend um komplexe Verbundanfragen mit Aggregationen; sie sind häufig explorativer Natur und werden interaktiv an das System gestellt. Eine Möglichkeit, der Forderung nach Interaktivität bei diesem starken, mehrdimensionalen Wachstum nachzukommen, stellen Stichproben und eine darauf aufsetzende näherungsweise Anfrageverarbeitung dar. Diese Lösung bietet signifikant kürzere Antwortzeiten sowie Schätzungen mit probabilistischen Fehlergrenzen. Mit den Operationen Verbund, Gruppierung und Aggregation als Hauptbestandteile analytischer Anfragen ergeben sich folgende Anforderungen an das Design von Stichproben in analytischen Datenbanken: Zwischen den Stichproben fremdschlüsselverbundener Relationen ist die referenzielle Integrität zu gewährleisten, sämtliche Gruppen sind angemessen zu repräsentieren und Aggregationsattribute sind auf extreme Werte zu untersuchen. In dieser Dissertation wird für jedes dieser Teilprobleme ein Stichprobenverfahren vorgestellt, das sich durch speicherplatzbeschränkte Stichproben und geringe Schätzfehler auszeichnet. Im ersten der vorgestellten Verfahren wird durch eine korrelierte Stichprobenerhebung die referenzielle Integrität bei minimalem zusätzlichen Speicherplatz gewährleistet. Das zweite vorgestellte Stichprobenverfahren hat durch eine Berücksichtigung der Streuung der Daten eine angemessene Repräsentation sämtlicher Gruppen zur Folge und unterstützt damit beliebige Gruppierungen, und im dritten Verfahren ermöglicht eine mehrdimensionale Ausreißerbehandlung geringe Schätzfehler für beliebig viele Aggregationsattribute. Für jedes dieser Verfahren wird die Qualität der resultierenden Stichprobe diskutiert und bei der Berechnung speicherplatzbeschränkter Stichproben berücksichtigt. Um den Berechnungsaufwand und damit die Systembelastung gering zu halten, werden für jeden Algorithmus Heuristiken vorgestellt, deren Kennzeichen hohe Effizienz und eine geringe Beeinflussung der Stichprobenqualität sind. Weiterhin werden alle möglichen Kombinationen der vorgestellten Stichprobenverfahren betrachtet; diese Kombinationen ermöglichen eine zusätzliche Verringerung der Schätzfehler und vergrößern gleichzeitig das Anwendungsspektrum der resultierenden Stichproben. Mit der Kombination aller drei Techniken wird ein Stichprobenverfahren vorgestellt, das alle Anforderungen an das Design von Stichproben in analytischen Datenbanken erfüllt und die Vorteile der Einzellösungen vereint. Damit ist es möglich, ein breites Spektrum an Anfragen mit hoher Genauigkeit näherungsweise zu beantworten. / Recent studies have shown the fast and multi-dimensional growth in analytical databases: Over the last four years, the data volume has risen by a factor of 10; the number of users has increased by an average of 25% per year; and the number of queries has been doubling every year since 2004. These queries have increasingly become complex join queries with aggregations; they are often of an explorative nature and interactively submitted to the system. One option to address the need for interactivity in the context of this strong, multi-dimensional growth is the use of samples and an approximate query processing approach based on those samples. Such a solution offers significantly shorter response times as well as estimates with probabilistic error bounds. Given that joins, groupings and aggregations are the main components of analytical queries, the following requirements for the design of samples in analytical databases arise: 1) The foreign-key integrity between the samples of foreign-key related tables has to be preserved. 2) Any existing groups have to be represented appropriately. 3) Aggregation attributes have to be checked for extreme values. For each of these sub-problems, this dissertation presents sampling techniques that are characterized by memory-bounded samples and low estimation errors. In the first of these presented approaches, a correlated sampling process guarantees the referential integrity while only using up a minimum of additional memory. The second illustrated sampling technique considers the data distribution, and as a result, any arbitrary grouping is supported; all groups are appropriately represented. In the third approach, the multi-column outlier handling leads to low estimation errors for any number of aggregation attributes. For all three approaches, the quality of the resulting samples is discussed and considered when computing memory-bounded samples. In order to keep the computation effort - and thus the system load - at a low level, heuristics are provided for each algorithm; these are marked by high efficiency and minimal effects on the sampling quality. Furthermore, the dissertation examines all possible combinations of the presented sampling techniques; such combinations allow to additionally reduce estimation errors while increasing the range of applicability for the resulting samples at the same time. With the combination of all three techniques, a sampling technique is introduced that meets all requirements for the design of samples in analytical databases and that merges the advantages of the individual techniques. Thereby, the approximate but very precise answering of a wide range of queries becomes a true possibility.
200

Processo de desenvolvimento participativo de sistema de data Warehouse: uma aplicação no PROGER

Lustosa, Rodrigo Bastos 22 July 2009 (has links)
Made available in DSpace on 2015-04-16T14:49:18Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1087884 bytes, checksum: 429902be9382cf69a51711eb3b6a7a19 (MD5) Previous issue date: 2009-07-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Studies in the field of Information Technology (IT) have always been concerned with the technical aspects of the technology and neglect the social and organizational aspects. It is recognized that information systems (IS) have had some impact on the workplace, and the decision making process in the organizational environment. In the field of decision support systems, it is mentioned that the technology of Data Warehouse (DW) provides efficient access to integrate data and historical heterogeneous sources, helping the decision making process. With this function, the Data Warehouse technology is classified as analytical systems, which differentiated it from other kind of information systems such as the well recognized transaction information systems. However, the success of Data Warehouse is dependent upon many factors, including its development methodology steps. The information system development process has always emphasized the technological problems, neglecting that users are severe affecting by the technology. Studies in Information systems development methodology in Data Warehouse are very rare. So, how to develop Data Warehouse? The purpose of this study is to propose a methodology for the initial phase of a Data Warehouse development, increasing user s participation in the development context, based on the Participatory Design approach. The qualitative research method and action research were used in this work. The study was developed in the public agency named DATAPREV, which is the government information technology company for social security issues. One of DATAPREV project is to replace the analytical systems of the Brazilian Labour and Employment Ministry. For contractual reasons, the Employment and Income Generation Program, name PROGER, was selected for this study. As result of this, the PROGER s system was chosen, and among the seven phases proposed, the initiation phase was selected and divided into five activities as a guide to start the development of a Data Warehouse with users participation. The initiation phase was validated and used in other projects with the same objectives. Furthermore, as an action research work that involved system analysts, the study promoted the reduction in the gap between business practice and academic literature in the research field. / Estudos no campo de Tecnologia de Informação (TI) tem sempre se preocupado com os aspectos da tecnologia, negligenciando os aspectos sociais e organizacionais. Reconhece-se que os Sistemas de Informação (SI) tem tido alguns impactos no ambiente de trabalho e no processo de tomada de decisão nas organizações. No campo de sistemas de apoio às decisões, tem sido mencionado que a tecnologia de Data Warehouse (DW) proporciona acesso eficiente aos dados integrados e ao histórico de fontes heterogêneas. Por este motivo auxiliam o planejamento e o processo decisório, sendo classificados como sistemas analíticos, diferenciando-se de outras espécies de sistemas de informação, a exemplo dos reconhecidos sistemas de informações transacionais. Contudo, o sucesso do Data Warehouse depende de muitos fatores, incluindo os passos para sua construção. O processo tradicional de desenvolvimento de sistemas tem sempre enfatizado os problemas tecnológicos. Entretanto, os usuários que são severamente afetados pela tecnologia não são valorizados. Os estudos sobre metodologia de desenvolvimento de sistemas de Data Warehouse são muito raros. Então, como desenvolver Data Warehouse? O propósito deste estudo é propor uma metodologia para a fase inicial de desenvolvimento de um Data Warehouse, aumentando a participação do usuário no contexto de desenvolvimento, com base no enfoque do Desenho Participativo. A pesquisa qualitativa e a pesquisa-ação foram utilizadas no trabalho. O trabalho foi desenvolvido na empresa pública DATAPREV, que possui um projeto responsável por atender à solicitação do Ministério do Trabalho e Emprego (MTE) para a substituição de parte de seus sistemas analíticos, destacando o PROGER (Programa de Geração de Emprego e Renda). Como resultado chegou-se a elaboração de sete fases, sendo a fase de iniciação detalhada em cinco atividades. Em conjunto essas atividades apresentam um guia para iniciar o desenvolvimento de um Data Warehouse em parceria com os usuários. Todas as atividades para a iniciação do PROGER são apresentadas. Assim, a fase de iniciação foi validada e colocada em uso para outros projetos com a mesma necessidade. Além disso, por se tratar de uma pesquisa-ação que envolveu os próprios desenvolvedores, promoveu, em seu universo de estudo, a diminuição do abismo existente entre práticas comerciais e a literatura acadêmica.

Page generated in 0.0647 seconds