• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 58
  • 35
  • 26
  • 23
  • 11
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 274
  • 164
  • 100
  • 81
  • 74
  • 42
  • 38
  • 36
  • 36
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Análise multidimensional de dados XML baseados em links: modelos e linguagens

SILVA, Paulo Caetano da 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:52:09Z (GMT). No. of bitstreams: 2 arquivo3151_1.pdf: 2491087 bytes, checksum: 1af8d9e78bb1fe406f1cbe72ee65c4c1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Banco do Brasil S.A / O uso de ferramentas de processamento analítico de dados (OLAP) para realização de análises estratégicas de uma organização possibilita que usuários responsáveis pela tomada de decisões possam identificar tendências e padrões, de forma a conduzir melhor o negócio da empresa em que atuam. Entretanto, o desenvolvimento de sistemas de processamento analítico em dados XML no meio acadêmico e comercial não possui todas as funcionalidades das ferramentas OLAP para dados tradicionais e também não contempla documentos XML interligados. Portanto, a necessidade de desenvolver sistemas OLAP para auxiliar nas análises estratégicas dos dados de uma organização, representados no formato XML e interligados por um conjunto de referências, constitui a principal motivação para o desenvolvimento deste trabalho. Atualmente, pesquisas vêm sendo desenvolvidas no contexto acadêmico com o objetivo de realizar processamento analítico em dados representados em XML. No entanto, em razão destas tecnologias terem sido originalmente concebidas para propósitos distintos, esta não é uma tarefa trivial. Para ajudar no desenvolvimento desses sistemas OLAP, neste trabalho é proposto um sistema computacional constituído de uma linguagem de consulta analítica, LMDQL, a qual permite a realização de consultas a dados multidimensionais baseados em documentos XML interligados entre si. Como as linguagens padrões do W3C de consulta a documentos XML (e.g. XPath e XQuery) não têm suporte a links, foi especificada, e incorporada ao processador da LMDQL, XLPath, uma linguagem de navegação para documentos XML com links. Além disso, para modelar cubos de dados em documentos XML interligados e para tratar as heterogeneidades sintática, semântica e estrutural encontradas em dados representados por XML, é apresentado um metamodelo multidimensional de dados, chamado XLDM. A partir destas especificações, foi desenvolvido um protótipo do sistema que possibilita a análise de documentos XML interligados. Este protótipo inclui a LMDQL, XLDM, XLPath e um driver, sql2xquery, que realiza o mapeamento de consultas SQL em XQuery, viabilizando a incorporação deste protótipo em um servidor OLAP para dados no formato relacional. Para avaliar as propostas apresentadas nesta tese, são realizados estudos de casos em três domínios distintos, nas áreas médica, financeira e de vendas, de forma a mostrar a expressividade e utilização do sistema proposto. São discutidos resultados de testes de desempenho para avaliar o tempo de execução do processamento analítico em documentos XML interligados. Nestes testes, foi avaliada a eficiência do driver em três SGDB para dados XML e foi investigado o impacto no tempo de execução do processamento analítico em documentos XML que usam links para expressar informação adicional aos dados XML. O custo de processamento de consultas em LMDQL foi comparado com o custo destas mesmas consultas em MDX (um padrão de mercado), mostrando que o benefício alcançado com o uso de LMDQL não impacta no tempo de execução das consultas
52

Minerando exceções em cubos OLAP

Moura Pereira, Fabio January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:59Z (GMT). No. of bitstreams: 2 arquivo4803_1.pdf: 2486056 bytes, checksum: 5d7c8be789c9fce90bbfa23c16bef5e3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / OLAP e Mineração de Dados têm emergido separadamente como duas das técnicas de maior sucesso para suporte à decisão, independentes de domínio. Elas têm poderes e limitações complementares: OLAP fornece um serviço rápido e flexível para visualização guiada pelo usuário de dados multidimensionais e de multi-granularidade, enquanto a mineração de dados fornece um serviço automático para descoberta de padrões e dados. Assim como OLAP pode representar um passo de pré-processamento e seleção de dados eficiente, flexível e iterativo para a mineração de dados, por sua vez, a mineração de dados pode representar um guia automático que acelera em muito a procura por insigths nos dados OLAP. Esta dissertação investiga a integração sinérgica entre essas duas tecnologias, que recentemente passou a ser chamada de OLAM (On-Line Analytical Mining), com a finalidade de minerar desvios em um data warehouse multidimensional e de multi-granularidade. Construído a partir de um trabalho teórico previamente realizado neste tema, a dissertação lida com aspectos práticos da integração de alguns algoritmos propostos para mineração de exceções em dados OLAP dentro de JODI/OCCOM: um sistema cliente-servidor, de código aberto, independente de plataforma, multi-usuário e com uma interface gráfica amigável. O sistema é o primeiro do gênero e pode ser prontamente incorporado a ambientes de descoberta de conhecimento baseados em Java ou orientação a objetos. A combinação de JODI/OCCOM com o previamente desenvolvido gerador de hipertexto em linguagem natural HYSSOP, permite a geração automática de resumos, no formato de páginas web, de células de dados que são estatisticamente consideradas exceções em um contexto multidimensional e multi-granular de um data warehouse OLAP
53

Řešení BI a DWH v prostředí Oracle / BI and DWH Solution on Oracle Platform

Podbraný, Petr January 2009 (has links)
The main objective of the thesis is to propose complex business intelligence and data warehouse architecture on the Oracle platform respecting current best-practice and recommendations. Part of the thesis is focused on selecting the right components for data warehousing and business intelligence, as well as on evaluating their suitability within the proposed business intelligence architecture and incorporating of these components into the complex business intelligence architecture. My thesis consists of four parts. The first part is dedicated to more general description of business intelligence and data warehousing subject and it represents entry level specification of BI on the Oracle platform. The second part describes individual software and hardware components of business intelligence solution based on the Oracle platform. In the third part I am proposing a complex business intelligence solution, based on particular Oracle components. There I also compare some individual components, determine their suitability in respect of proposed architecture and introduce some other recommendations. The last part of my thesis briefly describes economic and non-economic benefits of business intelligence solution based on the Oracle platform.
54

Graph Data Warehousing: Database and Multidimensional Modeling of Graphs

Ghrab, Amine 29 October 2020 (has links) (PDF)
Over the last decade, we have witnessed the emergence of networks in a wide spectrum of application domains, ranging from social and information networks to biological and transportation networks.Graphs provide a solid theoretical foundation for modeling complex networks and revealing valuable insights from both the network structure and the data embedded within its entities.As the business and social environments are getting increasingly complex and interconnected, graphs became a widespread abstraction at the core of the information infrastructure supporting those environments. Modern information systems consist of a large number of sophisticated and interacting business entities that naturally form graphs. In particular, integrating graphs into data warehouse systems received a lot of interest from both academia and industry. Indeed, data warehouses are the central enterprise's information repository and are critical for proper decision support and future planning. Graph warehousing is emerging as the field that extends current information systems with graph management and analytics capabilities. Many approaches were proposed to address the graph data warehousing challenge. These efforts laid the foundation for multidimensional modeling and analysis of graphs. However, most of the proposed approaches partially tackle the graph warehousing problem by being restricted to simple abstractions such as homogeneous graphs or ignoring important topics such as multidimensional integrity constraints and dimension hierarchies.In this dissertation, we conduct a systematic study of the graph data warehousing topic and address the key challenges of database and multidimensional modeling of graphs.We first propose GRAD, a new graph database model tailored for graph warehousing and OLAP analytics. GRAD aims to provide analysts with a set of simple, well-defined, and adaptable conceptual components to support rich semantics and perform complex analysis on graphs.Then, we define the multidimensional concepts for heterogeneous attributed graphs and highlight the new types of measures that could be derived. We project this multidimensional model on property graphs and explore how to extract the candidate multidimensional concepts and build graph cubes. Then, we extend the multidimensional model by integrating GRAD and show how GRAD facilitates multidimensional graph modeling, and enables supporting dimension hierarchies and building new types of OLAP cubes on graphs.Afterward, we present TopoGraph, a graph data warehousing framework that extends current graph warehousing models with new types of cubes and queries combining graph-oriented and OLAP querying. TopoGraph goes beyond traditional OLAP cubes, which process value-based grouping of tables, by considering also the topological properties of the graph elements. And it goes beyond current graph warehousing models by proposing new types of graph cubes. These cubes embed a rich repertoire of measures that could be represented with numerical values, with entire graphs, or as a combination of them.Finally, we propose an architecture of the graph data warehouse and describe its main building blocks and the remaining gaps. The various components of the graph warehousing framework can be effectively leveraged as a foundation for designing and building industry-grade graph data warehouses.We believe that our research in this thesis brings us a step closer towards a better understanding of graph warehousing. Yet, the models and framework we proposed are the tip of the iceberg. The marriage of graph and warehousing technologies will bring many exciting research opportunities, which we briefly discuss at the end of the thesis. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
55

Design and Implementation of Data Analysis Components

Shiao, Grace 18 May 2006 (has links)
No description available.
56

Efficient Querying and Analytics of Semantic Web Data / Interrogation et Analyse Efficiente des Données du Web Sémantique

Roatis, Alexandra 22 September 2014 (has links)
L'utilité et la pertinence des données se trouvent dans l'information qui peut en être extraite.Le taux élevé de publication des données et leur complexité accrue, par exemple dans le cas des données du Web sémantique autodescriptives et hétérogènes, motivent l'intérêt de techniques efficaces pour la manipulation de données.Dans cette thèse, nous utilisons la technologie mature de gestion de données relationnelles pour l'interrogation des données du Web sémantique.La première partie se concentre sur l'apport de réponse aux requêtes sur les données soumises à des contraintes RDFS, stockées dans un système de gestion de données relationnelles. L'information implicite, résultant du raisonnement RDF est nécessaire pour répondre correctement à ces requêtes.Nous introduisons le fragment des bases de données RDF, allant au-delà de l'expressivité des fragments étudiés précédemment.Nous élaborons de nouvelles techniques pour répondre aux requêtes dans ce fragment, en étendant deux approches connues de manipulation de données sémantiques RDF, notamment par saturation de graphes et reformulation de requêtes.En particulier, nous considérons les mises à jour de graphe au sein de chaque approche et proposerons un procédé incrémental de maintenance de saturation. Nous étudions expérimentalement les performances de nos techniques, pouvant être déployées au-dessus de tout moteur de gestion de données relationnelles.La deuxième partie de cette thèse considère les nouvelles exigences pour les outils et méthodes d'analyse de données, issues de l'évolution du Web sémantique.Nous revisitons intégralement les concepts et les outils pour l'analyse de données, dans le contexte de RDF.Nous proposons le premier cadre formel pour l'analyse d'entrepôts RDF. Notamment, nous définissons des schémas analytiques adaptés aux graphes RDF hétérogènes à sémantique riche, des requêtes analytiques qui (au-delà de cubes relationnels) permettent l'interrogation flexible des données et schémas, ainsi que des opérations d'agrégation puissantes de type OLAP. Des expériences sur une plateforme entièrement implémentée démontrent l'intérêt pratique de notre approche. / The utility and relevance of data lie in the information that can be extracted from it.The high rate of data publication and its increased complexity, for instance the heterogeneous, self-describing Semantic Web data, motivate the interest in efficient techniques for data manipulation.In this thesis we leverage mature relational data management technology for querying Semantic Web data.The first part focuses on query answering over data subject to RDFS constraints, stored in relational data management systems. The implicit information resulting from RDF reasoning is required to correctly answer such queries. We introduce the database fragment of RDF, going beyond the expressive power of previously studied fragments. We devise novel techniques for answering Basic Graph Pattern queries within this fragment, exploring the two established approaches for handling RDF semantics, namely graph saturation and query reformulation. In particular, we consider graph updates within each approach and propose a method for incrementally maintaining the saturation. We experimentally study the performance trade-offs of our techniques, which can be deployed on top of any relational data management engine.The second part of this thesis considers the new requirements for data analytics tools and methods emerging from the development of the Semantic Web. We fully redesign, from the bottom up, core data analytics concepts and tools in the context of RDF data. We propose the first complete formal framework for warehouse-style RDF analytics. Notably, we define analytical schemas tailored to heterogeneous, semantic-rich RDF graphs, analytical queries which (beyond relational cubes) allow flexible querying of the data and the schema as well as powerful aggregation and OLAP-style operations. Experiments on a fully-implemented platform demonstrate the practical interest of our approach.
57

GESTÃO DO PROCESSO DE RELIGAÇÃO DE ÁGUA TRATADA NA CIDADE DE GOIÂNIA, UTILIZANDO OLAP E DATA WAREHOUSE. / MANAGEMENT REWIRING PROCESS TREATED WATER IN THE CITY OF GOIÂNIA, USING OLAP AND DATA WAREHOUSE.

Ferreira, André Luiz Nascente 08 March 2013 (has links)
Made available in DSpace on 2016-08-10T10:40:16Z (GMT). No. of bitstreams: 1 ANDRE LUIZ NASCENTE FERREIRA.pdf: 1645123 bytes, checksum: b3c5d896af5d93a8c4c05a04afea9227 (MD5) Previous issue date: 2013-03-08 / Through sanitation, economic, social and public health problems are minimized resulting in a considerable improvement in quality of life. For companies in this line of work can improve their results by establishing quality in the managment of their internal processes. There is a specific process of these companies dealing with Reconnections of Treated Water, which usually occur due to cutting of their supply. This work discusses the concepts of Information Technology (IT) in the intent to use them to improve the management of this process, covering specific theories of Software Engineering, Data Warehouse and OLAP. Overall, the work presents the development and implementation of an OLAP tool to assist in specific control over the time spent in performing the Reconnections of Treated Water in the city of Goiânia, state of Goiás, and analyzes the results of this tool, comparing scenarios before and after its implementation of the same. According to the analysis of the results, we observed improvements on the times of reconnections after the implementation of the developed tool. / Através do saneamento, problemas econômicos, sociais e de saúde pública são amenizados resultando em uma melhoria considerável na qualidade de vida da população. Para que empresas desse ramo de atividade possam desempenhar cada vez melhor suas atribuições é necessário estabelecer qualidade na gestão dos seus processos internos. Existe um processo específico dessas empresas que são indispensáveis para a manutenção da qualidade de vida e disponibilização do saneamento para a população, que se refere às Religações de Água Tratada, que geralmente ocorrem devido ao corte do seu abastecimento. Este trabalho aborda conceitos de Tecnologia da Informação (TI) na intenção de utilizá-los para melhorar a gestão deste processo, abrangendo teorias específicas de Engenharia de Software, OLAP e Data Warehouse. De maneira geral, o trabalho apresenta o desenvolvimento e implantação de uma ferramenta OLAP específica para auxiliar no controle sobre o tempo gasto na execução das Religações de Água Tratada na cidade de Goiânia, no estado de Goiás, e analisa os resultados obtidos por essa ferramenta, comparando cenários antes e após a implantação da mesma. De acordo com a análise dos resultados obtidos, pôde-se observar melhorias em relação ao tempo de execução das religações após a implantação da ferramenta desenvolvida.
58

Uma análise da aplicabilidade do Data Warehouse no comércio eletrônico, enfatizando o CRM analítico / An analysis of applicability of Data Warehouse in electronic commerce, with emphasis on the analytical CRM

Neves, Fabricia Vancim Frachone 22 November 2001 (has links)
Atualmente, um dos grandes desafios enfrentados pelas empresas que operam no comércio eletrônico é de garantir a fidelidade de seus clientes. Devido a este fato, as empresas têm se preocupado cada vez mais na utilização de uma ferramenta capaz de integrar os dados distribuídos em banco de dados operacionais, para transformar suas informações em diferencial competitivo. Desta forma, a aplicabilidade da ferramenta Data Warehouse no comércio eletrônico, juntamente com a estratégia do Customer Relationship Management (CRM), surge como um elemento central da empresa focada no cliente, pois é capaz de fornecer informações competitivas e essenciais aos responsáveis pelas decisões estratégicas. Assim, através da ferramenta Data Warehouse sustentada pela estratégia de CRM, toda a \"sequência de cliques\" realizada pelos clientes do comércio eletrônico é armazenada historicamente, possibilitando a retenção destes com a empresa. Portanto o objetivo do presente trabalho é analisar a aplicabilidade do Data Warehouse no comércio eletrônico, visando o CRM analítico. O trabalho contribui também para mostrar às empresas que a integração entre tecnologia de informação (Data Warehouse) e marketing (CRM) em um ambiente Web oferece diferentes oportunidades de coleta de dados a respeito dos clientes, promovendo desta forma a personalização de produtos e serviços, garantindo maior lealdade destes com a empresa e, conseqüentemente, maior lucratividade. / Currently, one of the greatest challenges faced by companies that operate in the electronic commerce is to guarantee their customers\' fidelity. Due to this fact, these companies have been considering the employment of tools capable of integrating distributed data onto operational databases in order to transform information into a competitive and distinguishing asset. Thus, the applicability of Data Warehouse tools in Electronic Commerce, together with the strategy of Customer Relationship Management (CRM), appear as a key element for customer-oriented companies, since they are capable of supplying the ones responsible for strategic decisions with competitive and essential information . Hence, through Data Warehouse tools supported by the CRM strategy, all the \"clickstream\" carried out by the customers in electronic commerce, can be historically stored, making it possible, through further analyses, to identify potential customers, as well as keeping them with the company. The objective of the present research is to consider the applicability of Data Warehouse in Electronic Commerce, aiming at the analytical CRM. The research also shows companies that Data Warehouse, when combined with the CRM in a Web environment, offers alternative means for customer-related data collection, thus, providing the customization of products and services, reassuring clients\' loyalty to the company and, consequently, greater profits.
59

Korporatyvinės įmonės duomenų saugyklos modelio sudarymas ir tyrimas / Corporative enterprise data storage model development and analysis

Buškauskaitė, Laima 16 August 2007 (has links)
Šiuolaikinis verslas naudoja didžiulį duomenų kiekį, tačiau įmonėje šie duomenys taip ir liks tik balastas, jeigu nesugebėsime jų išanalizuoti ir tinkamai interpretuoti. Tik duomenų analizė, naudojant specialius programinius įrankius, iš „žalios“ informacijos leis atrinkti naudingus grūdelius ir perdirbti juos į vertingas žinias, kuriuos taps teisingų verslo sprendimų pagrindu. Naudojant OLAP (On-line Analytical Processing) priemones, sukuriama duomenų saugykla, kuri leidžia greitai, bei patogiai analizuoti duomenis. Taip pat šis produktas leidžia analizuoti duomenis, kurie yra gauti iš skirtingų verslo valdymo sistemų, kurios yra naudojamos skirtinguose geografiškai nutolusiuose įmonės padaliniuose. Kas tai - OLAP? Šis terminas naudojamas norint apibūdinti programinius produktus, kurie leidžia visapusiškai analizuoti verslo informaciją realiuoju laiku. Sąveika su tokiomis sistemomis vyksta interaktyviai, atsakymai net į daug skaičiavimų reikalaujančias užklausas gaunami per kelias sekundes. OLAP sistemos yra vienas iš daugelio verslo analitikos (Business Intelligence) grupei priskiriamų produktų. Pasaulyje yra sukurta nemažai sistemų, priklausančių šiai produktų grupei: nuo paprasčiausių MS SQL OLAP kubų iki tokių sistemų kaip „Business Objects“, „Cognos“, Corporate Planner“, „Microstrategy“. / Business use a big amount of data in our days, that data become just ballast if we incapasity to sift it. Just data mining using special software, transform data in to information. That information become reason of correct business rule. OLAP software make data warehouse, that help analyse data quick and convenient, even data are from diferent environment. OLAP technology uses measures and tools to transform and store information, create and execute queries, and generate graphic user interface. Because OLAP systems are becoming more affordable companies have to face the issue of how to choose the best product and then design and implement OLAP systems according to their business requirements. This research aims at comparing different OLAP systems at functional and data structure level in order to design and implement an OLAP system. What is OLAP? OLAP is On-Line Analitical Procesing. This term use to describe software products, thats have possibility to analyse information in real time. OLAP systems are one from a lot of Business Intelligence group products. In the worl are a lot products which are the part of this group: from MS SQL OLAP cubes to „Business Objects“, „Cognos“, Corporate Planner“ and „Microstrategy“ systems. The purpose of this work is to create and analyze the OLAP data warehouse models of large corporations.
60

Intelektualių veslo sistemų modeliavimas / Business intelligence system modeling

Maknytė, Lina 20 June 2012 (has links)
Pirmoje darbo dalyje yra nagrinėjamos organizacijų ekonominės problemos ir ieškoma kaip tos problemos gali būti pašalintos. Išanalizavus kokios gali būti problemos pradėta analizuoti intelektualios verslo sistemos, kaip vienas geriausių sprendimo būdų. Darbe taip pat nagrinėjama intelektualių sistemų apibrėţimas, paaiškinama architektūra ir išskiriama kuo BIS skiriasi nuo kitų informacinių valdymo sistemų. Antroje dalyje yra nagrinėjamos pagrindinės problemos susijusios su intelektualiomis verslo sistemomis ir jų diegimu organizacijose. Analizuojama šiuo metu labiausiai paplitusios technologijos OLAP ir QlikView, kurios naudoja atmintį duomenų krovimui. Analizuojami jų privalumai ir trūkumai taip pat skirtumai. Trečioje dalyje analizuojama intelektualių verslo sistemų projektavimo metodika. Keliami klausimai ką reikia daryti, kad gautume sistemą atitinkančią organizacijos lūkesčius. Analizuojama projektavimo struktūra naudojant UML diagramas, taip pat elementų svarba pačioje sistemoje. Ketvirtoje dalyje yra projektuojami intelektualių verslo sistemų modeliai, kurie yra tik pavyzdiniai, kurie parodo kokie privalumai ir kaip veikia intelektualios verslo sistemos vykdant pirkimo funkcijas panaudojant marketinginius principus. / In the first part of master thesis analyzing the main problems, which are in organization management. The main purpose of this part is to find a solution how can resolve this problems. Business intelligence systems are the best solution. In this part analyzing business intelligence systems definition, architecture and also analyze what is different in business intelligence systems comparing with other informatics management systems. The second part of work analyzes business intelligence problems related with creation, developing and using BIS. Analyze the most popular tools like OALP and QlikView. Compare the OLAP and QlikView. Analyze QlikView like data loading from memory. Explain the advantages and disadvantages of QlikView and OLAP. The third part analyzes designing and planning of business intelligence systems. Analyze what is the main purpose to create good system which will be useful in organizations. In this part also analyze the UML modems for BIS. In the last part is presenting solutions for problems which was analyzed in the second part. The examples are created using UML diagrams.

Page generated in 0.0572 seconds