• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 114
  • 88
  • 69
  • 37
  • 12
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 493
  • 493
  • 115
  • 108
  • 99
  • 81
  • 74
  • 73
  • 69
  • 69
  • 63
  • 55
  • 55
  • 53
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Processo de KDD para auxílio à reconfiguração de ambientes virtualizados

Winck, Ana Trindade January 2007 (has links)
Made available in DSpace on 2013-08-07T18:42:21Z (GMT). No. of bitstreams: 1 000397762-Texto+Completo-0.pdf: 1330898 bytes, checksum: 5d70750d721e0c762826c9afce7b0753 (MD5) Previous issue date: 2007 / Xen is a paravirtualizer that allows the simultaneous execution of several virtual machines (VM), each with its own operating system. Inputs for these VMs occur at different resource levels. When the aim is to improve Xen performance, it is interesting to assess the best resource allocation for a given Xen machine when different VMs are executed and the respective parameters adopted. This study puts forward a complete process of knowledge discovering in databases (KDD process). The aim of the process is to (i) capture VM development data, (ii) organize these data as an analytical model, and (iii) implement data mining techniques to suggest new parameters. First, VM development data are obtained by benchmarking each operating system. These data are stored in a data warehouse specially modeled so as to store capture records of benchmark metrics. The data stored are conveniently prepared to be used by data mining algorithms. The predictive models generated are enriched with high-level reconfiguration instructions. These models aim at suggesting the best set of configuration parameters to modify the environment and reach an overall gain in performance, for a given configuration in use. The process proposed was initially implemented and tested in a significant set of benchmarking executions, proving the quality and range of the solution. / Xen é um paravirtualizador que permite a execução simultânea de diversas máquinas virtuais (VM), cada uma com seu próprio sistema operacional. O consumo dessas VMs se dá em diferentes níveis de recursos. Com o objetivo de melhorar a performance do Xen, é interessante verificar qual a melhor alocação de recursos para uma dada máquina Xen, quando várias VMs são executadas, e quais são os respectivos parâmetros. Para auxiliar a eventual reconfiguração de parâmetros, este trabalho propõe um processo completo de descoberta de conhecimento em banco de dados (processo de KDD) para capturar dados de desempenho das VMs, organizá-los em um modelo analítico e aplicar técnicas de mineração para sugerir novos parâmetros. Inicialmente são obtidos dados de desempenho de cada VM, onde a estratégia empregada é a execução de benchmarks sobre cada sistema operacional. Esses dados são armazenados em um data warehouse propriamente modelado para armazenar registros de captura de métricas de benchmarks. Os dados armazenados são convenientemente preparados para serem utilizados por algoritmos de mineração de dados. Os modelos preditivos gerados podem, então, ser enriquecidos com instruções em alto nível de reconfigurações. Tais modelos buscam sugerir, dada uma configuração vigente, qual o melhor conjunto de parâmetros de configuração para modificar o ambiente, e alcançar um ganho global de desempenho. O processo proposto foi implementado e testado com um conjunto significativo de execuções de benchmarks, o que mostrou a qualidade e abrangência da solução.
62

SPDW-Miner: um método para a execução de processos de descoberta de conhecimento em bases de dados de projetos de software

Figueira, Fernanda Vieira January 2008 (has links)
Made available in DSpace on 2013-08-07T18:42:36Z (GMT). No. of bitstreams: 1 000417649-Texto+Completo-0.pdf: 1251849 bytes, checksum: ad607557163d02817ddb83aa46013681 (MD5) Previous issue date: 2008 / Software organizations aim at improving their Software Development Process (SDP) targeting the quality assessment of their processes and products. They adopt software maturity models to achieve this. Maturity models define quality measuring should be done through a metrics program. The defined metrics must be collected and stored properly, maintaining the history of the organizational quality data. However, measuring alone is not enough. Stored data must be useful to support SDP quality maintenance. To do that, maturity models suggest the use of statistical and analytical techniques. The goal is to make feasible the quantitative understanding of the metrics. Data mining techniques are useful in this scenario as an approach able to improve analytical and predictive capabilities on estimations and performance of SDP. This work introduces a method of performing KDD process, named SPDW-Miner, oriented to software metrics prediction. It is proposed a KDD process that incorporates the SPDW+ data-warehousing environment. Such method is composed by a set of steps that guide users to apply the whole KDD process. In special, instead of considering DW as an intermediate step, SPDW-Miner adopts it as a reference to rule its execution. It is specified all KDD process steps: defining the mining goal; extracting a preparing data; data mining and results optimization. The contribution of this work is the establishing of a KDD process, in a proper, user-comfortable detail level. It enables organizational users can to adopt it as a reference guide to knowledge discovery. / As organizações de software buscam, cada vez mais, aprimorar seu Processo de Desenvolvimento de Software (PDS), com o intuito de garantir a qualidade dos seus processos e produtos. Para tanto, elas adotam modelos de maturidade de software. Esses modelos estabelecem que a mensuração da qualidade seja realizada através de um programa de métricas (PM). As métricas definidas devem ser coletadas e armazenadas, permitindo manter um histórico organizacional da qualidade. Contudo, apenas mensurar não é o bastante. As informações armazenadas devem ser úteis para apoiar na manutenção da qualidade do PDS. Para tanto, os níveis mais altos dos modelos de maturidade sugerem que técnicas estatísticas e analíticas sejam utilizadas, com a finalidade de estabelecer o entendimento quantitativo sobre as métricas. As técnicas de mineração de dados entram neste contexto como uma abordagem capaz de aumentar a capacidade analítica e preditiva sobre as estimativas e o desempenho quantitativo do PDS. Este trabalho propõe um método para a execução do processo de KDD (Knowledge Discovery in Database), denominado de SPDW-Miner, voltado para a predição de métricas de software. Para tanto, propõe um processo de KDD que incorpora o ambiente de data warehousing, denominado SPDW+. O método é composto por uma série de etapas que guiam os usuários para o desenvolvimento de todo o processo de KDD. Em especial, em vez de considerar o DW (data warehouse) como um passo intermediário deste processo, o toma como ponto de referência para a sua execução. São especificadas todas as etapas que compõem o processo de KDD, desde o estabelecimento do objetivo de mineração; a extração e preparação dos dados; a mineração até a otimização dos resultados. A contribuição está em estabelecer um processo de KDD em um nível de detalhamento bastante confortável, permitindo que os usuários organizacionais possam adotá-lo como um manual de referência para a descoberta de conhecimento.
63

Uma abordagem orientada a serviços para captura de métricas de processo de desenvolvimento de software

Cunha, Virginia Silva da January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:22Z (GMT). No. of bitstreams: 1 000400971-Texto+Completo-0.pdf: 3124182 bytes, checksum: 9b0e8cc34e680328d6c7483573e46652 (MD5) Previous issue date: 2006 / Software organizations work with several software projects that differ in terms of both the management tools used and the way tracking metrics are stored and controlled. Thus, the lack of a central data repository poses difficulties for the traking of Software Development Processes (SDPs) in these organizations. One of the crucial steps of the Knowledge Discovery in Databases Process is the process of Extraction, Transformation and Load (ETL). ETL aims to transform the raw data extracted from different fonts into consistent, reliable information. Considering the SDPs specificities, this study was carried out in the real computional environment. It was observed that the tools used range from spreadsheets (e. g. MS Excel) to control tools for the execution of project activities (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Different SDP models with a distinct life cycle for each project are also used, which result in completely different ways to register these projects even when using the same tool. Another problem is that each of those tools has an own data model that does not follow defined data representation standards. Therefore, the extraction of those data becomes a challenging goal to achieve, raising the complexity of ETL processes. The model proposed in this study introduces a two-integrated approach to deal with the problem: 1) a non intrusive way of data extraction, taking several types of heterogeneities into account, 2) the transformation and integration of these data, providing a unified and quantified organizational view of the projects. These aspects are treated using a serviceoriented architecture. This service oriented architecture tries to deal with several types of heterogeneity, from both the technical (e. g. different tools) and organizational standpoint (e. g. Organization’s Standard Software Process Standard specializations that result in distinct ways to develop and register project facts). This heterogeneity is conveniently treated through services that work as wrappers of the different types of extractors and through the support of a distributed development environment. For the evaluation of the proposed approach, three examples that consider all heterogeneity issues (different types of projects, different life cycles, different management models and several management support tools) were developed. / As organizações de software trabalham com diversos projetos de software que se diferenciam tanto pelas ferramentas de gestão utilizadas quanto pela forma que armazenam e controlam suas métricas de acompanhamento. Sendo assim, a inexistência de um repositório centralizado de dados dificulta o acompanhamento dos Processos de Desenvolvimento de Software (PDSs) dessas organizações. Uma das etapas mais cruciais do Processo de Descoberta de Conhecimento em Banco de Dados é o processo de Extração, Transformação e Carga (ETC), pois este tem como finalidade a transformação dos dados brutos, extraídos de diversas fontes, em informações consistentes e de qualidade. Considerando que os PDSs possuem suas especificidades, realizou-se um estudo em um ambiente real e verificou-se que, em termos de ferramentas, são utilizadas desde planilhas eletrônicas (e. g. MS Excel) até ferramentas para controle da execução de atividades de projetos (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Detectou-se ainda o uso de diferentes modelos de PDS, com ciclos de vida variados para projetos distintos, que se traduzem em formas totalmente diversas de registrar estes projetos, ainda que na mesma ferramenta. Outro problema é que cada uma dessas ferramentas possui um modelo de dados próprio, que não segue padronizações estabelecidas de representação de dados, dificultando assim a extração desses dados. Por conseqüência, o grau de complexidade do processo de ETC, para esta organização, é muito alto.O modelo proposto neste trabalho tem por mérito tratar, de forma integrada, dois aspectos: 1) a coleta de dados dos projetos de forma não intrusiva, levando em consideração vários tipos de heterogeneidade, 2) a transformação e integração desses dados, proporcionando uma visão organizacional unificada e quantitativa dos projetos. Esses aspectos são tratados utilizando uma arquitetura orientada a serviços. A abordagem orientada a serviços busca lidar com vários tipos de heterogeneidade, tanto do ponto de vista organizacional (e. g. especializações do Processo de Software Padrão da Organização (OSSP – Organization’s Standard Software Process) que resultam em formas distintas de desenvolvimento e registro de fatos sobre projetos), quanto do ponto de vista técnico (e. g. diferentes ferramentas). Essa heterogeneidade é convenientemente tratada através de serviços que atuam como wrappers dos diferentes tipos de extratores, que suporta um ambiente distribuído de desenvolvimento. Para avaliação da abordagem proposta, foram desenvolvidos três exemplos, que consideram todas essas questões de heterogeneidade: diferentes tipos de projetos, diferentes ciclos de vida, diferentes modelos de gerenciamento e diversas ferramentas de apoio ao acompanhamento.
64

Um plano de métricas para monitoramento de projetos scrum

Spies, Eduardo Henrique January 2013 (has links)
Made available in DSpace on 2014-01-28T01:01:20Z (GMT). No. of bitstreams: 1 000453323-Texto+Completo-0.pdf: 1666131 bytes, checksum: b3d0384201e24752155d711856753450 (MD5) Previous issue date: 2013 / Agile methods have earned their space both in industry and in academia, being increasingly used. With the focus on frequent returns to customers, these methods have difficulties to gain control and maintain efficient communication, especially in larger projects with several collaborators. Software engineering techniques have proved of great value to increase predictability and provide more discipline to this kind of projects. In this paper we present a metrics program for SCRUM and an extension of a Data Warehousing environment for monitoring projects. Thus, we provide a consistent repository that can be used as a historical reference of projects and for exploring metrics in different dimensions, easing control over all aspects of the progress of a project. / Métodos ágeis já consolidaram o seu espaço tanto na indústria como na academia, sendo cada vez mais utilizados. Com o foco em retornos frequentes aos clientes, estes métodos têm dificuldades para obter controle e manter comunicação eficiente, especialmente em projetos de maior porte e com grande quantidade de pessoas envolvidas. Técnicas de engenharia de software têm se mostrado de grande valia para aumentar a previsibilidade e dar mais disciplina deste tipo de projetos. Neste trabalho é apresentado um programa de métricas para SCRUM e uma extensão de um ambiente de Data Warehousing para o monitoramento de projetos. Desta forma, é provido um repositório consistente que pode ser utilizado como referencial histórico de projetos e para a visualização de métricas em diferentes dimensões, facilitando o controle sobre todos os aspectos do progresso de um projeto.
65

CSB-Index: um índice espacial para data warehouses geográficos na nuvem

Mateus, Rodrigo Costa 05 September 2013 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-12T14:43:13Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Rodrigo Costa Mateus.pdf: 3391149 bytes, checksum: 05f64e90f88333325241ea7d0600e6e4 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:58:59Z (GMT) No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Rodrigo Costa Mateus.pdf: 3391149 bytes, checksum: 05f64e90f88333325241ea7d0600e6e4 (MD5) / Made available in DSpace on 2015-03-13T12:58:59Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Rodrigo Costa Mateus.pdf: 3391149 bytes, checksum: 05f64e90f88333325241ea7d0600e6e4 (MD5) Previous issue date: 2013-09-05 / Plataformas de computação em nuvem proveem escalabilidade, elasticidade e tolerância a falhas aos sistemas computacionais. Além disso, elas foram projetadas para lidar com grande volume de dados utilizando recursos computacionais quase ilimitados. Data Warehouse Geográfico (DWG) se tornou uma das principais tecnologias de suporte à decisão, pois promove a integração do Data Warehouse convencionais, das ferramentas On-Line Analytical Processing e dos Sistemas de Informações Geográficas. Por esse motivo, um DWG viabiliza a análise no contexto espacial aliada à execução de consultas multidimensionais envolvendo grande volume de dados. A combinação da computação em nuvem e dos DWG traz consigo o desafio de prover análises de dados espaciais em um ambiente distribuído. Além disso, há a preocupação com o desempenho no processamento de consultas, que utilizam janelas de consultas espaciais ad-hoc e realizam várias junções entre as tabelas de dimensões e de fatos. Embora existam eficientes mecanismos para aumentar o desempenho do processamento de consultas em DWG, como as estruturas de indexação, elas se tornam impróprias aos DWG mantidos em nuvem porque estes mecanismos não lidam com a recuperação de dados em ambientes distribuídos. Nesta dissertação, propõe-se um novo índice para DWG mantidos em nuvem chamado CSB-Index (Cloud Spatial- Bitmap Index). O CSB-Index se baseia no SB-Index e permite a recuperação de dados mantidos em um ambiente distribuído, pois mantém em sua estrutura referências aos bancos de dados que compõe o DWG. Além disso, ele introduz o uso do Índice Bitmap de Junção aos DWG armazenados em nuvem, evitando o processamento das custosas operações de junção estrela. A viabilidade do CSB-Index foi comprovada por meio de testes experimentais de desempenho e escalabilidade. Comparações entre diferentes métodos de acesso indicaram que o CSB-Index diminuiu significativamente o tempo de resposta do processamento de consultas roll-up e drilldown relacionadas aos predicados espaciais “intersecta”, “está contido” e “contém”, possibilitando redução no tempo de processamento destas consultas de 58,2% até 99,65%. Também foi verificado que a escalabilidade dos dados e do número de máquinas que armazenam o DWG não afetam negativamente o desempenho do CSB-Index. Por fim, este trabalho também investigou o impacto do uso das federações no processamento das consultas SOLAP e comprovou que está técnica possibilita maior desempenho ao processamento destas consultas.
66

GEOMDQL: Uma Linguagem de Consulta geogr´afica e Multidimensional

da Silva, Joel 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:49:03Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Existem várias propostas na literatura visando a integração das funcionalidades e características pertinentes aos processamentos de dados analíticos (OLAP) e geográficos (SIG). O principal objetivo é prover um ambiente único, com capacidades de processamento geográfico e multidimensional, para dar suporte ao processo de tomada de decisões estratégicas. Este tipo de ambiente vem sendo referido atualmente como SOLAP. Entretanto, pelo fato destas duas tecnologias terem sido concebidas com propósitos distintos, a integração entre estes dois ambientes não é uma tarefa fácil, e mesmo com tantas pesquisas sendo desenvolvidas, temos alguns pontos em aberto que merecem ser explorados. A definição de modelos de dados para Data Warehouse Geográficos é um dos items desta integração. Outro ponto inserido neste contexto é a definição de funções de agregação para medidas geográficas. Estas funções são utilizadas no momento da especificação dos cubos de dados multidimensionais e geográficos. Conseqüentemente, também necessitamos de novos modelos de cubos de dados que possibilitem a associação de geometrias aos fatos e aos membros dos níveis. Uma das partes mais importantes desse processo de integração é a consulta aos dados. Porém, a maioria das abordagens que almejam esta integração de processamento, não dispõe de uma linguagem de consulta que possibilite a utilização simultânea, tanto de operadores multidimensionais como espaciais. É neste contexto que se insere esta tese, na qual apresentamos: i) um modelo formal para definição de DWG; ii) um conjunto de funções de agregação para medidas geográficas; iii) um modelo formal para cubos de dados chamado GeoMDCube; e iv) uma linguagem de consulta geográfica-multidimensional denominada GeoMDQL (Geographic Multidimensional Query Language). GeoMDQL estende e integra, em uma única sintaxe, os principais operadores multidimensionais e espaciais presentes na maioria das ferramentas e em ambientes disponíveis atualmente para processamento multidimensional e geográfico. GeoMDQL é baseada em padrões bem estabelecidos como ( MDX Multidimensional Expressions) e OGC Simple Features for SQL. As idéias propostas foram aplicadas na prática, por meio da implementação de uma arquitetura SOLAP chamada Golapware e o desenvolvimento de estudo de caso baseado em dados de aplicações reais. Dessa forma, foi possível demonstrar a utilização dos modelos, das funções e da linguagem de consulta e operadores SOLAP discutidos nesta tese
67

Um processo para tomada de decisão apoiado em data warehouse - um estudo de caso no Estaleiro Atlântico Sul

VIEIRA, Ines Beltrão Gama 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:01Z (GMT). No. of bitstreams: 2 arquivo1896_1.pdf: 1693335 bytes, checksum: 86af81558f5020ac2630511c928a5ca1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Apesar da utilização de sistemas de gestão integrada (ERP) e um alto nível de informatização nas indústrias de grande porte, a maioria delas enfrenta dificuldade na geração de informação útil à tomada de decisão. A falta de instrumentos adequados para tratar os dados produzidos de forma organizada e com qualidade leva os gestores a desenvolverem formas alternativas de geração da informação através da utilização de planilhas eletrônicas. Com o aumento do volume de informações, o processo de manutenção e geração da informação acaba prejudicando a qualidade da informação gerada e conseqüentemente comprometendo o processo de tomada de decisão. Esta dissertação apresenta um processo de criação de um Data Warehouse (DW) para subsidiar os gestores de empresas, particularmente de grande porte, recentemente implantadas ou em implantação na obtenção de informações com qualidade e possibilitar a criação de cenários e tendências através de sistemas de suporte à decisão ou usando ferramentas OLAP a partir da utilização do Microsoft Excel. Considerando que as soluções de caráter puramente tecnológico têm limitações de efetividade, esta dissertação contempla ainda a análise e redefinição de processos organizacionais de geração e manutenção da informação, na implantação do DW. A proposta foi implementada em um caso real no setor financeiro de uma indústria de grande porte da área naval, em fase de implantação, o Estaleiro Atlântico Sul, localizado em Suape Pernambuco
68

The Business Value of Data Warehouses : Opportunities, Pitfalls and Future Directions

Strand, Matthias January 2000 (has links)
Organisations have spent billions of dollars (USD) on investments in data warehouses. Many have succeeded, but many have also failed. These failures are considered mostly to be of an organisational nature and not of a technological, as one might have expected. Due to the failures, organisations have problems to derive business value from their data warehouse investments. Obtaining business value from data warehouses is necessary, since the investment is of such a magnitude that it is clearly visible in the balance sheet. In order to investigate how the business value may be increased, we have conducted an extensive literature study, aimed at identifying opportunities and future directions, which may alleviate the problem of low return on investment. To balance the work, we have also identified pitfalls, which may hinder organisations to derive business value from their data warehouses. Based on the literature survey, we have identified and motivated possible research areas, which we consider relevant if organisations are to derive real business value from their data warehouses. These areas are: * Integrating data warehouses in knowledge management. * Data warehouses as a foundation for information data super stores. * Using data warehouses to predict the need for business change. * Aligning data warehouses and business processes. As the areas are rather broad, we have also included examples of more specific research problems, within each possible research area. Furthermore, we have given initial ideas regarding how to investigate those specific research problems.
69

Aplikace typu BI v podnikové praxi / BI applications in business use

Janošek, Tomáš January 2009 (has links)
This diploma thesis concerns about Business Intelligence area and its current usage in business practice. The main objective is to analyze the functionality of QlikView application, which represents so called "In memory analysis" products. This work`s output may serve as basis material for making qualified decision, whether QlikView is suitable for particular implementation, or not. Work is divided into two areas. First one is general functionality analysis of QlikView in comparison to MS BI Development Studio tools. The objective of this part is to determine strengths and weaknesses of the application in various situations. In the second part business task solution is demonstrated, using QlikView to turn business requirements into working application. The main benefit of this work is detailed analysis of alternative stream of Business Intelligence applications representative with an estimation of its current market potential.
70

Graph Data Warehousing: Database and Multidimensional Modeling of Graphs

Ghrab, Amine 29 October 2020 (has links) (PDF)
Over the last decade, we have witnessed the emergence of networks in a wide spectrum of application domains, ranging from social and information networks to biological and transportation networks.Graphs provide a solid theoretical foundation for modeling complex networks and revealing valuable insights from both the network structure and the data embedded within its entities.As the business and social environments are getting increasingly complex and interconnected, graphs became a widespread abstraction at the core of the information infrastructure supporting those environments. Modern information systems consist of a large number of sophisticated and interacting business entities that naturally form graphs. In particular, integrating graphs into data warehouse systems received a lot of interest from both academia and industry. Indeed, data warehouses are the central enterprise's information repository and are critical for proper decision support and future planning. Graph warehousing is emerging as the field that extends current information systems with graph management and analytics capabilities. Many approaches were proposed to address the graph data warehousing challenge. These efforts laid the foundation for multidimensional modeling and analysis of graphs. However, most of the proposed approaches partially tackle the graph warehousing problem by being restricted to simple abstractions such as homogeneous graphs or ignoring important topics such as multidimensional integrity constraints and dimension hierarchies.In this dissertation, we conduct a systematic study of the graph data warehousing topic and address the key challenges of database and multidimensional modeling of graphs.We first propose GRAD, a new graph database model tailored for graph warehousing and OLAP analytics. GRAD aims to provide analysts with a set of simple, well-defined, and adaptable conceptual components to support rich semantics and perform complex analysis on graphs.Then, we define the multidimensional concepts for heterogeneous attributed graphs and highlight the new types of measures that could be derived. We project this multidimensional model on property graphs and explore how to extract the candidate multidimensional concepts and build graph cubes. Then, we extend the multidimensional model by integrating GRAD and show how GRAD facilitates multidimensional graph modeling, and enables supporting dimension hierarchies and building new types of OLAP cubes on graphs.Afterward, we present TopoGraph, a graph data warehousing framework that extends current graph warehousing models with new types of cubes and queries combining graph-oriented and OLAP querying. TopoGraph goes beyond traditional OLAP cubes, which process value-based grouping of tables, by considering also the topological properties of the graph elements. And it goes beyond current graph warehousing models by proposing new types of graph cubes. These cubes embed a rich repertoire of measures that could be represented with numerical values, with entire graphs, or as a combination of them.Finally, we propose an architecture of the graph data warehouse and describe its main building blocks and the remaining gaps. The various components of the graph warehousing framework can be effectively leveraged as a foundation for designing and building industry-grade graph data warehouses.We believe that our research in this thesis brings us a step closer towards a better understanding of graph warehousing. Yet, the models and framework we proposed are the tip of the iceberg. The marriage of graph and warehousing technologies will bring many exciting research opportunities, which we briefly discuss at the end of the thesis. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished

Page generated in 0.0743 seconds