• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 58
  • 35
  • 26
  • 23
  • 11
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 274
  • 164
  • 100
  • 81
  • 74
  • 42
  • 38
  • 36
  • 36
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

OLAP-Analyse von Propagationsprozessen

Kozas, Anastasios. January 2005 (has links)
Stuttgart, Univ., Diplomarb., 2005.
12

Similarity-based recommendation of OLAP sessions / Recommandation de sessions OLAP, basé sur des mesures de similarités

Aligon, Julien 13 December 2013 (has links)
L’OLAP (On-Line Analytical Processing) est le paradigme principal pour accéder aux données multidimensionnelles dans les entrepôts de données. Pour obtenir une haute expressivité d’interrogation, malgré un petit effort de formulation de la requête, OLAP fournit un ensemble d’opérations (comme drill-down et slice-and-dice ) qui transforment une requête multidimensionnelle en une autre, de sorte que les requêtes OLAP sont normalement formulées sous la forme de séquences appelées Sessions OLAP. Lors d’une session OLAP l’utilisateur analyse les résultats d’une requête et, selon les données spécifiques qu’il voit, applique une seule opération afin de créer une nouvelle requête qui lui donnera une meilleure compréhension de l’information. Les séquences de requêtes qui en résultent sont fortement liées à l’utilisateur courant, le phénomène analysé, et les données. Alors qu’il est universellement reconnu que les outils OLAP ont un rôle clé dans l’exploration souple et efficace des cubes multidimensionnels dans les entrepôts de données, il est aussi communément admis que le nombre important d’agrégations et sélections possibles, qui peuvent être exploités sur des données, peut désorienter l’expérience utilisateur. / OLAP (On-Line Analytical Processing) is the main paradigm for accessing multidimensional data in data warehouses. To obtain high querying expressiveness despite a small query formulation effort, OLAP provides a set of operations (such as drill-down and slice-and-dice) that transform one multidimensional query into another, so that OLAP queries are normally formulated in the form of sequences called OLAP sessions. During an OLAP session the user analyzes the results of a query and, depending on the specific data she sees, applies one operation to determine a new query that will give her a better understanding of information. The resulting sequences of queries are strongly related to the issuing user, to the analyzed phenomenon, and to the current data. While it is universally recognized that OLAP tools have a key role in supporting flexible and effective exploration of multidimensional cubes in data warehouses, it is also commonly agreed that the huge number of possible aggregations and selections that can be operated on data may make the user experience disorientating.
13

Uma infra-estrutura para integração de modelos, esquemas e serviços multidimensionais e geográficos

do Nascimento Fidalgo, Robson January 2005 (has links)
Made available in DSpace on 2014-06-12T15:54:26Z (GMT). No. of bitstreams: 2 arquivo7144_1.pdf: 4881009 bytes, checksum: ca9aa1e466fda67be01809b51a0fc1d2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Suporte à decisão é um campo da Tecnologia da Informação que objetiva ajudar a entender o comportamento dos dados do negócio de uma organização. Data Warehouse (DW), On- Line Analytical Processing (OLAP) e Sistemas de Informações Geográficas (SIG) são ferramentas para prover suporte à tomada de decisão. Destas tecnologias, as duas primeiras se caracterizam por serem voltadas para processamento multidimensional, enquanto a última é uma categoria de software específica para processamento geográfico. A integração destas ferramentas permite que os SIG examinem geograficamente os dados das ferramentas de DW e OLAP, e por outro lado, possibilita que estas cruzem e investiguem os dados geográficos sob diferentes níveis de detalhes. Muitos trabalhos têm objetivado realizar processamento multidimensional e geográfico. Porém, a maioria destes aplica tecnologias que não são independentes de plataforma, não reusa o legado das ferramentas OLAP e SIG ou define estruturas/tipos de dados que não são disponibilizados pela maioria das ferramentas comerciais. Visando contribuir para a realização desta integração, este trabalho define a seguinte infraestrutura: uma arquitetura de software que favoreça o reuso do legado de OLAP e SIG e seja baseada no uso de DW Geográfico e metadados - Geographical Online Analytical Processing Architecture (GOLAPA); um arcabouço para guiar a definição do projeto de um esquema para um DW geográfico - Geographical Data Warehouse Framework (GeoDWFrame); um metamodelo para aplicações que objetivam realizar consultas analíticas e geográficas - Geographical Analytical Metamodel (GAM); um esquema abstrato que orienta, em alto nível, como pode ser feita a integração entre os metadados geográficos de GAM e os metadados multidimensionais do padrão OLAP de CWM - Geographical Multidimensional (GeoMD); um metamodelo que define como os metadados anteriores podem ser semanticamente integrados - Geographical Multidimensional Metamodel (GeoMDM); e por fim, um esquema XML para integrar e trocar dados e metadados multidimensionais e/ou geográficos que a priori estão em esquemas XML distintos - Geography Markup Language for Analysis (GMLA). Ressalta- se que esta infra-estrutura é baseada em especificações padrões e foi validada experimentalmente através do desenvolvimento de um estudo de caso que utiliza tecnologias abertas e extensíveis e é voltado para integração de serviços multidimensionais e geográficos na Web
14

Uma arquitetura de software para processamento analítico e semântico de dados

Ribeiro de Souza, Adriana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:07Z (GMT). No. of bitstreams: 2 arquivo2130_1.pdf: 2467414 bytes, checksum: 13314da66987a6c25fe1d16d9d5ccfe3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Atualmente as corporações buscam ferramentas para suporte à decisão que contemplem a semântica do seu negócio (i.e., suas terminologias e regras). Neste contexto, OLAP (OnLine Analytical Processing) e ontologia, de forma isolada, têm se destacado, respectivamente, como ferramentas para subsidiar o processo de tomada de decisão e o processamento semântico de dados. De forma simplificada pode-se dizer que as ferramentas OLAP são voltadas para realizar cruzamentos (i.e., análise multidimensional - e.g., vendas de produtos por cliente, fornecedor e tempo) e agregações de dados em diferentes níveis de detalhe (i.e., análise multinível - e.g., vendas de produtos por ano, semestre, trimestre e mês). Por sua vez, uma ontologia pode ser resumidamente definida como uma representação não ambígua de um vocabulário e de regras para um determinado domínio de negócio, permitindo que raciocínios possam ser feitos a partir da ontologia. Apesar da boa aceitação destas ferramentas, estas foram concebidas para propósitos diferentes e, por isso, originalmente, não permitem a realização de análises multidimensionais, multiníveis e que considerem, de forma dinâmica e escalável, a semântica do negócio (e.g., vendas de produtos por clientes especiais, grandes fornecedores em dias de feriado santo ou comercial). Visando dar uma contribuição para solucionar o problema em questão, este trabalho define uma arquitetura de software que permite a integração de ferramentas OLAP com Ontologias, bem como um metamodelo que proporciona o mapeamento entre essas tecnologias a fim de permitir que a semântica do negócio possa ser utilizada em consultas analíticas. Como prova de conceito, foi utilizado um protótipo implementado em Java, que faz uso do servidor OLAP Mondrian, do seu cliente JPivot para exibir os resultados das consultas, de uma ontologia que estende a ontologia temporal OWL-Time e do raciocinador Jena
15

Data Warehouse na prática : fundamentos e implantação / Date warehouse in practice: foundations and implementation

Ferreira, Rafael Gastão Coimbra January 2002 (has links)
Embora o conceito de Data Warehouse (doravante abreviado DW), em suas várias formas, continue atraindo interesse, muitos projetos de DW não estão gerando os benefícios esperados e muitos estão provando ser excessivamente caro de desenvolver e manter. O presente trabalho visa organizar os conceitos de DW através de uma revisão bibliográfica, discutindo seu real benefício e também de como perceber este benefício a um custo que é aceitável ao empreendimento. Em particular são analisadas metodologias que servirão de embasamento para a proposta de uma metodologia de projeto de DW, que será aplicada a um estudo de caso real para a Cia Zaffari, levando em conta critérios que são encontrados atualmente no desenvolvimento de um Data Warehouse, um subconjunto das quais será tratado no trabalho de dissertação. / Although the concept of Data Warehouse (DW), in its various forms, still attracting interest, many DW projects are not generating the benefits expected and many are proving to be too expensive to develop and to keep. This work organizes the concepts of DW through a literature review, discussing its real benefit and how to realize this benefit at a cost that is acceptable to the company. In particular methods are discussed to serve as a foundation for proposing a design methodology for DW, which will be applied to a real case study for the CIA Zaffari, taking into account criteria that are currently found in developing a data warehouse, a subset of which will be treated in the dissertation.
16

Data Warehouse na prática : fundamentos e implantação / Date warehouse in practice: foundations and implementation

Ferreira, Rafael Gastão Coimbra January 2002 (has links)
Embora o conceito de Data Warehouse (doravante abreviado DW), em suas várias formas, continue atraindo interesse, muitos projetos de DW não estão gerando os benefícios esperados e muitos estão provando ser excessivamente caro de desenvolver e manter. O presente trabalho visa organizar os conceitos de DW através de uma revisão bibliográfica, discutindo seu real benefício e também de como perceber este benefício a um custo que é aceitável ao empreendimento. Em particular são analisadas metodologias que servirão de embasamento para a proposta de uma metodologia de projeto de DW, que será aplicada a um estudo de caso real para a Cia Zaffari, levando em conta critérios que são encontrados atualmente no desenvolvimento de um Data Warehouse, um subconjunto das quais será tratado no trabalho de dissertação. / Although the concept of Data Warehouse (DW), in its various forms, still attracting interest, many DW projects are not generating the benefits expected and many are proving to be too expensive to develop and to keep. This work organizes the concepts of DW through a literature review, discussing its real benefit and how to realize this benefit at a cost that is acceptable to the company. In particular methods are discussed to serve as a foundation for proposing a design methodology for DW, which will be applied to a real case study for the CIA Zaffari, taking into account criteria that are currently found in developing a data warehouse, a subset of which will be treated in the dissertation.
17

Data Warehouse na prática : fundamentos e implantação / Date warehouse in practice: foundations and implementation

Ferreira, Rafael Gastão Coimbra January 2002 (has links)
Embora o conceito de Data Warehouse (doravante abreviado DW), em suas várias formas, continue atraindo interesse, muitos projetos de DW não estão gerando os benefícios esperados e muitos estão provando ser excessivamente caro de desenvolver e manter. O presente trabalho visa organizar os conceitos de DW através de uma revisão bibliográfica, discutindo seu real benefício e também de como perceber este benefício a um custo que é aceitável ao empreendimento. Em particular são analisadas metodologias que servirão de embasamento para a proposta de uma metodologia de projeto de DW, que será aplicada a um estudo de caso real para a Cia Zaffari, levando em conta critérios que são encontrados atualmente no desenvolvimento de um Data Warehouse, um subconjunto das quais será tratado no trabalho de dissertação. / Although the concept of Data Warehouse (DW), in its various forms, still attracting interest, many DW projects are not generating the benefits expected and many are proving to be too expensive to develop and to keep. This work organizes the concepts of DW through a literature review, discussing its real benefit and how to realize this benefit at a cost that is acceptable to the company. In particular methods are discussed to serve as a foundation for proposing a design methodology for DW, which will be applied to a real case study for the CIA Zaffari, taking into account criteria that are currently found in developing a data warehouse, a subset of which will be treated in the dissertation.
18

Conception et implémentation semi-automatique des entrepôts de données : application aux données écologiques / Semi-automatic conception and implementation of data warehouses : application to ecological data

Sautot, Lucile 09 October 2015 (has links)
Cette thèse traite de la conception semi-automatique d'entrepôts de données et des cubes OLAP associés pour l'analyse de données écologiques.Les sciences biologiques, notamment l'écologie et l'agronomie, génèrent des données qui nécessitent un effort de collecte important : plusieurs années sont souvent nécessaires pour obtenir un jeu de données complets. De plus, les objets et les phénomènes étudiés par ces sciences sont complexes et nécessite l'enregistrement de nombreux paramètres pour être appréhendés. Enfin, le recueil de données complexes sur un temps long a pour conséquence un risque accru d’inconsistance au sein de ces données. Ainsi, ces sciences génèrent des données nombreuses, hétérogènes, voir inconsistantes.Il est donc intéressant de proposer aux scientifiques travaillant dans les sciences du vivant des systèmes d'information capable de stocker et de restituer leurs données, en particulier quand celles ci présentent un volume important. Parmi les outils existants, les outils de l'informatique décisionnelle, notamment les systèmes d'analyse en ligne (On-Line Analytical processing : OLAP), ont particulièrement retenu notre attention, car il s'agit de processus d'analyse de données sur de larges collections de données historiques (c'est-à-dire un entrepôt de données) afin d'offrir un support à la prise de décision. L'informatique décisionnelle propose des outils qui permettent à leurs utilisateurs d'explorer de larges volumes de données, dans le but de découvrir des modèles et des connaissances au sein de ces données, et ainsi d'éventuellement confirmer leurs hypothèses.Cependant, les systèmes OLAP sont des systèmes d'information complexes dont la mise en place nécessite des compétences avancées en informatique décisionnelle. Ainsi, bien qu'ils aient des caractéristiques intéressantes pour gérer et analyser des données multidimensionnelles, leur complexité les rend difficilement accessibles pour des utilisateurs potentiels, qui ne seraient pas des informaticiens professionnels.Dans la littérature, plusieurs travaux se sont penchés sur la conception automatique de schéma multidimensionnel, mais les exemples proposés par ces travaux concernaient des données classiques. Par ailleurs, d'autres articles traitent de la modélisation multidimensionnelle adaptée à des données complexes (inconsistance, données hétérogènes, intégration d'objets spatiaux, de textes, d'images au sein d'un entrepôt …) mais les méthodes proposées par ces travaux sont rarement automatique.C'est pourquoi l'objectif de ce travail de thèse est de proposer une méthode de conception d'entrepôt de données et des cubes OLAP associés la plus automatique possible. Cette méthode doit être capable de prendre en compte la complexité des données inhérente aux sciences biologiques.Pour tester les différents prototypes que nous avons proposé durant ce travail de thèse, nous avons disposé d'un jeu de données concernant l'abondance des oiseaux le long de la Loire. Ce jeu de données est structuré de la façon suivante : (1) nous disposons du recensement de 213 espèces d'oiseaux (décrites par un ensemble de facteurs qualitatifs, comme par exemple le régime alimentaire) en 198 points le long du fleuve pour 4 campagnes de recensement ; (2) chacun des 198 points est décrits par un ensemble de variables environnementales issues de différentes sources (relevés de terrain, images satellites, SIG). Ce sont ces variables environnementales qui posent le plus de questions en termes de modélisation multidimensionnelle. Ces données sont issues de différentes sources, parfois indépendantes des campagnes de recensement des oiseaux, et sont donc inconsistantes dans le temps et l'espace. De plus, ces données sont hétérogènes : elles peuvent se présenter sous forme de facteurs qualitatifs, quantitatifs ou encore d'objets spatiaux. Pour finir, ces données environnementales intègrent un grand nombre de facteurs (158 variables retenues) (...) / This thesis concerns the semi-automatic design of data warehouses and the associated OLAP cubes analyzing ecological data.The biological sciences, including ecology and agronomy, generate data that require an important collection effort: several years are often required to obtain a complete data set. Moreover, objects and phenomena studied by these sciences are complex and require many parameter recording to be understood. Finally, the collection of complex data over a long time results in an increased risk of inconsistency. Thus, these sciences generate numerous and heterogeneous data, which can be inconsistent. It is interesting to offer to scientists, who work in life sciences, information systems able to store and restore their data, particularly when those data have a significant volume. Among the existing tools, business intelligence tools, including online analytical systems (On-Line Analytical processing: OLAP), particularly caught our attention because it is data analysis process working on large historical collections (i.e. a data warehouse) to provide support to the decision making. The business intelligence offers tools that allow users to explore large volumes of data, in order to discover patterns and knowledge within the data, and possibly confirm their hypotheses.However, OLAP systems are complex information systems whose implementation requires advanced skills in business intelligence. Thus, although they have interesting features to manage and analyze multidimensional data, their complexity makes them difficult to manage by potential users, who would not be computer scientists.In the literature, several studies have examined the automatic multidimensional design, but the examples provided by theses works were traditional data. Moreover, other articles address the multidimensional modeling adapted to complex data (inconsistency, heterogeneous data, spatial objects, texts, images within a warehouse ...) but the proposed methods are rarely automatic. The aim of this thesis is to provide an automatic design method of data warehouse and OLAP cubes. This method must be able to take into account the inherent complexity of biological data. To test the prototypes, that we proposed in this thesis, we have prepared a data set concerning bird abundance along the Loire. This data set is structured as follows: (1) we have the census of 213 bird species (described with a set of qualitative factors, such as diet) in 198 points along the river for 4 census campaigns; (2) each of the 198 points is described by a set of environmental variables from different sources (land surveys, satellite images, GIS). These environmental variables address the most important issue in terms of multidimensional modeling. These data come from different sources, sometimes independent of bird census campaigns, and are inconsistent in time and space. Moreover, these data are heterogeneous: they can be qualitative factors, quantitative varaibles or spatial objects. Finally, these environmental data include a large number of attributes (158 selected variables) (...).
19

Implementace OLAP analýzy nad daty knihoven VUT / Implementation of OLAP Analysis for BUT Libraries

Mahdalíček, Josef January 2008 (has links)
The aim of this project is to create tool for OLAP analysis over operational data of BUT libraries. This OLAP tool answers ie. query how long were users having loaned books. These queries could be specified by time period (year, month), library (ie. FIT library) and other dimensions. Only some, for this application interesting, tables from source database are used. Tables were exported into text files in csv format. According to project specification, system for OLAP analysis should be open source. Tool Mondrian accomplishes this requirement and was  used in this work. Data warehouse is represented by relational database MySQL. ETL tool feeds data warehouse by data from exported files. User interface is used from internet browser and is implemented by component JPivot. Query results are displayed in tables and graphs.
20

Srovnání komerčních BI nástrojů s nástroji OpenSource

Okleštěk, Petr January 2006 (has links)
Cílem této diplomové práce je porovnat komerční a OpenSource Business Intelligence řešení pro střední podnik. Za účelem srovnání byl vybrán databázový server MS SQL Server s Analysis Services a dva možné způsoby nasazení OpenSource technologií. Prvním z nich je komplexní BI řešení od společnosti Insight Strategy a.s. ?The Bee?. Druhým způsobem je řešení pomocí dílčích aplikací nalezených na Internetu a to pomocí aplikací Keetle, Firebird, Mondrian a Openi. Jednotlivá řešení jsou porovnána na základě předem stanovených a popsaných metrik. Hlavním cílem je ověření na fiktivní firmě zda OpenSource BI řešení fungují a mohou nahradit komerční řešení a zda je to z finanční stránky výhodné.

Page generated in 0.0392 seconds