• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 58
  • 35
  • 26
  • 23
  • 11
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 274
  • 164
  • 100
  • 81
  • 74
  • 42
  • 38
  • 36
  • 36
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Verslo taisyklių panaudojimas duomenų analizei metamodelių transformacijų pagrindu / Metamodel based transformation method for business rule driven data analysis

Rima, Audrius 16 August 2007 (has links)
Didėjantis duomenų kiekis šiuolaikinėse informacinėse sistemose verčia ieškoti geresnių ir patogesnių priemonių ir metodų šių duomenų analizei. Esant dideliam duomenų kiekiui žmogus nebegali aprėpti informacijos įvairovės, atrasti logines sąsajas tampa sudėtinga, todėl reikalingos priemonės, kurios palengvintų, automatizuotų ir intelektualizuotų duomenų analizę. Šiame darbe nagrinėjamas verslo taisyklių pritaikymas intelektualizuotai duomenų analizei. Darbe pasiūlomas metodas leidžiantis verslo taisykles, užrašytas XML kalba, transformuoti iki daugiamatės duomenų analizės instrukcijų programų sistemoje. Pasiūlytas metodas grindžiamas metamodelių transformacijomis. Darbe siūlomas metodas patikrintas eksperimentu, be to jis realizuotas programų sistemos prototipe. / Rising amount of data in information system require to search better and usable tools and methods for this data analysis. When is large data amount, then people can’t see diverseness of information, there is complicated to find logical links, therefore required tools, which can make data analysis usual, automation and intelligent. The paper describes business rule using for intelligent data analysis and offers a method for transformation of a business rule, described in XML language, into the multidimensional data analysis rules in the program system. The method based on metamodel transformations. There is offered method, which is validated by experiment and implemented in prototype of software system.
62

Automatic assessment of OLAP exploration quality / Evaluation automatique de la qualité des explorations OLAP

Djedaini, Mahfoud 06 December 2017 (has links)
Avant l’arrivée du Big Data, la quantité de données contenues dans les bases de données était relativement faible et donc plutôt simple à analyser. Dans ce contexte, le principal défi dans ce domaine était d’optimiser le stockage des données, mais aussi et surtout le temps de réponse des Systèmes de Gestion de Bases de Données (SGBD). De nombreux benchmarks, notamment ceux du consortium TPC, ont été mis en place pour permettre l’évaluation des différents systèmes existants dans des conditions similaires. Cependant, l’arrivée de Big Data a complètement changé la situation, avec de plus en plus de données générées de jour en jour. Parallèlement à l’augmentation de la mémoire disponible, nous avons assisté à l’émergence de nouvelles méthodes de stockage basées sur des systèmes distribués tels que le système de fichiers HDFS utilisé notamment dans Hadoop pour couvrir les besoins de stockage technique et le traitement Big Data. L’augmentation du volume de données rend donc leur analyse beaucoup plus difficile. Dans ce contexte, il ne s’agit pas tant de mesurer la vitesse de récupération des données, mais plutôt de produire des séquences de requêtes cohérentes pour identifier rapidement les zones d’intérêt dans les données, ce qui permet d’analyser ces zones plus en profondeur, et d’extraire des informations permettant une prise de décision éclairée. / In a Big Data context, traditional data analysis is becoming more and more tedious. Many approaches have been designed and developed to support analysts in their exploration tasks. However, there is no automatic, unified method for evaluating the quality of support for these different approaches. Current benchmarks focus mainly on the evaluation of systems in terms of temporal, energy or financial performance. In this thesis, we propose a model, based on supervised automatic leaming methods, to evaluate the quality of an OLAP exploration. We use this model to build an evaluation benchmark of exploration support sys.terns, the general principle of which is to allow these systems to generate explorations and then to evaluate them through the explorations they produce.
63

Vers l'OLAP collaboratif pour la recommandation des analyses en ligne personnalisées / Towards Collaborative OLAP for recommending personalized OLAP analyses

Khemiri, Rym 23 September 2015 (has links)
La personnalisation vise à recueillir les intérêts, les préférences, les usages, les contraintes, le contexte, etc. souvent considérés comme faisant partie de ce que l'on appelle ''profil utilisateur'' pour ensuite les intégrer dans un système et les exploiter afin de permettre à l'utilisateur d'accéder rapidement aux informations les plus pertinentes pour lui. Par ailleurs, au sein d'une organisation, différents acteurs sont amenés à prendre des décisions à différents niveaux de responsabilité et ont donc besoin de réaliser des analyses à partir de l'entrepôt de données pour supporter la prise de décision. Ainsi, dans le contexte de cette communauté d'utilisateurs de l'entrepôt de données, la notion de collaboration émerge. Il est alors intéressant de combiner les concepts de personnalisation et de collaboration pour approcher au mieux les besoins des utilisateurs en leur recommandant des analyses en ligne pertinentes. L'objectif de ce mémoire est de proposer une approche collaborative pour l'OLAP, impliquant plusieurs utilisateurs, dirigée par un processus de personnalisation intégré aux systèmes décisionnels afin de pouvoir aider l'utilisateur final dans son processus d'analyse en ligne. Qu'il s'agisse de personnalisation du modèle d'entrepôt, de recommandation de requêtes décisionnelles ou de recommandation de chemins de navigation au sein des cubes de données, l'utilisateur a besoin d'un système décisionnel efficace qui l'aide dans sa démarche d'analyse en ligne. La finalité est de fournir à l'utilisateur des réponses pertinentes proches de ses besoins pour qu'il puisse mieux appréhender ses prises de décision. Nous nous sommes intéressés dans cette thèse à trois problèmes relevant de la prise en compte de l'utilisateur au sein des entrepôts de données et de l'OLAP. Nos contributions s'appuient sur la combinaison de techniques issues de la fouille de données avec les entrepôts et OLAP. Notre première contribution est une approche qui consiste à personnaliser les hiérarchies de dimensions afin d'obtenir des axes d'analyse nouveaux sémantiquement plus riches pouvant aider l'utilisateur à réaliser de nouvelles analyses non prévues par le modèle de l'entrepôt initial. En effet, nous relâchons la contrainte du modèle fixe de l'entrepôt, ce qui permet à l'utilisateur de créer de nouveaux axes d'analyse pertinents en tenant compte à la fois de ses contraintes et des connaissances enfouies dans les données entreposées. Notre approche repose sur une méthode d'apprentissage non-supervisé, le k-means contraint, capable de créer de nouveaux regroupements intéressants des données entreposées pouvant constituer un nouveau niveau de hiérarchie permettant de réaliser de nouvelles requêtes décisionnelles. L'intérêt est alors de pouvoir exploiter ces nouveaux niveaux de hiérarchie pour que les autres utilisateurs appartenant à la même communauté d'utilisateurs puissent en tirer profit, dans l'esprit d'un système collaboratif dans lequel chacun apporte sa pierre à l'édifice. Notre deuxième contribution est une approche interactive pour aider l'utilisateur à formuler de nouvelles requêtes décisionnelles pour construire des cubes OLAP pertinents en s'appuyant sur ses requêtes décisionnelles passées, ce qui lui permet d'anticiper sur ses besoins d'analyse futurs. Cette approche repose sur l'extraction des motifs fréquents à partir d'une charge de requêtes associée à un ou à un ensemble d'utilisateurs appartenant à la même communauté d'acteurs d'une organisation. Notre intuition est que la pertinence d'une requête décisionnelle est fortement corrélée avec la fréquence d'utilisation par l'utilisateur (ou un ensemble d'utilisateurs) des attributs associés à l'ensemble de ses (leurs) requêtes précédentes. Notre approche de formulation de requêtes (...) / The objective of this thesis is to provide a collaborative approach to the OLAP involving several users, led by an integrated personalization process in decision-making systems in order to help the end user in their analysis process. Whether personalizing the warehouse model, recommending decision queries or recommending navigation paths within the data cubes, the user need an efficient decision-making system that assist him. We were interested in three issues falling within data warehouse and OLAP personalization offering three major contributions. Our contributions are based on a combination of datamining techniques with data warehouses and OLAP technology. Our first contribution is an approach about personalizing dimension hierarchies to obtain new analytical axes semantically richer for the user that can help him to realize new analyzes not provided by the original data warehouse model. Indeed, we relax the constraint of the fixed model of the data warehouse which allows the user to create new relevant analysis axes taking into account both his/her constraints and his/her requirements. Our approach is based on an unsupervised learning method, the constrained k-means. Our goal is then to recommend these new hierarchy levels to other users of the same user community, in the spirit of a collaborative system in which each individual brings his contribution. The second contribution is an interactive approach to help the user to formulate new decision queries to build relevant OLAP cubes based on its past decision queries, allowing it to anticipate its future analysis needs. This approach is based on the extraction of frequent itemsets from a query load associated with one or a set of users belonging to the same actors in a community organization. Our intuition is that the relevance of a decision query is strongly correlated to the usage frequency of the corresponding attributes within a given workload of a user (or group of users). Indeed, our approach of decision queries formulation is a collaborative approach because it allows the user to formulate relevant queries, step by step, from the most commonly used attributes by all actors of the user community. Our third contribution is a navigation paths recommendation approach within OLAP cubes. Users are often left to themselves and are not guided in their navigation process. To overcome this problem, we develop a user-centered approach that suggests the user navigation guidance. Indeed, we guide the user to go to the most interesting facts in OLAP cubes telling him the most relevant navigation paths for him. This approach is based on Markov chains that predict the next analysis query from the only current query. This work is part of a collaborative approach because transition probabilities from one query to another in the cuboids lattice (OLAP cube) is calculated by taking into account all analysis queries of all users belonging to the same community. To validate our proposals, we present a support system user-centered decision which comes in two subsystems: (1) content personalization and (2) recommendation of decision queries and navigation paths. We also conducted experiments that showed the effectiveness of our analysis online user centered approaches using quality measures such as recall and precision.
64

Uma análise da aplicabilidade do Data Warehouse no comércio eletrônico, enfatizando o CRM analítico / An analysis of applicability of Data Warehouse in electronic commerce, with emphasis on the analytical CRM

Fabricia Vancim Frachone Neves 22 November 2001 (has links)
Atualmente, um dos grandes desafios enfrentados pelas empresas que operam no comércio eletrônico é de garantir a fidelidade de seus clientes. Devido a este fato, as empresas têm se preocupado cada vez mais na utilização de uma ferramenta capaz de integrar os dados distribuídos em banco de dados operacionais, para transformar suas informações em diferencial competitivo. Desta forma, a aplicabilidade da ferramenta Data Warehouse no comércio eletrônico, juntamente com a estratégia do Customer Relationship Management (CRM), surge como um elemento central da empresa focada no cliente, pois é capaz de fornecer informações competitivas e essenciais aos responsáveis pelas decisões estratégicas. Assim, através da ferramenta Data Warehouse sustentada pela estratégia de CRM, toda a \"sequência de cliques\" realizada pelos clientes do comércio eletrônico é armazenada historicamente, possibilitando a retenção destes com a empresa. Portanto o objetivo do presente trabalho é analisar a aplicabilidade do Data Warehouse no comércio eletrônico, visando o CRM analítico. O trabalho contribui também para mostrar às empresas que a integração entre tecnologia de informação (Data Warehouse) e marketing (CRM) em um ambiente Web oferece diferentes oportunidades de coleta de dados a respeito dos clientes, promovendo desta forma a personalização de produtos e serviços, garantindo maior lealdade destes com a empresa e, conseqüentemente, maior lucratividade. / Currently, one of the greatest challenges faced by companies that operate in the electronic commerce is to guarantee their customers\' fidelity. Due to this fact, these companies have been considering the employment of tools capable of integrating distributed data onto operational databases in order to transform information into a competitive and distinguishing asset. Thus, the applicability of Data Warehouse tools in Electronic Commerce, together with the strategy of Customer Relationship Management (CRM), appear as a key element for customer-oriented companies, since they are capable of supplying the ones responsible for strategic decisions with competitive and essential information . Hence, through Data Warehouse tools supported by the CRM strategy, all the \"clickstream\" carried out by the customers in electronic commerce, can be historically stored, making it possible, through further analyses, to identify potential customers, as well as keeping them with the company. The objective of the present research is to consider the applicability of Data Warehouse in Electronic Commerce, aiming at the analytical CRM. The research also shows companies that Data Warehouse, when combined with the CRM in a Web environment, offers alternative means for customer-related data collection, thus, providing the customization of products and services, reassuring clients\' loyalty to the company and, consequently, greater profits.
65

Plánovací aplikace v Business Intelligence / The planning applications in Business Intelligence

Rusnák, Petr January 2013 (has links)
The main goal of this thesis is to create a manual for planning application named Targetty appropriately so, for the academical purposes used at University of Economics, Prague and also to create a demo of this application for Vetrotech company. The goal is fulfilled through detailed analysis of the application and by describing its functionality via screenshots of the application and their description. The app demo is created on data model which was suggested for this purpose. This thesis can be divided into three main parts. The first part considers the issue of the enterprise planning by both the economical and the Business Intelligence points of view. The planning principles are demonstrated via examples and explained into detail. The second part is dedicated to analysis of the planning application called Targetty and in the last one a demo of application for Vetrotech company is created. This thesis proves that the planning application Targetty is a suitable application for small or medium companies. It also contains an application demo for Vetrotech company based on data model which may be used for creating a solution for any companies specializing in commercial industry.
66

Framework pro generování demo dat do OLAP datových kostek

Dubšík, Lukáš January 2018 (has links)
This thesis deals with implementation of a new framework, which allows to define and generate demo data for the star schema structure. Work analyses and com-pares available demo data generators. In theoretical part of the thesis, there are described concepts and technologies using in the field of Business Intelligence. Practical part deals with the design and implementation of the framework. In the final section, there are actual examples of generated data and their possible rep-resentation (samples of possible reports and dashboards).
67

Zobrazování datové kostky / Data Cube Visualization

Dittrich, Petr January 2009 (has links)
The topic of the master's thesis is a concept and implementation of the prototype application TOPZ demostrating the data warehouse. All theoretical facts about the data storage space are discussed at first. It is also specified the areas of possible improvements of the data warehouse. The specification of requirements and concept of the demonstration application are described in the following part. Testing the performace of the data warehouse is discussed in last chapter.
68

OLAP query optimization and result visualization / Optimisation de requêtes OLAP et visualisation des résultats

Simonenko, Ekaterina 16 September 2011 (has links)
Nous explorons différents aspects des entrepôts de données et d’OLAP, le point commun de nos recherches étant le modèle fonctionnel pour l'analyse de données. Notre objectif principal est d'utiliser ce modèle dans l'étude de trois aspects différents, mais liés:- l'optimisation de requêtes par réécriture et la gestion du cache,- la visualisation du résultat d'une requête OLAP,- le mapping d'un schéma relationnel en BCNF vers un schéma fonctionnel. L'optimisation de requêtes et la gestion de cache sont des problèmes cruciaux dans l'évaluation de requêtes en général, et les entrepôts de données en particulier; et la réécriture de requêtes est une des techniques de base pour l'optimisation de requêtes. Nous établissons des conditions d'implication de requêtes analytiques, en utilisant le pré-ordre partiel sur l'ensemble de requêtes, et nous définissons un algorithme sain et complet de réécriture ainsi que une stratégie de gestion de cache optimisée, tous les deux basés sur le modèle fonctionnel.Le deuxième aspect important que nous explorons dans cette thèse est celui de la visualisation du résultat. Nous démontrons l'importance pour la visualisation de reproduire des propriétés essentielles de données qui sont les dépendances fonctionnelles. Nous montrons que la connexion, existante entre les données et leur visualisation, est précisément la connexion entre leurs représentations fonctionnelles. Nous dérivons alors un cadre technique, ayant pour objectif d'établir une telle connexion pour un ensemble de données et un ensemble de visualisations. En plus d'analyse du processus de visualisation, nous utilisons le modèle fonctionnel comme un guide pour la visualisation interactive, et définissons ce qu'on appelle la visualisation paramétrique. Le troisième aspect important de notre travail est l'expérimentation des résultats obtenus dans cette thèse. Les résultats de cette thèse peuvent être utilisés afin d’analyser les données contenues dans une table en Boyce-Codd Normal Form (BCNF), étant donné que le schéma de la table peut être transformé aisément en un schéma fonctionnel. Nous présentons une telle transformation (mapping) dans cette thèse. Une fois le schéma relationnel transformé en un schéma fonctionnel, nous pouvons profiter des résultats sur l'optimisation et la visualisation de requêtes. Nous avons utilisé cette transformation dans l’implémentation de deux prototypes dans le cadre de deux projets différents. / In this thesis, we explore different aspects of Data Warehousing and OLAP, the common point of our proposals being the functional model for data analysis. Our main objective is to use that model in studying three different, but related aspects:- query optimization through rewriting and cache management,- query result visualization,- mapping of a relational BCNF schema to a functional schema.Query optimization and cache management is a crucial issue in query processing in general, and in data warehousing in particular; and query rewriting is one of the basic techniques for query optimization. We establish derivability conditions for analytic functional queries, using a partial pre-order over the set of queries. Then we provide a sound and complete rewriting algorithm, as well as an optimized cache management strategy, both based on the underlying functional model.A second important aspect that we explore in the thesis is that of query result visualization. We show the importance for the visualization to reflect such essential features of the dataset as functional dependencies. We show that the connection existing between data and visualization is precisely the connection between their functional representations. We then define a framework, whose objective is to establish such a connection for a given dataset and a set of visualizations. In addition to the analysis of the visualization process, we use the functional data model as a guide for interactive visualization, and define what we call a parametric visualization. A third important aspect of our work is experimentation with the results obtained in the thesis. In order to be able to analyze the data contained in a Boyce-Codd Normal Form (BCNF) table, one can use the results obtained in this thesis, provided that the schema of the table can be mapped to a functional schema. We present such a mapping in this thesis. Once the relational schema has been transformed into a functional schema, we can take advantage of the query optimization and result visualization results presented in the thesis. We have used this transformation in the implementation of two prototypes in the context of two different projects.
69

REAL TIME DATA WAREHOUSING AND ON LINE ANALYTICAL PROCESSING AT ABERDEEN TEST CENTER

Reil, Michael J., Bartlett, T. George, Henry, Kevin 10 1900 (has links)
ITC/USA 2006 Conference Proceedings / The Forty-Second Annual International Telemetering Conference and Technical Exhibition / October 23-26, 2006 / Town and Country Resort & Convention Center, San Diego, California / This paper is a follow on to a paper presented at the 2005 International Telemetry Conference by Dr. Samuel Harley et. al., titled Data, Information, and Knowledge Management. This paper will describe new techniques and provide further detail into the inner workings of the VISION (Versatile Information System – Integrated, Online) Engineering Performance Data Mart.
70

Approximation of OLAP queries on data warehouses / Approximation aux requêtes OLAP sur les entrepôts de données

Cao, Phuong Thao 20 June 2013 (has links)
Nous étudions les réponses proches à des requêtes OLAP sur les entrepôts de données. Nous considérons les réponses relatives aux requêtes OLAP sur un schéma, comme les distributions avec la distance L1 et rapprocher les réponses sans stocker totalement l'entrepôt de données. Nous présentons d'abord trois méthodes spécifiques: l'échantillonnage uniforme, l'échantillonnage basé sur la mesure et le modèle statistique. Nous introduisons également une distance d'édition entre les entrepôts de données avec des opérations d'édition adaptées aux entrepôts de données. Puis, dans l'échange de données OLAP, nous étudions comment échantillonner chaque source et combiner les échantillons pour rapprocher toutes requêtes OLAP. Nous examinons ensuite un contexte streaming, où un entrepôt de données est construit par les flux de différentes sources. Nous montrons une borne inférieure de la taille de la mémoire nécessaire aux requêtes approximatives. Dans ce cas, nous avons les réponses pour les requêtes OLAP avec une mémoire finie. Nous décrivons également une méthode pour découvrir les dépendances statistique, une nouvelle notion que nous introduisons. Nous recherchons ces dépendances en basant sur l'arbre de décision. Nous appliquons la méthode à deux entrepôts de données. Le premier simule les données de capteurs, qui fournissent des paramètres météorologiques au fil du temps et de l'emplacement à partir de différentes sources. Le deuxième est la collecte de RSS à partir des sites web sur Internet. / We study the approximate answers to OLAP queries on data warehouses. We consider the relative answers to OLAP queries on a schema, as distributions with the L1 distance and approximate the answers without storing the entire data warehouse. We first introduce three specific methods: the uniform sampling, the measure-based sampling and the statistical model. We introduce also an edit distance between data warehouses with edit operations adapted for data warehouses. Then, in the OLAP data exchange, we study how to sample each source and combine the samples to approximate any OLAP query. We next consider a streaming context, where a data warehouse is built by streams of different sources. We show a lower bound on the size of the memory necessary to approximate queries. In this case, we approximate OLAP queries with a finite memory. We describe also a method to discover the statistical dependencies, a new notion we introduce. We are looking for them based on the decision tree. We apply the method to two data warehouses. The first one simulates the data of sensors, which provide weather parameters over time and location from different sources. The second one is the collection of RSS from the web sites on Internet.

Page generated in 1.1983 seconds