Spelling suggestions: "subject:"olla""
191 |
Nutzung von Datenbankdiensten in Data-Warehouse-AnwendungenSchlesinger, Lutz, Lehner, Wolfgang, Hümmer, Wolfgang, Bauer, Andreas 26 November 2020 (has links)
Zentral für eine effiziente Analyse der in Data-Warehouse-Systemen gespeicherten Daten ist das Zusammenspiel zwischen Anwendung und Datenbanksystem. Der vorliegende Artikel klassifiziert und diskutiert unterschiedliche Wege, Data-Warehouse-Anwendungen mit dem Datenbanksystem zu koppeln, um komplexe OLAP-Szenarien zur Berechnung dem Datenbankdienst zu überlassen. Dabei werden vier unterschiedliche Kategorien, die Spracherweiterung (SQL), die anwendungsspezifische Sprachneuentwicklung (MDX), die Nutzung spezifischer Objektmodelle (JOLAP) und schließlich der Rückgriff auf XML-basierte WebServices (XCube) im einzelnen diskutiert und vergleichend gegenübergestellt. / The connection of the applications and the underlying database system is crucial for performing analyses efficiently within a data warehouse system. This paper classifies and discusses different methods to bring data warehouse applications logically close to the underlying database system so that the computation of complex OLAP scenarios may be performed within the database system and not outside at the application. In detail, four different categories ranging from language extension (SQL) over the design of a new query language (MDX) and using special object models (JOLAP) to the use of XML-based WebServices are discussed and compared in detail.
|
192 |
Forecasting in Database SystemsFischer, Ulrike 18 December 2013 (has links)
Time series forecasting is a fundamental prerequisite for decision-making processes and crucial in a number of domains such as production planning and energy load balancing. In the past, forecasting was often performed by statistical experts in dedicated software environments outside of current database systems. However, forecasts are increasingly required by non-expert users or have to be computed fully automatically without any human intervention. Furthermore, we can observe an ever increasing data volume and the need for accurate and timely forecasts over large multi-dimensional data sets. As most data subject to analysis is stored in database management systems, a rising trend addresses the integration of forecasting inside a DBMS. Yet, many existing approaches follow a black-box style and try to keep changes to the database system as minimal as possible. While such approaches are more general and easier to realize, they miss significant opportunities for improved performance and usability.
In this thesis, we introduce a novel approach that seamlessly integrates time series forecasting into a traditional database management system. In contrast to flash-back queries that allow a view on the data in the past, we have developed a Flash-Forward Database System (F2DB) that provides a view on the data in the future. It supports a new query type - a forecast query - that enables forecasting of time series data and is automatically and transparently processed by the core engine of an existing DBMS. We discuss necessary extensions to the parser, optimizer, and executor of a traditional DBMS. We furthermore introduce various optimization techniques for three different types of forecast queries: ad-hoc queries, recurring queries, and continuous queries. First, we ease the expensive model creation step of ad-hoc forecast queries by reducing the amount of processed data with traditional sampling techniques. Second, we decrease the runtime of recurring forecast queries by materializing models in a specialized index structure. However, a large number of time series as well as high model creation and maintenance costs require a careful selection of such models. Therefore, we propose a model configuration advisor that determines a set of forecast models for a given query workload and multi-dimensional data set. Finally, we extend forecast queries with continuous aspects allowing an application to register a query once at our system. As new time series values arrive, we send notifications to the application based on predefined time and accuracy constraints. All of our optimization approaches intend to increase the efficiency of forecast queries while ensuring high forecast accuracy.
|
193 |
Grafický podsystém v prostředí internetového prohlížeče / Graphs Subsystem in Internet Browser EnvironmentVlach, Petr January 2008 (has links)
This master's thesis, divided into two sections, compares in part one existing (non-)commercial systems for OLAP presentation using contingency table or graph. The main focus is put on a graph. Results received from my observations in part one are used for implementing a graphic subsystem within internet browser's environment. User friendly interface and good arrangement of displayed data are the most important tasks.
|
194 |
Vers l'OLAP sémantique pour l'analyse en ligne des données complexesLoudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
|
195 |
Un modèle multidimensionnel pour un processus d'analyse en ligne de résumés flousNaoum, Lamiaa 22 November 2006 (has links) (PDF)
Le travail présenté dans cette thèse traite de l'exploration et de la manipulation des résumés de bases de données de taille significative. Les résumés produits par le système SaintEtiQ sont des vues matérialisées multi-niveaux de classes homogènes de données, présentées sous forme de collections d'étiquettes floues disponibles sur chaque attribut. La contribution de cette thèse repose sur trois points. En premier lieu nous avons défini un modèle de données logique appelé partition de résumés, par analogie avec les cubes de données OLAP, dans le but d'offrir à l'utilisateur final un outil de présentation des données sous forme condensée et adaptée à l'analyse. En second lieu, nous avons défini une collection d'opérateurs algébriques sur l'espace multidimensionnel des partitions de résumés. Ces opérateurs sont à la base d'une algèbre de manipulation des résumés. Cette algèbre prend en compte les spécificités du modèle de résumé que nous traitons. Nous avons adapté la ma jorité des opéra- teurs d'analyse proposés dans les systèmes OLAP. Ainsi, nous avons identifié : les opérateurs de base issus de l'algèbre relationnelle, les opérateurs de changement de granularité et les opérateurs de restructuration. Ces résultats offrent de nouvelles perspectives pour l'exploitation effective des résumés dans un système décisionnel. Finalement, pour compléter ce travail, nous nous sommes intéressés à la représen- tation des résumés et des partitions de résumés linguistiques, notamment pour en fournir une présentation claire et concise à l'utilisateur final. Appliquée à une hiérar- chie de résumés produite par le système SaintEtiQ, l'approche tente de construire des prototypes flous représentant les résumés.
|
196 |
Modélisation et manipulation des systèmes OLAP : de l'intégration des documents à l'usagerTeste, Olivier 07 December 2009 (has links) (PDF)
Mes travaux de recherche se situent dans le domaine de l'informatique décisionnelle, et portent en particulier sur les entrepôts de données (Data Warehouse) et l'analyse en ligne (OLAP, On-Line Analytical Processing). L'originalité de la démarche scientifique suivie par ces recherches réside dans une double orientation consistant à proposer des mécanismes de description couplés aux mécanismes de manipulation des données entreposées dans les systèmes OLAP. Les travaux que je mène depuis 2001 s'articulent en trois axes : la modélisation et la manipulation des systèmes OLAP, l'intégration des documents dans les systèmes OLAP, et la prise en compte de l'usager par la personnalisation des systèmes OLAP. Malgré de nombreux travaux sur la modélisation et la manipulation dans les systèmes OLAP, il n'existe ni standard, ni consensus, que ce soit au niveau des modèles multidimensionnels ou des opérateurs OLAP. Mes premiers travaux ont donc consisté à définir un modèle conceptuel de représentation des données pour les systèmes OLAP basé sur trois concepts clairement formalisés. Ce socle homogène a permis dans un second temps de définir les manipulations OLAP au travers d'un noyau minimum fermé d'opérateurs OLAP. Ce fondement théorique nous permet aujourd'hui d'élaborer des langages assertionels et/ou graphiques dont la complétude au regard de l'algèbre OLAP garanti la couverture du modèle en constellation et la performance des manipulations incrémentales. Pour rendre opérant les systèmes OLAP sur l'ensemble des données d'une organisation, j'ai orienté mes recherches sur l'intégration des documents. Mes recherches ont débouché sur la proposition d'un modèle de représentation unificateur en galaxie. Ce modèle repose sur un unique mécanisme de description des données et supporte les documents dans la globalité de leurs spécificités (contenu, structure, métadonnées). Le défis essentiel a été de maintenir opérants les principes de navigation et d'interrogation des données définis par l'algèbre OLAP. Pour cela, une contribution importante de ces recherches est la spécification de mécanismes d'agrégation textuelle (TOP_KW et AVG_KW) permettant d'assurer des forages dans des amas multidimensionnels de données textuelles. Les systèmes OLAP se sont principalement attachés à faciliter l'accès aux données décisionnelles laissant la charge aux usagers d'expertiser les données par des restitutions destinées à un groupe d'usagers supposés partager des besoins identiques. J'ai donc élargi mes recherches à la personnalisation des systèmes OLAP, par une approche quantitative qui permet à l'usager de définir ses préférences dans une constellation et d'ancrer des annotations qui matérialisent ses analyses et son expertise décisionnelle autorisant ainsi une composante collaborative dans le système OLAP. Enfin, j'ai complété ces propositions par une approche qualitative qui exploite les préférences exprimées par des relations d'ordre pour définir un processus générique autorisant trois types de recommandations contextuelles lors des manipulations OLAP : alternatives, par anticipation et enrichissement. Ces recherches ont fait l'objet de développements dans trois prototypes et s'inscrivent dans le cadre de différents projets et collaborations industrielles notamment dans le milieu médical (Hôpitaux de Paris, Institut Claudius Regaud). Elles ont également donné lieu à plusieurs thèses de doctorat.
|
197 |
Reengineering and Development for Executive Information Systems : The Case of Southern Taiwan Business Group of Chunghwa TelecomChang, I-Ming 03 August 2000 (has links)
In the earlier period, large enterprise, developed its management reports system based on files system and the 3rd-generation language. The managers of several departments access management information from the reports system. Because competition stress increasing quickly and information requirement changing frequently, the legacy system could not satisfy the information need of managers. The maintainability of legacy system is decreasing, and the cost is growing up. How to solve the difficulties on system maintenance ? System reengineering is commonly used as a solution. How to choose a good migration strategy is also a big issue.
This research focuses on finding a migration strategy for the legacy systems and a methodology of developing EIS based on users¡¦ needs via current new information technologies. The methodology is applied to implement a EIS for a large enterprise in order to verify the feasibility of the methodology. A questionnaire investigation among the users of the new system has clearly shown a fairly good users¡¦ satisfaction.
|
198 |
Dynamic cubing for hierarchical multidimensional data spaceAhmed, Usman 18 February 2013 (has links) (PDF)
Data warehouses are being used in many applications since quite a long time. Traditionally, new data in these warehouses is loaded through offline bulk updates which implies that latest data is not always available for analysis. This, however, is not acceptable in many modern applications (such as intelligent building, smart grid etc.) that require the latest data for decision making. These modern applications necessitate real-time fast atomic integration of incoming facts in data warehouse. Moreover, the data defining the analysis dimensions, stored in dimension tables of these warehouses, also needs to be updated in real-time, in case of any change. In this thesis, such real-time data warehouses are defined as dynamic data warehouses. We propose a data model for these dynamic data warehouses and present the concept of Hierarchical Hybrid Multidimensional Data Space (HHMDS) which constitutes of both ordered and non-ordered hierarchical dimensions. The axes of the data space are non-ordered which help their dynamic evolution without any need of reordering. We define a data grouping structure, called Minimum Bounding Space (MBS), that helps efficient data partitioning of data in the space. Various operators, relations and metrics are defined which are used for the optimization of these data partitions and the analogies among classical OLAP concepts and the HHMDS are defined. We propose efficient algorithms to store summarized or detailed data, in form of MBS, in a tree structure called DyTree. Algorithms for OLAP queries over the DyTree are also detailed. The nodes of DyTree, holding MBS with associated aggregated measure values, represent materialized sections of cuboids and tree as a whole is a partially materialized and indexed data cube which is maintained using online atomic incremental updates. We propose a methodology to experimentally evaluate partial data cubing techniques and a prototype implementing this methodology is developed. The prototype lets us experimentally evaluate and simulate the structure and performance of the DyTree against other solutions. An extensive study is conducted using this prototype which shows that the DyTree is an efficient and effective partial data cubing solution for a dynamic data warehousing environment.
|
199 |
Personnalisation d'analyses décisionnelles sur des données multidimensionnellesJerbi, Houssem 20 January 2012 (has links) (PDF)
Le travail présenté dans cette thèse aborde la problématique de la personnalisation des analyses OLAP au sein des bases de données multidimensionnelles. Une analyse OLAP est modélisée par un graphe dont les noeuds représentent les contextes d'analyse et les arcs traduisent les opérations de l'utilisateur. Le contexte d'analyse regroupe la requête et le résultat. Il est décrit par un arbre spécifique qui est indépendant des structures de visualisation des données et des langages de requête. Par ailleurs, nous proposons un modèle de préférences utilisateur exprimées sur le schéma multidimensionnel et sur les valeurs. Chaque préférence est associée à un contexte d'analyse particulier. En nous basant sur ces modèles, nous proposons un cadre générique comportant deux mécanismes de personnalisation. Le premier mécanisme est la personnalisation de requête. Il permet d'enrichir la requête utilisateur à l'aide des préférences correspondantes afin de générer un résultat qui satisfait au mieux aux besoins de l'usager. Le deuxième mécanisme de personnalisation est la recommandation de requêtes qui permet d'assister l'utilisateur tout au long de son exploration des données OLAP. Trois scénarios de recommandation sont définis : l'assistance à la formulation de requête, la proposition de la prochaine requête et la suggestion de requêtes alternatives. Ces recommandations sont construites progressivement à l'aide des préférences de l'utilisateur. Afin valider nos différentes contributions, nous avons développé un prototype qui intègre les mécanismes de personnalisation et de recommandation de requête proposés. Nous présentons les résultats d'expérimentations montrant la performance et l'efficacité de nos approches. Mots-clés: OLAP, analyse décisionnelle, personnalisation de requête, système de recommandation, préférence utilisateur, contexte d'analyse, appariement d'arbres de contexte.
|
200 |
Data management in forecasting systems : optimization and maintenanceFeng, Haitang 17 October 2012 (has links) (PDF)
Forecasting systems are usually based on data warehouses for data strorage, and OLAP tools for historical and predictive data visualization. Aggregated predictive data could be modified. Hence, the research issue can be described as the propagation of an aggregate-based modification in hirarchies and dimensions in a data warehouse enironment. Ther exists a great number of research works on related view maintenance problems. However, to our knowledge, the impact of interactive aggregate modifications on raw data was not investigated. This CIFRE thesis is supported by ANRT and the company Anticipeo. The application of Anticipeo is a sales forecasting system that predicts future sales in order to draw appropriate business strategy in advance. By the beginning of the thesis, the customers of Anticipeo were satisfied the precision of the prediction results, but not with the response time. The work of this thesis can be generalized into two parts. The first part consists in au audit on the existing application. We proposed a methodology relying on different technical solutions. It concerns the propagation of an aggregate-based modification in a data warehouse. the second part of our work consists in the proposition of a newx allgorithms (PAM - Propagation of Aggregated-baseed Modification) with an extended version (PAM II) to efficiently propagate in aggregate-based modification. The algorithms identify and update the exact sets of source data anf other aggregated impacted by the aggregated modification. The optimized PAM II version archieves better performance compared to PAM when the use of additional semantics (e.g. dependencies) is possible. The experiments on real data of Anticipeo proved that the PAM algorithm and its extension bring better perfiormance when a backward propagation.
|
Page generated in 0.0413 seconds