• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 114
  • 88
  • 69
  • 38
  • 12
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 494
  • 494
  • 115
  • 108
  • 99
  • 81
  • 74
  • 73
  • 69
  • 69
  • 63
  • 56
  • 56
  • 53
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Semantische Integration von Data Warehousing und Wissensmanagement

Haak, Liane January 2007 (has links)
Zugl.: Oldenburg, Univ., Diss., 2007
262

Stammdatenmanagement zwischen Handel und Konsumgüterindustrie : Referenzarchitektur für die überbetriebliche Datensynchronisation /

Schemm, Jan Werner. Unknown Date (has links)
Sankt Gallen, Universiẗat, Diss., 2008.
263

Business intelligence aus Kennzahlen und Dokumenten : Integration strukturierter und unstrukturierter Daten in entscheidungsunterstützenden Informationssystemen /

Bange, Carsten. January 2004 (has links)
Thesis (doctoral)--Universiẗat, Würzburg, 2003.
264

Performance enhancements for advanced database management systems

Helmer, Sven. Unknown Date (has links) (PDF)
University, Diss., 2000--Mannheim.
265

Processo de indução e ranqueamento de árvores de decisão sobre modelos OLAP

Colares, Peterson Fernandes January 2011 (has links)
Made available in DSpace on 2013-08-07T18:42:31Z (GMT). No. of bitstreams: 1 000437994-Texto+Completo-0.pdf: 1640213 bytes, checksum: 26f32168808fae3383c6bd3a3b9c87fc (MD5) Previous issue date: 2011 / Organizations acting on several markets have been using the benefits offered by the use of Data Mining - DM techniques as a complementary activity to their support systems to the strategic decision. However, to the great majority of the organizations, the deployment of a DM Project ends up not being feasible due to different factors, such as: Project duration, high costs and mainly by the uncertainty as to getting results that may effectively help the organization to improve their business processes. In this context, this paper presents a process based on the process of knowledge Discovery in Database - KDD which aims to identify opportunities to the application of DM techniques through the induction and ranking of decisions generated by the exploration of semi automatic Online Analytical Processing Models-OLAP. The built process uses stored information in a OLAP model prepared on the basis of used information by Customer Relationship Management - CRM and Business Intelligence - BI typically used by the organization to support strategic decision making. In relation to the information selected for this research, it has been carried out in a semi automatic way, a series of experiments using DM techniques which the results are collected and stored for later evaluation and ranking. The process was built and tested with a significant number of experiments and later evaluated by business experts in a large financial institution where this research was developed. / Organizações atuantes nos mais diferentes mercados, têm utilizado os benefícios oferecidos pela utilização de técnicas de Data Mining – DM como atividades complementares a seus sistemas de apoio a decisão estratégica. Porém, para a grande maioria das organizações, a implantação de um projeto de DM acaba sendo inviabilizada em função de diferentes fatores como: duração do projeto, custos elevados e principalmente pela incerteza quanto à obtenção de resultados que possam auxiliar de fato a organização a melhorar seus processos de negócio. Neste contexto, este trabalho apresenta um processo, baseado no processo de Knowledge Discovery in Database – KDD, que visa identificar oportunidades para aplicação de técnicas de DM através da indução e ranqueamento de árvores de decisão geradas pela exploração semiautomática de modelos On-Line Analytical Processing - OLAP. O processo construído utiliza informações armazenadas em um modelo OLAP preparado com base nas informações utilizadas por sistemas de Customer Relationship Management - CRM e Business Intelligence – BI, tipicamente utilizados por organizações no apoio a tomada de decisão estratégica. Neste trabalho é apresentada uma série de experimentos, gerados de forma semiautomática, utilizando técnicas de DM, cujos resultados são coletados e armazenados para posterior avaliação e ranqueamento. O processo foi construído e testado com um conjunto significativo de experimentos e posteriormente avaliado por especialistas de negócio em uma instituição financeira de grande porte onde esta pesquisa foi desenvolvida.
266

Processo de ETC orientado a serviços para um ambiente de gestão de PDS baseado em métricas

Silveira, Patrícia Souza January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:14Z (GMT). No. of bitstreams: 1 000399886-Texto+Completo-0.pdf: 1933710 bytes, checksum: 802b7870cad99de8d93c140653277d3d (MD5) Previous issue date: 2007 / The search for quality is a constant value in corporate environments. With this aim, software development organizations utilize metrics to measure quality of their products, processes and services. These metrics should be collected, consolidated and stored in a single central repository typically implemented as a Data Warehouse (DW). The definition of extraction, transformation and loading (ETL) of metrics that will be stored in DW, considering the software development environment (heterogeneity of sources, of process models, of project classes and of level of isolation) is no trivial task. This paper presents a data warehousing environment called SPDW+ as a solution to the automation of the ETL metrics process. This solution introduces a comprehensive and streamlined analytical model for the analysis and monitoring of metrics, and is built on a service-oriented approach that utilizes the Web Services technology (WS). Moreover, SPDW+ addresses the low-intrusion incremental load and the high frequency and low latency present in metrics collection. The main components of SPDW+ are specified, implemented and tested. The advantages of SPDW+ are: (i) flexibility and adaptation to meet the requirements of the constant changes in business environments; (ii) support to monitoring, which allows the run of frequent and incremental loads; (iii) the capacity to make less burdensome the complex, time-consuming task of capturing metrics; (iv) freedom of choice regarding management models and the support tools used in projects; and (v) cohesion and consistency of the information contained in the metrics repository needed to compare the data of different projects. / A busca pela qualidade é uma constante nos ambientes corporativos. Para tanto, as operações de desenvolvimento de software utilizam métricas para mensurar a qualidade dos seus produtos, processos e serviços. As mesmas devem ser coletadas, consolidadas e armazenadas em um repositório central único, tipicamente implementado na forma de Data Warehouse (DW). A definição do processo de extração, transformação e carga (ETC) das métricas a serem armazenadas nesse repositório, considerando as características do ambiente de desenvolvimento de software (heterogeneidade de fontes, de modelos de processos, de tipos de projetos e de níveis de isolamento) não é uma tarefa trivial. Este trabalho apresenta um ambiente de data warehousing denominado SPDW+, como solução para a automatização do processo de ETC das métricas. Esta solução contém um modelo analítico abrangente e elegante, para análise e monitoração de métricas, e é baseada em uma abordagem orientada a serviços, aliada à tecnologia de Web Services (WS). Além disso, o SPDW+ trata a carga incremental com baixo nível de intrusão, e alta freqüência e baixa latência na coleta das métricas. Os principais componentes da solução são especificados, implementados e testados. Os benefícios desta solução são: i) ser flexível e adaptável para atender às constantes modificações do ambiente do negócio; ii) oferecer suporte à monitoração, permitindo a realização de cargas freqüentes e incrementais; iii) ser capaz de desonerar os projetos da tarefa, laboriosa e complexa, de captura das métricas; iv) manter a liberdade de escolha dos projetos, quanto aos modelos de gestão e às ferramentas de apoio empregadas; e v) possibilitar que as informações contidas no repositório de métricas estejam coesas e consistentes, para que os dados de diferentes projetos sejam comparáveis entre si.
267

A framework to support developers in the integration and application of linked and open data

Heuss, Timm January 2016 (has links)
In the last years, the number of freely available Linked and Open Data datasets has multiplied into tens of thousands. The numbers of applications taking advantage of it, however, have not. Thus, large portions of potentially valuable data remain unexploited and are inaccessible for lay users. Therefore the upfront investment in releasing data in the first place is hard to justify. The lack of applications needs to be addressed in order not to undermine efforts put into Linked and Open Data. In existing research, strong indicators can be found that the dearth of applications is due to a lack of pragmatic, working architectures supporting these applications and guiding developers. In this thesis, a new architecture for the integration and application of Linked and Open Data is presented. Fundamental design decisions are backed up by two studies: firstly, based on real-world Linked and Open Data samples, characteristic properties are identified. A key finding is the fact that large amounts of structured data display tabular structures, do not use clear licensing and involve multiple different file formats. Secondly, following on from that study, a comparison of storage choices in relevant query scenarios is made. It includes the de-facto standard storage choice in this domain, Triples Stores, as well as relational and NoSQL approaches. Results show significant performance deficiencies of some technologies in certain scenarios. Consequently, when integrating Linked and Open Data in scenarios with application-specific entities, the first choice of storage is relational databases. Combining these findings and related best practices of existing research, a prototype framework is implemented using Java 8 and Hibernate. As a proof-of-concept it is employed in an existing Linked and Open Data integration project. Thereby, it is shown that a best practice architectural component is introduced successfully, while development effort to implement specific program code can be simplified. Thus, the present work provides an important foundation for the development of semantic applications based on Linked and Open Data and potentially leads to a broader adoption of such applications.
268

Integração, visualização e análise de informações eleitorais usando bancos de dados analíticos e fontes heterogêneas de grande volume

Pires, Luciano Barros January 2015 (has links)
Orientador: Prof. Dr. Márcio Katsumi Oikawa / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2015. / Integração de dados heterogêneos e seu uso para ferramentas de análise é um problema cuja complexidade aumenta muito com bancos de dados de grandes volumes. No Brasil, há um conjunto grande de informações públicas que pode ser usadas para análise em diversos setores. Apesar disso, a heterogeneidade de formatos e a distribuição difusa dos dados dificulta sua utilização de forma mais produtiva. O atual tratamento dos dados é realizado internamente às instituições, de maneira que os dados, embora públicos, mantém uma difícil estratégia de integração para a maior parte da população, que normalmente conta com recursos limitados de computação, além de conhecimentos básicos de Informática. Este projeto propõe a criação de um ambiente composto por servidor, banco de dados, bibliotecas e ferramentas visuais de dados. Além da integração de fontes de dados heterogêneas e de grande volume, a saída visual dos dados propõe uma forma de facilitar a análise dos dados para usuários finais, permitindo que possam ter maior capacidade de utilização das informações públicas. Neste trabalho, são ilustradas as técnicas usadas no contexto de dados eleitorais, integrando fontes de dados de diferentes instituições na produção de modelos visuais que facilitam a análise dessa informação e a tomada de decisões. / Heterogeneous database integration and its usage to support software analysis tools is a problem whose complexity decisively grows for the big data volumes. In Brazil, there is a great set of public information available to analysis. However, its format heterogeneity and diffuse distribution hamper more effective data analysis. The current data treatment occurs inside the institutions, so that the information is not available to the majority of the population, usually with limited computer resources and basic knowledge of Computer Science. This project proposes the creation of an environment integrating server, databases, libraries, and visual tools for public data analysis. In addition to the heterogeneity integration of big data volumes, the visual interface offers an easy way to data analysis by final users, allowing them to make use of the public information. In this work, it was illustrated the techniques using electoral data, integrating data sources from many different institutions. Furthermore, these visual models support data analysis and decision-making processes.
269

Vers l'OLAP collaboratif pour la recommandation des analyses en ligne personnalisées / Towards Collaborative OLAP for recommending personalized OLAP analyses

Khemiri, Rym 23 September 2015 (has links)
La personnalisation vise à recueillir les intérêts, les préférences, les usages, les contraintes, le contexte, etc. souvent considérés comme faisant partie de ce que l'on appelle ''profil utilisateur'' pour ensuite les intégrer dans un système et les exploiter afin de permettre à l'utilisateur d'accéder rapidement aux informations les plus pertinentes pour lui. Par ailleurs, au sein d'une organisation, différents acteurs sont amenés à prendre des décisions à différents niveaux de responsabilité et ont donc besoin de réaliser des analyses à partir de l'entrepôt de données pour supporter la prise de décision. Ainsi, dans le contexte de cette communauté d'utilisateurs de l'entrepôt de données, la notion de collaboration émerge. Il est alors intéressant de combiner les concepts de personnalisation et de collaboration pour approcher au mieux les besoins des utilisateurs en leur recommandant des analyses en ligne pertinentes. L'objectif de ce mémoire est de proposer une approche collaborative pour l'OLAP, impliquant plusieurs utilisateurs, dirigée par un processus de personnalisation intégré aux systèmes décisionnels afin de pouvoir aider l'utilisateur final dans son processus d'analyse en ligne. Qu'il s'agisse de personnalisation du modèle d'entrepôt, de recommandation de requêtes décisionnelles ou de recommandation de chemins de navigation au sein des cubes de données, l'utilisateur a besoin d'un système décisionnel efficace qui l'aide dans sa démarche d'analyse en ligne. La finalité est de fournir à l'utilisateur des réponses pertinentes proches de ses besoins pour qu'il puisse mieux appréhender ses prises de décision. Nous nous sommes intéressés dans cette thèse à trois problèmes relevant de la prise en compte de l'utilisateur au sein des entrepôts de données et de l'OLAP. Nos contributions s'appuient sur la combinaison de techniques issues de la fouille de données avec les entrepôts et OLAP. Notre première contribution est une approche qui consiste à personnaliser les hiérarchies de dimensions afin d'obtenir des axes d'analyse nouveaux sémantiquement plus riches pouvant aider l'utilisateur à réaliser de nouvelles analyses non prévues par le modèle de l'entrepôt initial. En effet, nous relâchons la contrainte du modèle fixe de l'entrepôt, ce qui permet à l'utilisateur de créer de nouveaux axes d'analyse pertinents en tenant compte à la fois de ses contraintes et des connaissances enfouies dans les données entreposées. Notre approche repose sur une méthode d'apprentissage non-supervisé, le k-means contraint, capable de créer de nouveaux regroupements intéressants des données entreposées pouvant constituer un nouveau niveau de hiérarchie permettant de réaliser de nouvelles requêtes décisionnelles. L'intérêt est alors de pouvoir exploiter ces nouveaux niveaux de hiérarchie pour que les autres utilisateurs appartenant à la même communauté d'utilisateurs puissent en tirer profit, dans l'esprit d'un système collaboratif dans lequel chacun apporte sa pierre à l'édifice. Notre deuxième contribution est une approche interactive pour aider l'utilisateur à formuler de nouvelles requêtes décisionnelles pour construire des cubes OLAP pertinents en s'appuyant sur ses requêtes décisionnelles passées, ce qui lui permet d'anticiper sur ses besoins d'analyse futurs. Cette approche repose sur l'extraction des motifs fréquents à partir d'une charge de requêtes associée à un ou à un ensemble d'utilisateurs appartenant à la même communauté d'acteurs d'une organisation. Notre intuition est que la pertinence d'une requête décisionnelle est fortement corrélée avec la fréquence d'utilisation par l'utilisateur (ou un ensemble d'utilisateurs) des attributs associés à l'ensemble de ses (leurs) requêtes précédentes. Notre approche de formulation de requêtes (...) / The objective of this thesis is to provide a collaborative approach to the OLAP involving several users, led by an integrated personalization process in decision-making systems in order to help the end user in their analysis process. Whether personalizing the warehouse model, recommending decision queries or recommending navigation paths within the data cubes, the user need an efficient decision-making system that assist him. We were interested in three issues falling within data warehouse and OLAP personalization offering three major contributions. Our contributions are based on a combination of datamining techniques with data warehouses and OLAP technology. Our first contribution is an approach about personalizing dimension hierarchies to obtain new analytical axes semantically richer for the user that can help him to realize new analyzes not provided by the original data warehouse model. Indeed, we relax the constraint of the fixed model of the data warehouse which allows the user to create new relevant analysis axes taking into account both his/her constraints and his/her requirements. Our approach is based on an unsupervised learning method, the constrained k-means. Our goal is then to recommend these new hierarchy levels to other users of the same user community, in the spirit of a collaborative system in which each individual brings his contribution. The second contribution is an interactive approach to help the user to formulate new decision queries to build relevant OLAP cubes based on its past decision queries, allowing it to anticipate its future analysis needs. This approach is based on the extraction of frequent itemsets from a query load associated with one or a set of users belonging to the same actors in a community organization. Our intuition is that the relevance of a decision query is strongly correlated to the usage frequency of the corresponding attributes within a given workload of a user (or group of users). Indeed, our approach of decision queries formulation is a collaborative approach because it allows the user to formulate relevant queries, step by step, from the most commonly used attributes by all actors of the user community. Our third contribution is a navigation paths recommendation approach within OLAP cubes. Users are often left to themselves and are not guided in their navigation process. To overcome this problem, we develop a user-centered approach that suggests the user navigation guidance. Indeed, we guide the user to go to the most interesting facts in OLAP cubes telling him the most relevant navigation paths for him. This approach is based on Markov chains that predict the next analysis query from the only current query. This work is part of a collaborative approach because transition probabilities from one query to another in the cuboids lattice (OLAP cube) is calculated by taking into account all analysis queries of all users belonging to the same community. To validate our proposals, we present a support system user-centered decision which comes in two subsystems: (1) content personalization and (2) recommendation of decision queries and navigation paths. We also conducted experiments that showed the effectiveness of our analysis online user centered approaches using quality measures such as recall and precision.
270

Um sistema OLAP para data warehouses de dados criptografados, multivalorados e mantidos na nuvem

Lopes, Claudivan Cruz 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-11T19:18:09Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Claudivan Cruz Lopes.pdf: 3542669 bytes, checksum: c9164a67c8e93b4afd3e6ed8c1958786 (MD5) / Made available in DSpace on 2015-03-11T19:18:09Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Claudivan Cruz Lopes.pdf: 3542669 bytes, checksum: c9164a67c8e93b4afd3e6ed8c1958786 (MD5) Previous issue date: 2014 / CNPq / Um dos desafios da computação em nuvem é a dificuldade de garantir a confidencialidade de dados, especialmente em relação ao modelo de serviço DaaS (Banco de Dados como um Serviço). Uma solução para proteger a confidencialidade de dados é manter os dados criptografados na nuvem. Porém, consultar dados criptografados requer que eles sejam decodificados, fato que pode acarretar num alto custo de processamento se todos os dados precisarem ser decodificados antes da execução de uma consulta, ou pode comprometer a confidencialidade de dados se a decodificação for feita na própria nuvem. Neste sentido, a literatura reporta o uso de técnicas de criptografia que permitem que cálculos e comparações sejam computados diretamente sobre dados criptografados. Essas técnicas viabilizam o processamento de consultas sem a necessidade de decodificar dados na nuvem, protegendo a confidencialidade de dados e minimizando a sobrecarga ocasionada pela criptografia na execução de consultas. Contudo, uma questão em aberto na literatura se refere a como um Data Warehouse (DW) mantido na nuvem pode ser criptografado, de modo a balancear o custo-benefício entre a proteção da confidencialidade de dados e a redução do impacto da criptografia no processamento de consultas analíticas feitas sobre um DW criptografado. Esta tese apresenta uma solução para essa questão. Primeiro, é proposto um esquema de criptografia que produz dados criptografados e multivalorados (i.e., dados criptografados distintos entre si), e que permite que restrições de seleção, ordenação e agrupamento de dados sejam processadas sobre dados criptografados e multivalorados. Segundo, é proposta uma metodologia de criptografia para DW que determina como e quais atributos de um DW devem ser criptografados, e quais técnicas utilizar para criptografar os valores desses atributos. Terceiro, é proposto um sistema OLAP que habilita o processamento escalável de consultas analíticas sobre um DW criptografado e mantido na nuvem, o qual faz uso do esquema de criptografia e da metodologia propostos. Por fim, uma avaliação experimental foi conduzida, no intuito de investigar a viabilidade de se manter um DW criptografado na nuvem e a influência da escalabilidade no desempenho de consultas analíticas sobre DW criptografados e mantidos na nuvem. Os resultados dessa avaliação mostraram que: (i) a solução proposta obteve ganhos de desempenho quanto ao processamento de consultas analíticas sobre DW criptografados de até 53%, quando comparado com outras soluções; (ii) a seletividade de dados não afeta o desempenho da solução proposta; (iii) a maioria das operações definidas em consultas analíticas são executadas no servidor sobre os dados criptografados; (iv) a sobrecarga causada pela criptografia no desempenho de consultas analíticas diminui na medida em que o processamento de consultas é paralelizado entre vários hosts na nuvem; e (v) a sobrecarga ocasionada na execução de agrupamentos sobre dados criptografados e multivalorados diminui com a paralelização do processamento.

Page generated in 0.0529 seconds