• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 85
  • 84
  • 46
  • 23
  • 12
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 407
  • 407
  • 105
  • 100
  • 94
  • 74
  • 69
  • 61
  • 61
  • 61
  • 52
  • 49
  • 48
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Uma abordagem orientada a serviços para captura de métricas de processo de desenvolvimento de software

Cunha, Virginia Silva da January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:22Z (GMT). No. of bitstreams: 1 000400971-Texto+Completo-0.pdf: 3124182 bytes, checksum: 9b0e8cc34e680328d6c7483573e46652 (MD5) Previous issue date: 2006 / Software organizations work with several software projects that differ in terms of both the management tools used and the way tracking metrics are stored and controlled. Thus, the lack of a central data repository poses difficulties for the traking of Software Development Processes (SDPs) in these organizations. One of the crucial steps of the Knowledge Discovery in Databases Process is the process of Extraction, Transformation and Load (ETL). ETL aims to transform the raw data extracted from different fonts into consistent, reliable information. Considering the SDPs specificities, this study was carried out in the real computional environment. It was observed that the tools used range from spreadsheets (e. g. MS Excel) to control tools for the execution of project activities (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Different SDP models with a distinct life cycle for each project are also used, which result in completely different ways to register these projects even when using the same tool. Another problem is that each of those tools has an own data model that does not follow defined data representation standards. Therefore, the extraction of those data becomes a challenging goal to achieve, raising the complexity of ETL processes. The model proposed in this study introduces a two-integrated approach to deal with the problem: 1) a non intrusive way of data extraction, taking several types of heterogeneities into account, 2) the transformation and integration of these data, providing a unified and quantified organizational view of the projects. These aspects are treated using a serviceoriented architecture. This service oriented architecture tries to deal with several types of heterogeneity, from both the technical (e. g. different tools) and organizational standpoint (e. g. Organization’s Standard Software Process Standard specializations that result in distinct ways to develop and register project facts). This heterogeneity is conveniently treated through services that work as wrappers of the different types of extractors and through the support of a distributed development environment. For the evaluation of the proposed approach, three examples that consider all heterogeneity issues (different types of projects, different life cycles, different management models and several management support tools) were developed. / As organizações de software trabalham com diversos projetos de software que se diferenciam tanto pelas ferramentas de gestão utilizadas quanto pela forma que armazenam e controlam suas métricas de acompanhamento. Sendo assim, a inexistência de um repositório centralizado de dados dificulta o acompanhamento dos Processos de Desenvolvimento de Software (PDSs) dessas organizações. Uma das etapas mais cruciais do Processo de Descoberta de Conhecimento em Banco de Dados é o processo de Extração, Transformação e Carga (ETC), pois este tem como finalidade a transformação dos dados brutos, extraídos de diversas fontes, em informações consistentes e de qualidade. Considerando que os PDSs possuem suas especificidades, realizou-se um estudo em um ambiente real e verificou-se que, em termos de ferramentas, são utilizadas desde planilhas eletrônicas (e. g. MS Excel) até ferramentas para controle da execução de atividades de projetos (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Detectou-se ainda o uso de diferentes modelos de PDS, com ciclos de vida variados para projetos distintos, que se traduzem em formas totalmente diversas de registrar estes projetos, ainda que na mesma ferramenta. Outro problema é que cada uma dessas ferramentas possui um modelo de dados próprio, que não segue padronizações estabelecidas de representação de dados, dificultando assim a extração desses dados. Por conseqüência, o grau de complexidade do processo de ETC, para esta organização, é muito alto.O modelo proposto neste trabalho tem por mérito tratar, de forma integrada, dois aspectos: 1) a coleta de dados dos projetos de forma não intrusiva, levando em consideração vários tipos de heterogeneidade, 2) a transformação e integração desses dados, proporcionando uma visão organizacional unificada e quantitativa dos projetos. Esses aspectos são tratados utilizando uma arquitetura orientada a serviços. A abordagem orientada a serviços busca lidar com vários tipos de heterogeneidade, tanto do ponto de vista organizacional (e. g. especializações do Processo de Software Padrão da Organização (OSSP – Organization’s Standard Software Process) que resultam em formas distintas de desenvolvimento e registro de fatos sobre projetos), quanto do ponto de vista técnico (e. g. diferentes ferramentas). Essa heterogeneidade é convenientemente tratada através de serviços que atuam como wrappers dos diferentes tipos de extratores, que suporta um ambiente distribuído de desenvolvimento. Para avaliação da abordagem proposta, foram desenvolvidos três exemplos, que consideram todas essas questões de heterogeneidade: diferentes tipos de projetos, diferentes ciclos de vida, diferentes modelos de gerenciamento e diversas ferramentas de apoio ao acompanhamento.
32

Um plano de métricas para monitoramento de projetos scrum

Spies, Eduardo Henrique January 2013 (has links)
Made available in DSpace on 2014-01-28T01:01:20Z (GMT). No. of bitstreams: 1 000453323-Texto+Completo-0.pdf: 1666131 bytes, checksum: b3d0384201e24752155d711856753450 (MD5) Previous issue date: 2013 / Agile methods have earned their space both in industry and in academia, being increasingly used. With the focus on frequent returns to customers, these methods have difficulties to gain control and maintain efficient communication, especially in larger projects with several collaborators. Software engineering techniques have proved of great value to increase predictability and provide more discipline to this kind of projects. In this paper we present a metrics program for SCRUM and an extension of a Data Warehousing environment for monitoring projects. Thus, we provide a consistent repository that can be used as a historical reference of projects and for exploring metrics in different dimensions, easing control over all aspects of the progress of a project. / Métodos ágeis já consolidaram o seu espaço tanto na indústria como na academia, sendo cada vez mais utilizados. Com o foco em retornos frequentes aos clientes, estes métodos têm dificuldades para obter controle e manter comunicação eficiente, especialmente em projetos de maior porte e com grande quantidade de pessoas envolvidas. Técnicas de engenharia de software têm se mostrado de grande valia para aumentar a previsibilidade e dar mais disciplina deste tipo de projetos. Neste trabalho é apresentado um programa de métricas para SCRUM e uma extensão de um ambiente de Data Warehousing para o monitoramento de projetos. Desta forma, é provido um repositório consistente que pode ser utilizado como referencial histórico de projetos e para a visualização de métricas em diferentes dimensões, facilitando o controle sobre todos os aspectos do progresso de um projeto.
33

GEOMDQL: Uma Linguagem de Consulta geogr´afica e Multidimensional

da Silva, Joel 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:49:03Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Existem várias propostas na literatura visando a integração das funcionalidades e características pertinentes aos processamentos de dados analíticos (OLAP) e geográficos (SIG). O principal objetivo é prover um ambiente único, com capacidades de processamento geográfico e multidimensional, para dar suporte ao processo de tomada de decisões estratégicas. Este tipo de ambiente vem sendo referido atualmente como SOLAP. Entretanto, pelo fato destas duas tecnologias terem sido concebidas com propósitos distintos, a integração entre estes dois ambientes não é uma tarefa fácil, e mesmo com tantas pesquisas sendo desenvolvidas, temos alguns pontos em aberto que merecem ser explorados. A definição de modelos de dados para Data Warehouse Geográficos é um dos items desta integração. Outro ponto inserido neste contexto é a definição de funções de agregação para medidas geográficas. Estas funções são utilizadas no momento da especificação dos cubos de dados multidimensionais e geográficos. Conseqüentemente, também necessitamos de novos modelos de cubos de dados que possibilitem a associação de geometrias aos fatos e aos membros dos níveis. Uma das partes mais importantes desse processo de integração é a consulta aos dados. Porém, a maioria das abordagens que almejam esta integração de processamento, não dispõe de uma linguagem de consulta que possibilite a utilização simultânea, tanto de operadores multidimensionais como espaciais. É neste contexto que se insere esta tese, na qual apresentamos: i) um modelo formal para definição de DWG; ii) um conjunto de funções de agregação para medidas geográficas; iii) um modelo formal para cubos de dados chamado GeoMDCube; e iv) uma linguagem de consulta geográfica-multidimensional denominada GeoMDQL (Geographic Multidimensional Query Language). GeoMDQL estende e integra, em uma única sintaxe, os principais operadores multidimensionais e espaciais presentes na maioria das ferramentas e em ambientes disponíveis atualmente para processamento multidimensional e geográfico. GeoMDQL é baseada em padrões bem estabelecidos como ( MDX Multidimensional Expressions) e OGC Simple Features for SQL. As idéias propostas foram aplicadas na prática, por meio da implementação de uma arquitetura SOLAP chamada Golapware e o desenvolvimento de estudo de caso baseado em dados de aplicações reais. Dessa forma, foi possível demonstrar a utilização dos modelos, das funções e da linguagem de consulta e operadores SOLAP discutidos nesta tese
34

Um processo para tomada de decisão apoiado em data warehouse - um estudo de caso no Estaleiro Atlântico Sul

VIEIRA, Ines Beltrão Gama 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:01Z (GMT). No. of bitstreams: 2 arquivo1896_1.pdf: 1693335 bytes, checksum: 86af81558f5020ac2630511c928a5ca1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Apesar da utilização de sistemas de gestão integrada (ERP) e um alto nível de informatização nas indústrias de grande porte, a maioria delas enfrenta dificuldade na geração de informação útil à tomada de decisão. A falta de instrumentos adequados para tratar os dados produzidos de forma organizada e com qualidade leva os gestores a desenvolverem formas alternativas de geração da informação através da utilização de planilhas eletrônicas. Com o aumento do volume de informações, o processo de manutenção e geração da informação acaba prejudicando a qualidade da informação gerada e conseqüentemente comprometendo o processo de tomada de decisão. Esta dissertação apresenta um processo de criação de um Data Warehouse (DW) para subsidiar os gestores de empresas, particularmente de grande porte, recentemente implantadas ou em implantação na obtenção de informações com qualidade e possibilitar a criação de cenários e tendências através de sistemas de suporte à decisão ou usando ferramentas OLAP a partir da utilização do Microsoft Excel. Considerando que as soluções de caráter puramente tecnológico têm limitações de efetividade, esta dissertação contempla ainda a análise e redefinição de processos organizacionais de geração e manutenção da informação, na implantação do DW. A proposta foi implementada em um caso real no setor financeiro de uma indústria de grande porte da área naval, em fase de implantação, o Estaleiro Atlântico Sul, localizado em Suape Pernambuco
35

Aplikace typu BI v podnikové praxi / BI applications in business use

Janošek, Tomáš January 2009 (has links)
This diploma thesis concerns about Business Intelligence area and its current usage in business practice. The main objective is to analyze the functionality of QlikView application, which represents so called "In memory analysis" products. This work`s output may serve as basis material for making qualified decision, whether QlikView is suitable for particular implementation, or not. Work is divided into two areas. First one is general functionality analysis of QlikView in comparison to MS BI Development Studio tools. The objective of this part is to determine strengths and weaknesses of the application in various situations. In the second part business task solution is demonstrated, using QlikView to turn business requirements into working application. The main benefit of this work is detailed analysis of alternative stream of Business Intelligence applications representative with an estimation of its current market potential.
36

Graph Data Warehousing: Database and Multidimensional Modeling of Graphs

Ghrab, Amine 29 October 2020 (has links) (PDF)
Over the last decade, we have witnessed the emergence of networks in a wide spectrum of application domains, ranging from social and information networks to biological and transportation networks.Graphs provide a solid theoretical foundation for modeling complex networks and revealing valuable insights from both the network structure and the data embedded within its entities.As the business and social environments are getting increasingly complex and interconnected, graphs became a widespread abstraction at the core of the information infrastructure supporting those environments. Modern information systems consist of a large number of sophisticated and interacting business entities that naturally form graphs. In particular, integrating graphs into data warehouse systems received a lot of interest from both academia and industry. Indeed, data warehouses are the central enterprise's information repository and are critical for proper decision support and future planning. Graph warehousing is emerging as the field that extends current information systems with graph management and analytics capabilities. Many approaches were proposed to address the graph data warehousing challenge. These efforts laid the foundation for multidimensional modeling and analysis of graphs. However, most of the proposed approaches partially tackle the graph warehousing problem by being restricted to simple abstractions such as homogeneous graphs or ignoring important topics such as multidimensional integrity constraints and dimension hierarchies.In this dissertation, we conduct a systematic study of the graph data warehousing topic and address the key challenges of database and multidimensional modeling of graphs.We first propose GRAD, a new graph database model tailored for graph warehousing and OLAP analytics. GRAD aims to provide analysts with a set of simple, well-defined, and adaptable conceptual components to support rich semantics and perform complex analysis on graphs.Then, we define the multidimensional concepts for heterogeneous attributed graphs and highlight the new types of measures that could be derived. We project this multidimensional model on property graphs and explore how to extract the candidate multidimensional concepts and build graph cubes. Then, we extend the multidimensional model by integrating GRAD and show how GRAD facilitates multidimensional graph modeling, and enables supporting dimension hierarchies and building new types of OLAP cubes on graphs.Afterward, we present TopoGraph, a graph data warehousing framework that extends current graph warehousing models with new types of cubes and queries combining graph-oriented and OLAP querying. TopoGraph goes beyond traditional OLAP cubes, which process value-based grouping of tables, by considering also the topological properties of the graph elements. And it goes beyond current graph warehousing models by proposing new types of graph cubes. These cubes embed a rich repertoire of measures that could be represented with numerical values, with entire graphs, or as a combination of them.Finally, we propose an architecture of the graph data warehouse and describe its main building blocks and the remaining gaps. The various components of the graph warehousing framework can be effectively leveraged as a foundation for designing and building industry-grade graph data warehouses.We believe that our research in this thesis brings us a step closer towards a better understanding of graph warehousing. Yet, the models and framework we proposed are the tip of the iceberg. The marriage of graph and warehousing technologies will bring many exciting research opportunities, which we briefly discuss at the end of the thesis. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
37

An Automated Data Warehouse

Sharathkumar, Sudhindra 07 August 2003 (has links)
An increasing number of organizations are implementing data warehouses to strengthen their decision support systems. This comes with the challenges of the population and the periodic update of data warehouses. In this thesis, we present a tool that provides users with features to create a warehouse database and transform structures of the source database into structures for the warehouse database. It is highly interactive, easy to use, and hides the underlying complexity of manual SQL code generation from its users. Attributes from source tables can be mapped into new attributes in the warehouse database tables using aggregate functions. Then, relevant data is automatically transported from the source database to the newly created warehouse. The tool thus integrates warehouse creation, schema mapping and data population into a single generalpurpose tool. This tool has been designed as a component of the framework for an automated data warehouse being developed at theComputer Science Department, University of New Orleans. Users of this framework are the database administrators, who will also be able to synchronize updates of multiple copies of the data warehouse. Warehouse images that need to be updated are taken offline and applications that need to access the data warehouse can now access any of the other image warehouses. The Switching Application built into this framework switches between databases in a way that is totally transparent to applications so that they do not realize existence of multiple copies of the data warehouse. In effect, even non-technical users can create, populate and update data warehouses with minimal time and effort.
38

Ambiente de Data Warehousing para integração de dados de saúde pública em âmbito de gestão regional / Data warehousing environment for public healthcare data integration on the regional management scope

Oliva, Samuel Zanferdini 08 June 2015 (has links)
Estudos relacionados ao aperfeiçoamento na gestão de saúde descrevem casos de sucesso com soluções utilizando a implementação de Data Warehouse (DW) como um recurso para facilitar e melhorar a qualidade dos dados para gestão na área de saúde pública. O Mapa de Saúde consiste na descrição da distribuição geográfica de recursos humanos, de ações e de serviços de saúde ofertados pelo SUS e pela iniciativa privada, considerando-se o desempenho aferido a partir dos indicadores de saúde do sistema. A gestão em saúde pública carece de recursos que auxiliem efetivamente os processos de análise e tomada de decisão. O objetivo deste trabalho é contribuir para sanar esta carência, a partir do desenvolvimento de um ferramental de apoio à decisão fundamentado em bases de dados de indicadores de saúde determinados pelo Mapa de Saúde. Este ferramental consiste no planejamento e na implementação de um ambiente de Data Warehousing para integração de bases de dados legadas, oriundas dos documentos gerados pelas Redes Regionais de Atenção à Saúde (RRAS) e coletadas pela Secretaria de Saúde do Estado de São Paulo, fornecendo aos usuários gestores os recursos necessários para a geração de consultas ad-hoc complexas com flexibilidade e rapidez sobre os dados contemplados pelo Mapa de Saúde. As fases do processo de desenvolvimento são sete, a saber: (1) Análise dos dados definidos pelo Mapa de Saúde e disponibilizados pelas fontes públicas; (2) Modelagem e implementação de um banco de dados integrador; (3) Modelagem dimensional e implementação do DW; (4) Criação do processo de extração, transformação e carga; (5) Geração dos metadados e configuração do servidor de análises; (6) Análises; (7) Testes. Como resultado, todas as fases de desenvolvimento do ambiente de Data Warehousing foram cumpridas, bem como o procedimento de avaliação junto aos gestores. De acordo com a avaliação, o sistema cumpre de forma satisfatória o seu objetivo de tomar o processo de gestão de saúde mais efetivo, flexível e produtivo. / Studies related to the enhancement on health management describe instances of success with solutions concerning the Data Warehouse (DW) implementation as a resource to facilitate and improve data quality for management on health public area. The Health Map consists of the geographical description of human resources, actions and services distribution of health offered by the Brazilian National Health System and by the private sector, taking into account the existent installed capacity, the investment, and the performance assessed from system\'s health indicators. The goal of this project is to develop a decision support toolset based on health indicators databases defined by the Health Map. This toolset consists of the planning and the Data Warehousing environrnent implementation for the integration of legacy databases, arising from documents generated by the Regional Health Care Networks and collected by the São Paulo State Health Department, hence providing for users a necessary suite of tools for complex ad-hoc queries generation with flexibility and celerity over the data contemplated by the Health Map. Development process steps are seven, namely: (1) Analysis of data defined by the Health Map and available by public sources; (2) Integrator Database modeling and implementation; (3) DW dimensional modeling; (4) Creation of the extraction, transformation and load process; (5) Metadata generation and analysis server configuration; (6) Analysis; (7) Tests. As a result, the Data Warehousing environment development process steps were completely fulfilled, as well as tests and evaluation steps along with the health managers.
39

GESTÃO DO PROCESSO DE RELIGAÇÃO DE ÁGUA TRATADA NA CIDADE DE GOIÂNIA, UTILIZANDO OLAP E DATA WAREHOUSE. / MANAGEMENT REWIRING PROCESS TREATED WATER IN THE CITY OF GOIÂNIA, USING OLAP AND DATA WAREHOUSE.

Ferreira, André Luiz Nascente 08 March 2013 (has links)
Made available in DSpace on 2016-08-10T10:40:16Z (GMT). No. of bitstreams: 1 ANDRE LUIZ NASCENTE FERREIRA.pdf: 1645123 bytes, checksum: b3c5d896af5d93a8c4c05a04afea9227 (MD5) Previous issue date: 2013-03-08 / Through sanitation, economic, social and public health problems are minimized resulting in a considerable improvement in quality of life. For companies in this line of work can improve their results by establishing quality in the managment of their internal processes. There is a specific process of these companies dealing with Reconnections of Treated Water, which usually occur due to cutting of their supply. This work discusses the concepts of Information Technology (IT) in the intent to use them to improve the management of this process, covering specific theories of Software Engineering, Data Warehouse and OLAP. Overall, the work presents the development and implementation of an OLAP tool to assist in specific control over the time spent in performing the Reconnections of Treated Water in the city of Goiânia, state of Goiás, and analyzes the results of this tool, comparing scenarios before and after its implementation of the same. According to the analysis of the results, we observed improvements on the times of reconnections after the implementation of the developed tool. / Através do saneamento, problemas econômicos, sociais e de saúde pública são amenizados resultando em uma melhoria considerável na qualidade de vida da população. Para que empresas desse ramo de atividade possam desempenhar cada vez melhor suas atribuições é necessário estabelecer qualidade na gestão dos seus processos internos. Existe um processo específico dessas empresas que são indispensáveis para a manutenção da qualidade de vida e disponibilização do saneamento para a população, que se refere às Religações de Água Tratada, que geralmente ocorrem devido ao corte do seu abastecimento. Este trabalho aborda conceitos de Tecnologia da Informação (TI) na intenção de utilizá-los para melhorar a gestão deste processo, abrangendo teorias específicas de Engenharia de Software, OLAP e Data Warehouse. De maneira geral, o trabalho apresenta o desenvolvimento e implantação de uma ferramenta OLAP específica para auxiliar no controle sobre o tempo gasto na execução das Religações de Água Tratada na cidade de Goiânia, no estado de Goiás, e analisa os resultados obtidos por essa ferramenta, comparando cenários antes e após a implantação da mesma. De acordo com a análise dos resultados obtidos, pôde-se observar melhorias em relação ao tempo de execução das religações após a implantação da ferramenta desenvolvida.
40

Data Warehouse utilizando processamento paralelo em ambiente distribuído. / Data Warehouse using parallel programming in an environment distributed.

Ruggiero Júnior, Waldemar 02 July 2007 (has links)
Esse trabalho propõe uma solução de um Data Warehouse distribuído para implementação de um sistema de CRM, Customer Relationship Management, com o objetivo de uso no ambiente bancário possibilitando que ações de relacionamento com clientes sejam planejadas e implementadas. É proposta uma arquitetura para implementação de um Data Warehouse em ambiente distribuído, utilizando programação paralela. Com o aumento no volume de dados armazenados nos Data Warehouse, as arquiteturas tradicionais exigem processadores e sistemas de entrada e saída cada vez mais robustos em termos de desempenho. Isso fica mais bem caracterizado quando são executadas procuras complexas (Ad hoc). A utilização de ambientes distribuídos em conjunto com programação paralela é uma alternativa para redução de custo e aumento de desempenho. É apresentada, aqui, uma proposta de arquitetura de Data Warehouse distribuído, integrado ao uso de programação paralela. / This lecture proposes a solution for Data Warehouse in an distributed environment for implementation of a CRM, Customer Relationship Management in a banking system. It\'s possible to create, plan and implement relationship actions with clients. Architecture is proposed for implementation of a Data Warehouse in a distributed environment, using parallel programming. With the increase of volume of data stored in Data Warehouse, the traditional architectures needs high performance in terms of processors and input and output systems. This kind of problem is well characterized when high complex queries (Ad hoc) is performed. Using distributed environment, together with parallel programming is a good choice to increase the performance and reduce cost. It\'s presented, here, a proposal for architecture of distributed Data Warehouse, integrated with the use of parallel programming.

Page generated in 0.0287 seconds