• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 85
  • 84
  • 46
  • 23
  • 12
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 407
  • 407
  • 105
  • 100
  • 94
  • 74
  • 69
  • 61
  • 61
  • 61
  • 52
  • 49
  • 48
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Texas Principals’ Data Use: Its Relationship to Leadership Style and Student Achievement

Bostic, Robert E. 05 1900 (has links)
This study applies an empirical research method determine whether Texas public school principals’ leadership styles, coupled with their use of real time data in a data warehouse, influenced their leadership ability as measured by student achievement. In today’s world of data rich environments that require campuses and districts to make data-driven decisions, principals find themselves having to organize and categorize data to help their school boards, campuses, and citizenry make informed decisions. Most school principals in Texas have access to data in multiple forms including national and state resources and a multitude of other data reports. A random sample of principals was selected to take the Multi Factor Leadership Questionnaire (MLQ5x) and the Principals Data Use Survey. The MLQ5x measured principals’ leadership styles as transformational, transactional, or passive avoidant. The Principals Data Use Survey measured how principals use data to inform campus decisions on student achievement, shaping the vision of the campus, and designing professional development. Data obtained from the survey were correlated to determine the relationship between principals’ use of data warehouses and their leadership styles on student achievement as measured by the Texas Assessment of Knowledge and Skills. The results yielded significant relationships between student achievement, principals’ leadership styles, and the principals’ data use with a data warehouse. Student achievement scores were highly correlated with the campuses that participated in the study and provided limited differences between those with data warehouses and those without data warehouses.
152

Efficient Querying and Analytics of Semantic Web Data / Interrogation et Analyse Efficiente des Données du Web Sémantique

Roatis, Alexandra 22 September 2014 (has links)
L'utilité et la pertinence des données se trouvent dans l'information qui peut en être extraite.Le taux élevé de publication des données et leur complexité accrue, par exemple dans le cas des données du Web sémantique autodescriptives et hétérogènes, motivent l'intérêt de techniques efficaces pour la manipulation de données.Dans cette thèse, nous utilisons la technologie mature de gestion de données relationnelles pour l'interrogation des données du Web sémantique.La première partie se concentre sur l'apport de réponse aux requêtes sur les données soumises à des contraintes RDFS, stockées dans un système de gestion de données relationnelles. L'information implicite, résultant du raisonnement RDF est nécessaire pour répondre correctement à ces requêtes.Nous introduisons le fragment des bases de données RDF, allant au-delà de l'expressivité des fragments étudiés précédemment.Nous élaborons de nouvelles techniques pour répondre aux requêtes dans ce fragment, en étendant deux approches connues de manipulation de données sémantiques RDF, notamment par saturation de graphes et reformulation de requêtes.En particulier, nous considérons les mises à jour de graphe au sein de chaque approche et proposerons un procédé incrémental de maintenance de saturation. Nous étudions expérimentalement les performances de nos techniques, pouvant être déployées au-dessus de tout moteur de gestion de données relationnelles.La deuxième partie de cette thèse considère les nouvelles exigences pour les outils et méthodes d'analyse de données, issues de l'évolution du Web sémantique.Nous revisitons intégralement les concepts et les outils pour l'analyse de données, dans le contexte de RDF.Nous proposons le premier cadre formel pour l'analyse d'entrepôts RDF. Notamment, nous définissons des schémas analytiques adaptés aux graphes RDF hétérogènes à sémantique riche, des requêtes analytiques qui (au-delà de cubes relationnels) permettent l'interrogation flexible des données et schémas, ainsi que des opérations d'agrégation puissantes de type OLAP. Des expériences sur une plateforme entièrement implémentée démontrent l'intérêt pratique de notre approche. / The utility and relevance of data lie in the information that can be extracted from it.The high rate of data publication and its increased complexity, for instance the heterogeneous, self-describing Semantic Web data, motivate the interest in efficient techniques for data manipulation.In this thesis we leverage mature relational data management technology for querying Semantic Web data.The first part focuses on query answering over data subject to RDFS constraints, stored in relational data management systems. The implicit information resulting from RDF reasoning is required to correctly answer such queries. We introduce the database fragment of RDF, going beyond the expressive power of previously studied fragments. We devise novel techniques for answering Basic Graph Pattern queries within this fragment, exploring the two established approaches for handling RDF semantics, namely graph saturation and query reformulation. In particular, we consider graph updates within each approach and propose a method for incrementally maintaining the saturation. We experimentally study the performance trade-offs of our techniques, which can be deployed on top of any relational data management engine.The second part of this thesis considers the new requirements for data analytics tools and methods emerging from the development of the Semantic Web. We fully redesign, from the bottom up, core data analytics concepts and tools in the context of RDF data. We propose the first complete formal framework for warehouse-style RDF analytics. Notably, we define analytical schemas tailored to heterogeneous, semantic-rich RDF graphs, analytical queries which (beyond relational cubes) allow flexible querying of the data and the schema as well as powerful aggregation and OLAP-style operations. Experiments on a fully-implemented platform demonstrate the practical interest of our approach.
153

Implementace Business Intelligence v poradenské společnosti / Business Intelligence Implementation

Filka, Zdeněk January 2010 (has links)
The main aim of this thesis is the proposal and implementation of the support of decision making with the help of Business Intelligence tools in Audit CI, company limited providing economic and financial consultancy. Business Intelligence tools are applied at the creation of reports which company provides for its clients in terms of its services. On the basis of these reports subsequently suggests recommendations in the field of finance and intradepartmental management. The whole thesis is divided into two parts. In the theoretical part are described fundamental principles of BI solution. Main components of which can be BI solution set up, its place in the architecture of the information system of company, finally fundamental base of the proposal of BI solution. The practical part includes the proposal and implementation of BI solution, from multidimensional analysis through the solution of the data pump, multidimensional cubes, to set up the output in the client application.
154

Business Intelligence v pojišťovnictví / Business Intelligence for Insurance

Havránek, Denis January 2010 (has links)
The thesis focuses on the application of Business Intelligence technologies in the insurance area, aiming concretely at their use in insurance companies. The aim is to introduce and summarize the various processes and information needs that are part of an insurance company and the ways that business intelligence tools can support and improve those processes. To achieve this goal I describe and present the internal functioning of the main processes in insurance companies emphasizing on data examples and the concrete use of BI. Furthermore, I point out two specific examples of Business Intelligence products, which are built and are aimed for the insurance industry. Specifically, I review InsFocus Business Intelligence product from InsFocus Insurance and SAS Business Intelligence from SAS. These two products are reviewed in terms of architecture, functionality and implementation process. At the end of the thesis, I've created a theoretical analysis for a Business Intelligence implementation in a fictitious insurance company. The benefit of this work is to present a comprehensive look at the advantages of Business Intelligence for insurance companies, at some specific products which relate to BI and insurance, and a look at the way that an analysis for a BI insurance solution is made.
155

Utilização de data warehouses para gerenciar dados de redes de sensores sem fio que monitoram polinizadores. / The use of data warehouse to manage data from wireless sensors network that monitor pollinators.

Costa, Ricardo Augusto Gomes da 19 August 2011 (has links)
Este trabalho tem como objetivo a aplicação do conceito de data warehouse para a agregação, gerenciamento e apresentação de dados coletados por meio de Redes de Sensores Sem Fio que monitoram polinizadores. Os experimentos científicos que utilizam tais redes para monitorar habitat geram um volume de dados que precisa ser tratado e analisado, para que possa auxiliar os pesquisadores e demais interessados nas informações. Tais dados, gerenciados e correlacionados com informações de outras fontes, podem contribuir para a tomada de decisões e ainda realimentar outros experimentos. Para a avaliação da proposta, desenvolveu-se um modelo para extração, transformação e normalização dos dados coletados por redes de sensores sem fio, contemplando ainda a carga em data warehouse. Considerou- se no modelo, dados tabulados das redes de sensores sem fio, utilizados em experimentos com abelhas e ainda dados de outras fontes sobre o cultivo de abelhas, importantes para obtenção de visões do data warehouse mais apuradas. O uso de data warehouse aplicado a esse contexto mostrou-se um alternativa viável e útil, pois facilitou a obtenção de dados consolidados sobre o experimento, importante para a tomada de decisão pelos pesquisadores e ainda, diminui o tempo gasto pelos interessados em extrair essas informações, em comparação à tradicional análise em planilhas eletrônicas. / This work aims at applying the concept of data warehouse for data aggregation, management and presentation of data collected by Wireless Sensor Networks that monitor pollinators. Scientific experiments using such networks to monitor habitat generate a volume of data that must be addressed and analyzed, so that they can help researchers and others interested in the information. This data, managed and correlated with information from other sources may contribute to the making and still replenish other experiments. For the evaluation of the proposal, it was developed a model for the extraction, processing and standardization of data collected by wireless sensor networks, covering also the load on the data warehouse. It was considered in the model tabulated data networks of wireless sensors, used in experiments with bees and even data from other sources on the cultivation of bees, important to obtain views of the data warehouse more accurate. The use of data warehouse implemented in this context proved to be a viable and useful, as it facilitated the obtaining of information for decision making by researches and stakeholders and reduces time consumed by stakeholders to extract such information.
156

Efficient Incremental View Maintenance for Data Warehousing

Chen, Songting 20 December 2005 (has links)
"Data warehousing and on-line analytical processing (OLAP) are essential elements for decision support applications. Since most OLAP queries are complex and are often executed over huge volumes of data, the solution in practice is to employ materialized views to improve query performance. One important issue for utilizing materialized views is to maintain the view consistency upon source changes. However, most prior work focused on simple SQL views with distributive aggregate functions, such as SUM and COUNT. This dissertation proposes to consider broader types of views than previous work. First, we study views with complex aggregate functions such as variance and regression. Such statistical functions are of great importance in practice. We propose a workarea function model and design a generic framework to tackle incremental view maintenance and answering queries using views for such functions. We have implemented this approach in a prototype system of IBM DB2. An extensive performance study shows significant performance gains by our techniques. Second, we consider materialized views with PIVOT and UNPIVOT operators. Such operators are widely used for OLAP applications and for querying sparse datasets. We demonstrate that the efficient maintenance of views with PIVOT and UNPIVOT operators requires more generalized operators, called GPIVOT and GUNPIVOT. We formally define and prove the query rewriting rules and propagation rules for such operators. We also design a novel view maintenance framework for applying these rules to obtain an efficient maintenance plan. Extensive performance evaluations reveal the effectiveness of our techniques. Third, materialized views are often integrated from multiple data sources. Due to source autonomicity and dynamicity, concurrency may occur during view maintenance. We propose a generic concurrency control framework to solve such maintenance anomalies. This solution extends previous work in that it solves the anomalies under both source data and schema changes and thus achieves full source autonomicity. We have implemented this technique in a data warehouse prototype developed at WPI. The extensive performance study shows that our techniques put little extra overhead on existing concurrent data update processing techniques while allowing for this new functionality."
157

Processo de KDD para aux?lio ? reconfigura??o de ambientes virtualizados

Winck, Ana Trindade 20 December 2007 (has links)
Made available in DSpace on 2015-04-14T14:48:55Z (GMT). No. of bitstreams: 1 397762.pdf: 1330898 bytes, checksum: 5d70750d721e0c762826c9afce7b0753 (MD5) Previous issue date: 2007-12-20 / Xen ? um paravirtualizador que permite a execu??o simult?nea de diversas m?quinas virtuais (VM), cada uma com seu pr?prio sistema operacional. O consumo dessas VMs se d? em diferentes n?veis de recursos. Com o objetivo de melhorar a performance do Xen, ? interessante verificar qual a melhor aloca??o de recursos para uma dada m?quina Xen, quando v?rias VMs s?o executadas, e quais s?o os respectivos par?metros. Para auxiliar a eventual reconfigura??o de par?metros, este trabalho prop?e um processo completo de descoberta de conhecimento em banco de dados (processo de KDD) para capturar dados de desempenho das VMs, organiz?-los em um modelo anal?tico e aplicar t?cnicas de minera??o para sugerir novos par?metros. Inicialmente s?o obtidos dados de desempenho de cada VM, onde a estrat?gia empregada ? a execu??o de benchmarks sobre cada sistema operacional. Esses dados s?o armazenados em um data warehouse propriamente modelado para armazenar registros de captura de m?tricas de benchmarks. Os dados armazenados s?o convenientemente preparados para serem utilizados por algoritmos de minera??o de dados. Os modelos preditivos gerados podem, ent?o, ser enriquecidos com instru??es em alto n?vel de reconfigura??es. Tais modelos buscam sugerir, dada uma configura??o vigente, qual o melhor conjunto de par?metros de configura??o para modificar o ambiente, e alcan?ar um ganho global de desempenho. O processo proposto foi implementado e testado com um conjunto significativo de execu??es de benchmarks, o que mostrou a qualidade e abrang?ncia da solu??o.
158

Uma abordagem de Data Warehouse para an?lise de processos de desenvolvimento de software

Novello, Taisa Carla 02 March 2006 (has links)
Made available in DSpace on 2015-04-14T14:48:55Z (GMT). No. of bitstreams: 1 399218.pdf: 2830985 bytes, checksum: ffa3a6af739950b3c3732472c58fb2c7 (MD5) Previous issue date: 2006-03-02 / A busca pela qualidade sobre produtos de software se faz cada vez mais presente e necess?ria em organiza??es de software. Neste sentido, essas organiza??es buscam op??es de como medir e analisar quantitativamente a qualidade de seus processos de desenvolvimento. No entanto, organiza??es trabalham com diferentes projetos que, por sua vez, utilizam-se de diversos processos e m?tricas. Partindo desta premissa, tais organiza??es devem buscar alternativas de como prover uma vis?o unificada atrav?s da centraliza??o dos dados dos diferentes projetos e ainda disponibilizar, a seus usu?rios, an?lises quantitativas de seus Processos de Desenvolvimento de Software (PDS) atrav?s de um Programa de M?tricas (PM). Para tal, os modelos de qualidade de software sugerem a constru??o de um reposit?rio organizacional de m?tricas. Contudo, a constru??o de um reposit?rio que atenda as caracter?sticas tanto de suporte ao armazenamento dos dados, como da disponibiliza??o de an?lises aos usu?rios organizacionais n?o mostra-se uma tarefa trivial. Perante esta realidade, este trabalho descreve sucintamente a arquitetura de um ambiente de Data Warehousing que prov? suporte a ado??o de um PM atrav?s do armazenamento de dados resultantes de diferentes PDS em uma base de dados unificada e centralizada. Este volume dedica-se a apresenta??o de dois componentes deste ambiente: o modelo anal?tico, base do Data Warehouse (DW), e o componente de apresenta??o no qual definem-se recursos anal?ticos que facilitam as an?lises realizadas pelos usu?rios organizacionais. O desenvolvimento de um reposit?rio deve considerar tanto as especificidades do PM adotado como as do pr?prio ambiente dos PDS. Quanto ?s m?tricas que comp?em o PM, algumas representam dados n?o aditivos que podem comprometer as an?lises a serem realizadas. J?, quanto ao ambiente, especificidades dos PDS dificultam a defini??o de um ?nico modelo que comporte caracter?sticas distintas. Al?m do armazenamento dos dados, a forma como estes ser?o disponibilizados tamb?m deve ser considerada, uma vez que usu?rios possuem caracter?sticas e necessidades de an?lise distintas. Por conseq??ncia, a complexidade de se desenvolver um modelo e prover recursos de an?lise neste contexto ? muito alta. Desta forma, o modelo anal?tico proposto visa armazenar m?tricas e dados resultantes dos PDS, considerando as necessidades de an?lises e tratando tanto as especificidades do PM adotado como tamb?m as do ambiente do PDS. A defini??o dos recursos anal?ticos propostos, considera usu?rios com diferentes perfis, bem como suas particularidades. Estes recursos visam satisfazer as necessidades de an?lise destes perfis disponibilizando informa??es atrav?s de v?rios n?veis de granularidade e disponibilizando mecanismos que forne?am maior sem?ntica aos dados. Assim, este trabalho prov? uma infraestrutura que suporta dados resultantes de diferentes PDS e an?lises quantitativas que consideram diferentes perfis de usu?rios embasadas em um PM.
159

Uma abordagem orientada a servi?os para captura de m?tricas de processo de desenvolvimento de software

Cunha, Virginia Silva da 26 January 2006 (has links)
Made available in DSpace on 2015-04-14T14:48:59Z (GMT). No. of bitstreams: 1 400971.pdf: 3124182 bytes, checksum: 9b0e8cc34e680328d6c7483573e46652 (MD5) Previous issue date: 2006-01-26 / As organiza??es de software trabalham com diversos projetos de software que se diferenciam tanto pelas ferramentas de gest?o utilizadas quanto pela forma que armazenam e controlam suas m?tricas de acompanhamento. Sendo assim, a inexist?ncia de um reposit?rio centralizado de dados dificulta o acompanhamento dos Processos de Desenvolvimento de Software (PDSs) dessas organiza??es. Uma das etapas mais cruciais do Processo de Descoberta de Conhecimento em Banco de Dados ? o processo de Extra??o, Transforma??o e Carga (ETC), pois este tem como finalidade a transforma??o dos dados brutos, extra?dos de diversas fontes, em informa??es consistentes e de qualidade. Considerando que os PDSs possuem suas especificidades, realizou-se um estudo em um ambiente real e verificou-se que, em termos de ferramentas, s?o utilizadas desde planilhas eletr?nicas (e.g. MS Excel) at? ferramentas para controle da execu??o de atividades de projetos (e.g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Detectou-se ainda o uso de diferentes modelos de PDS, com ciclos de vida variados para projetos distintos, que se traduzem em formas totalmente diversas de registrar estes projetos, ainda que na mesma ferramenta. Outro problema ? que cada uma dessas ferramentas possui um modelo de dados pr?prio, que n?o segue padroniza??es estabelecidas de representa??o de dados, dificultando assim a extra??o desses dados. Por conseq??ncia, o grau de complexidade do processo de ETC, para esta organiza??o, ? muito alto. O modelo proposto neste trabalho tem por m?rito tratar, de forma integrada, dois aspectos: 1) a coleta de dados dos projetos de forma n?o intrusiva, levando em considera??o v?rios tipos de heterogeneidade, 2) a transforma??o e integra??o desses dados, proporcionando uma vis?o organizacional unificada e quantitativa dos projetos. Esses aspectos s?o tratados utilizando uma arquitetura orientada a servi?os. A abordagem orientada a servi?os busca lidar com v?rios tipos de heterogeneidade, tanto do ponto de vista organizacional (e.g. especializa??es do Processo de Software Padr?o da Organiza??o (OSSP Organization s Standard Software Process) que resultam em formas distintas de desenvolvimento e registro de fatos sobre projetos), quanto do ponto de vista t?cnico (e.g. diferentes ferramentas). Essa heterogeneidade ? convenientemente tratada atrav?s de servi?os que atuam como wrappers dos diferentes tipos de extratores, que suporta um ambiente distribu?do de desenvolvimento. Para avalia??o da abordagem proposta, foram desenvolvidos tr?s exemplos, que consideram todas essas quest?es de heterogeneidade: diferentes tipos de projetos, diferentes ciclos de vida, diferentes modelos de gerenciamento e diversas ferramentas de apoio ao acompanhamento.
160

SPDW-Miner : um m?todo para a execu??o de processos de descoberta de conhecimento em bases de dados de projetos de software

Figueira, Fernanda Vieira 31 March 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:12Z (GMT). No. of bitstreams: 1 417649.pdf: 1251849 bytes, checksum: ad607557163d02817ddb83aa46013681 (MD5) Previous issue date: 2008-03-31 / As organiza??es de software buscam, cada vez mais, aprimorar seu Processo de Desenvolvimento de Software (PDS), com o intuito de garantir a qualidade dos seus processos e produtos. Para tanto, elas adotam modelos de maturidade de software. Esses modelos estabelecem que a mensura??o da qualidade seja realizada atrav?s de um programa de m?tricas (PM). As m?tricas definidas devem ser coletadas e armazenadas, permitindo manter um hist?rico organizacional da qualidade. Contudo, apenas mensurar n?o ? o bastante. As informa??es armazenadas devem ser ?teis para apoiar na manuten??o da qualidade do PDS. Para tanto, os n?veis mais altos dos modelos de maturidade sugerem que t?cnicas estat?sticas e anal?ticas sejam utilizadas, com a finalidade de estabelecer o entendimento quantitativo sobre as m?tricas. As t?cnicas de minera??o de dados entram neste contexto como uma abordagem capaz de aumentar a capacidade anal?tica e preditiva sobre as estimativas e o desempenho quantitativo do PDS. Este trabalho prop?e um m?todo para a execu??o do processo de KDD (Knowledge Discovery in Database), denominado de SPDW-Miner, voltado para a predi??o de m?tricas de software. Para tanto, prop?e um processo de KDD que incorpora o ambiente de data warehousing, denominado SPDW+. O m?todo ? composto por uma s?rie de etapas que guiam os usu?rios para o desenvolvimento de todo o processo de KDD. Em especial, em vez de considerar o DW (data warehouse) como um passo intermedi?rio deste processo, o toma como ponto de refer?ncia para a sua execu??o. S?o especificadas todas as etapas que comp?em o processo de KDD, desde o estabelecimento do objetivo de minera??o; a extra??o e prepara??o dos dados; a minera??o at? a otimiza??o dos resultados. A contribui??o est? em estabelecer um processo de KDD em um n?vel de detalhamento bastante confort?vel, permitindo que os usu?rios organizacionais possam adot?-lo como um manual de refer?ncia para a descoberta de conhecimento.

Page generated in 0.0303 seconds