• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 12
  • 11
  • 11
  • 11
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • Tagged with
  • 81
  • 81
  • 28
  • 22
  • 21
  • 20
  • 17
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Projeto de data warehouse dimensional

Mazzola, Irany Salgado January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T00:16:39Z (GMT). No. of bitstreams: 1 184713.pdf: 304047 bytes, checksum: dd66fd6662914e352a967197f0859c9a (MD5) / O objetivo do trabalho é propor um projeto de modelagem de um Data Warehouse Dimensional para uma empresa do ramo varejista, com diversas áreas cujas informações alimentam o sistema de informações apoiado no DW. Um Data Warehouse é uma tecnologia de articulação inacabada, que estrutura e formaliza as informações e os dados de uma organização a partir de uma modelagem que pode vir a ser: a) relacional, ou seja, baseada em um modelo de banco de dados relacional, que atualmente é mais usado em transações on-line; b) dimensional, que pode ser baseado em bancos de dados cujas dimensões dão uma visão operacional e administrativa mais completa e muito menos complexa do todo da organização como sistema informativo. O projeto da modelagem proposto no trabalho tem como objetivo apresentar as várias etapas que compõem a construção de um Data Warehouse, assim como mostrar seus componentes mais utilizados na visualização de informações históricas e não detalhadas para análise on-line. A utilização desta tecnologia permite que dados de valor organizacional de períodos superiores a cinco anos possam ser arquivados, visando a apreciação crítica do comportamento da organização, enquanto se projetam estratégias operacionais e táticas mais eficazes em seu gerenciamento.
12

Uma ferramenta de extração de dados para data warehouse baseada em agentes distribuídos

Gonçalves, Marcio Elias January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T04:00:10Z (GMT). No. of bitstreams: 0 / Esta dissertação tem como objetivo pesquisar uma solução baseada na tecnologia de agentes de software para melhorar o processo de ETL (Extraction, Transformation and Load) em data warehouses. A fundamentação teórica deste trabalho apresenta aspectos fundamentais relativos a data warehouses e agentes de software. Inicialmente são apresentados os conceitos, as propriedades, os componentes e a arquitetura dos data warehouses. Em seguida, os agentes de software são descritos através de suas características, categorias e aplicações, com o intuito de demonstrar a viabilidade do uso desta tecnologia no processo de ETL. Visando descrever o estado da arte, são apresentadas em seguida as características e funcionalidades de algumas das principais ferramentas ETL atualmente disponíveis no mercado. Com base nos fundamentos teóricos e no estado da arte, desenvolvemos a ferramenta de ETL "Data Warehouse Extractor" com o objetivo de demonstrar na prática o uso da tecnologia de agentes de software no processo ETL. A ferramenta proposta apresenta características como alta escalabilidade, processamento distribuído, multi-plataforma e funcionalidades como compactação de dados, criptografia de dados, retransmissão de dados em caso de falhas e repositório de metadados.
13

Estudo mecânico-quântico de compostos de inclusão com moléculas fotocrônicas

Azevedo, Marcelo dos Santos January 2007 (has links)
Orientador : Prof. Dr. Joaquim Delphino da Motta Neto / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Química. Defesa: Curitiba, 31/10/2007 / Inclui referências : f. 71-75 / Área de concentração: Físico-química / Resumo: Nos últimos anos tem havido intensa pesquisa sobre novos compostos que possam ser empregados como dispositivos de armazenamento de dados para uso em Informática. Estes compostos são atraentes para tal uso devido a apresentarem fotocromismo. Neste estudo tentamos utilizar a Mecânica Quântica como instrumento de análise inicial de moléculas fotocrômicas para esta utilização tecnológica, baseados em critérios sugeridos por grandes grupos de pesquisa em fotocrômicos com esta finalidade. Entretanto, sugerimos a utilização como meio de suporte para o fotocrômico de uma rede molecular com características covalentes de estrutura tridimensional com propriedades mecânicas e estruturais bem definidas, assim como a utilização da técnica de excitação de dois fótons em seção cruzada para alterar o estado do composto fotocrômico por excitação. Entre as diversas classes de composto disponíveis na literatura, os dados obtidos sugerem a utilização do 6-nitro-BIPS como o fotocrômico com características mais apropriadas. Neste trabalho foi examinada a espectroscopia de fotocrômicos conhecidos. As geometrias foram otimizadas em nível RM1, e os espectros foram calculados para cada geometria otimizada usando-se o método INDO/S. O aspecto geral dos espectros é correto quanto à ordenação das bandas. Os resultados obtidos são discutidos em detalhe, mostrando que a metodologia empregada é adequada para a descrição do comportamento espectroscópico dos compostos estudados, permitindo a proposição de moléculas inéditas usando-se apenas cálculos de Mecânica Quântica. / Abstract: There has been an intense research on new compounds that can be used as data storage devices for use in Informatics. Such compounds are known to exhibit photochromism. In this work we use Quantum Chemistry as initial analysis tool on a series of photochromic molecules. We review the criteria previously suggested by other research groups. Since the photochromic molecules need a support media, we suggest the employment of a molecular grid with three-dimensional covalent structure. In addition, we envision the use of the cross beam two photon excitation technique to change the state of the photochromic through excitation. Among the several classes of compounds available in the literature, our results suggest the use of 6-nitro-BIPS as this was the photochromic whose calculated properties were the most appropriate. In this work we have examined the spectroscopy of a number of known photochromic compounds. Geometries were optimized at the semiempirical RM1 level, and spectra were calculated for each optimized geometry using the INDO/S method. The calculated spectra reproduce the available experimental data. We discuss the obtained results in detail, showing that the chosen methodology properly describes the spectroscopic behaviour of the studied compounds, allowing for the proposition of new molecules using Quantum Mechanical calculations.
14

Validação de dados em sistemas de data warehouse através de índice de similaridade no processo de ETL e mapeamento de trilhas de auditoria utilizando indexação ontológica / Algorithms using similarity index by ETL process for qualification data systems data warehousing

Campos, Sandir Rodrigues 11 January 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-04-26T13:36:11Z No. of bitstreams: 1 2013_SandirRodriguesCampos.pdf: 3981461 bytes, checksum: 7bd0b77d5e4b497002c8ff6dc7ba7b33 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-05-15T12:18:35Z (GMT) No. of bitstreams: 1 2013_SandirRodriguesCampos.pdf: 3981461 bytes, checksum: 7bd0b77d5e4b497002c8ff6dc7ba7b33 (MD5) / Made available in DSpace on 2013-05-15T12:18:35Z (GMT). No. of bitstreams: 1 2013_SandirRodriguesCampos.pdf: 3981461 bytes, checksum: 7bd0b77d5e4b497002c8ff6dc7ba7b33 (MD5) / Nesta dissertação se propõe uma estratégia de qualificação de dados em ambiente de Extração, Transformação e Carga (ETL) durante o processo de formação do data warehouse (DW). Como meio de realizar esta qualificação de dados apresenta-se o estudo, a aplicação e a análise dos conceitos envolvidos no processo de validação de dados através da utilização de índices de similaridade. Nesta implementação utilizaram-se duas técnicas: a primeira baseada na adaptação do algoritmo coeficiente de Dice e a segunda baseada na distância de Levenshtein. Além da primeira proposta de qualificação dos dados apresenta-se uma metodologia baseada em mapas conceituais que oferece a incorporação de novas regras de negócio a fim de obter um melhor desempenho na análise de dados. Trata-se das indexações ontológicas de trilhas de auditoria, utilizando como estudo de caso para a sua validação o tratamento dos dados da folha de pagamento dos servidores públicos federais com base no SIAPE. O processo de incorporação de novas regras de negócio perpassa por toda a criação do mapa ontológico da trilha, até a sua visualização por meio da utilização de uma ferramenta de Business Intelligence (BI) onde pode ser observada sua importância para os procedimentos realizados pela auditoria do Ministério do Planejamento Orçamento e Gestão (MP). A Ferramenta open source, Pentaho Data Integration (PDI) integrante da suíte Pentaho Open Source Business Intelligence, foi utilizada para implementação das propostas e foram realizados testes funcionais para fins de validação. Neste estudo foi considerado um ambiente de dados reais que se encontram no arquivo espelho do Sistema Integrado de Administração de Recursos Humanos (SIPAE) e que são disponibilizados no âmbito da parceria celebrada entre o Centro de Desenvolvimento Tecnológico da Universidade de Brasília (CDT/UnB) e a Secretaria de Gestão Pública. ______________________________________________________________________________ ABSTRACT / In this master’s thesis, we propose a strategy to data quality in an Extract, Transformation and Load (ETL) environment during the process for creating a Data Warehouse (DW). In order to acquire this data qualification, we present the study, application and analysis of concepts involving the data validation process by using the similarity indexes. In this implementation, two different techniques are used: the first one based on an adaptation of the Dice coefficient and the second one based on the Levenshtein Distance. Besides the first contribution on data qualification, we also present a methodology based on concept maps which provides the incorporation of new business rules for obtaining a better performance for the data analysis. This deals on the ontological indexations of the audit trails, using as a case study the payroll information of the public employees stored on the SIAPE database. The process of incorporation of new business rules goes through the creation of the concept map of the audit trail until its visualization by a Business Intelligence (BI) tool, where the importance of the process for the auditory activities of the Brazilian Ministry of Planning, Budget and Management (MP) can be observed. The open source tool Pentaho Data Integration (PDI), a part of the Suite Pentaho Open Source Business Intelligence, has been used for the implementation of the proposals. Moreover, functional tests using PDI has been performed for validation. In this case study, we considered an environment with real data, which is stored in the mirror file of the Integrated System for Human Resources Administration (SIAPE) and which is available due to the cooperation agreement between the Technological Development Centre (CDT) of the University of Brasilia (UnB) and the Brazilian Secretary for the Public Management.
15

Proposta de um mecanismo de avaliação da confiança de rotas em ambientes de computação ubíqua / Proposal for a reliability evaluation mechanism of routing in ubiquitous computational environments

Serique Júnior, Luiz Fernando Sirotheau 08 April 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-10-18T15:47:53Z No. of bitstreams: 1 2013_LuizFernandoSirotheauSeriqueJunior.pdf: 2181617 bytes, checksum: 8df7aa1a846c1a8f766a5d434f244c14 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-10-21T14:16:48Z (GMT) No. of bitstreams: 1 2013_LuizFernandoSirotheauSeriqueJunior.pdf: 2181617 bytes, checksum: 8df7aa1a846c1a8f766a5d434f244c14 (MD5) / Made available in DSpace on 2013-10-21T14:16:48Z (GMT). No. of bitstreams: 1 2013_LuizFernandoSirotheauSeriqueJunior.pdf: 2181617 bytes, checksum: 8df7aa1a846c1a8f766a5d434f244c14 (MD5) / Os ambientes de computação ubíqua oferecem grandes desafios às tecnologias de redes sem fio. Devido à diversidade de dispositivos e ao dinamismo da topologia desses ambientes, a rede está sujeita a diversos problemas, como a falta de cooperação e inoperância dos nós, o rompimento de enlaces e as limitações de energia e de largura de banda. Logo, os protocolos de roteamento devem estar em constante adaptação e, ainda, devem empregar métricas mais sofisticadas para escolha de rotas bem-sucedidas. Esta tese propõe um mecanismo de avaliação da confiança de rotas que visa aprimorar as decisões de roteamento dos protocolos, melhorando, assim, o desempenho da rede. Para isso, são empregadas métricas multidimensionais de roteamento que envolvem parâmetros de mobilidade, atividade, cooperação e distância das rotas. É usada uma abordagem de aprendizagem de máquina indutiva para assimilar os padrões das rotas bem- sucedidas e gerar um conjunto de regras de decisão envolvendo as métricas. As regras são renovadas periodicamente para garantir a adaptação do mecanismo, caso o comportamento da rede se altere. A validação do mecanismo foi feita com o protocolo Dynamic Source Routing (DSR) por meio de simulador de redes. Foram simulados cenários com nós egoístas, nós em modo \textit{sleep} e bastante mudança topológica com o objetivo de causar anomalias na rede. Os resultados demonstraram que o mecanismo se adaptou com o passar do tempo, criando regras mais rigorosas em ambientes hostis, e melhorou a taxa de pacotes transmitidos com sucesso na rede. Sendo assim, o seu emprego pode beneficiar o processo de roteamento, proporcionando maior desempenho aos ambientes de computação ubíqua. ______________________________________________________________________________ ABSTRACT / Ubiquitous computational environments o er great challenges to the wireless network technology. Owing to the diversity of devices and the dynamism of the topology of these environments, the network is subject to diverse problems, such as the lack of cooperation and inoperability of the nodes, broken links, energy and wideband cons- traints, etc. Ergo, the protocols for routing must be in constant adaptation, and must even employ more sophisticated metrics in choosing successful paths. This thesis pro- poses a reliability evaluation mechanism that aims to perfect the routing decisions of the protocols, thereby improving network performance. For this purpose, multidimen- sional routing metrics are employed, which involve parameters of mobility, activity, cooperation and routing distance. An inductive machine learning approach is used toassimilate the high performance routing patterns and to generate a set of decision ma-king rules involving the metrics. The rules are periodically updated to guarantee theadaptation of the mechanism in case the network alters its behavior. The validation of the mechanism was made with the Dynamic Source Routing (DSR) protocol, using a network simulator. Scenarios were simulated with sel sh nodes, sleep nodes and many topological changes with the objective of causing anomalies on the network. The result demonstrates the mechanism adapted itself over time, creating more rigid rules in hostile environments, and improved the rate of packets transmitted successfully on the network. Thus, using the mechanism may bene t the routing process, providing higher performance in ubiquitous computational environments.
16

Um método de análise de dados temporais para o Cadastro Territorial Multifinalitário Urbano /

Sass, Glaucia Gabriel. January 2013 (has links)
Orientador: Amilton Amorim / Banca: Milton Hirokazu Shimabukuro / Banca: Edmur Azevedo Pugliesi / Banca: Ricardo Rodrigues Ciferri / Banca: Francisco Henrique de Oliveira / Resumo: O Cadastro Territorial Multifinalitário é um instrumento usado para a gestão pública dos municípios e vem sendo cada vez mais utilizado. Com a evolução tecnológica alguns paradigmas vêm sendo alterados, como é o caso dos tradicionais formulários e mapas em papel que evoluíram para ambientes informatizados, otimizando e melhorando em vários aspectos o processo de implantação e manutenção do Cadastro Territorial Multifinalitário. Normalmente, os Sistemas de Informação Geográfica são utilizados nos Cadastros informatizados, gerando dados 2D, em banco de dados convencionais e geográficos, nos quais os dados são sobrescritos no momento da atualização. Todavia, os tradicionais Sistemas de Informação Geográfica, geralmente possuem poucos recursos para a geração de relatórios, análises e gráficos para dar suporte à tomada de decisão que possibilitem a definição de políticas públicas, comparado aos ambientes de Business Intelligence. O objetivo deste trabalho é contribuir com o desenvolvimento de procedimentos adequados para incorporar o aspecto temporal, principalmente, às análises pertinentes à gestão territorial a partir de dados do Cadastro Territorial Multifinalitário Urbano (Cadastro 2D acrescido do tempo). Segundo os modelos cadastrais e de Sistemas de Informação Geográfica os atributos espaciais e temporais fazem parte de seus conceitos. Entretanto, ao longo da história o atributo temporal não foi implantado. Isso ocorreu, em grande parte, pela falta de tecnologias adequadas para tratar a característica temporal. Com a evolução tecnológica ocorrida nas últimas décadas esse cenário vem se transformando. Com isso, conceitos discutidos há décadas estão tornando-se realidade... / Abstract: The Multipurpose Cadastre is a tool used for the public management of the municipalities and it is becoming more widely used. With the technological evolution some paradigms are being modified, such as the traditional paper maps and forms which have evolved to computerized environments, optimizing and improving in many aspects the implementation and maintenance of the Multipurpose Cadastre. Normally, the Geographic Information Systems are used in the computerized Cadastres, generating 2D data, on conventional and geographic databases, in which the data are overwritten at the moment of the update. However, the traditional Geographic Information Systems, generally have few resources for the generation of reports, analysis and graphics to provide support for the decision making which enable the definition of public policies, compared to the environments of Business Intelligence. The aim of this essay is to contribute to the development of appropriate procedures to incorporate the temporal aspect, mainly, to the relevant analyzes to the territorial management, using data from the Urban Multipurpose Cadastre (2D Cadastre plus time)... / Doutor
17

Estratégia para extração, transformação e armazenamento em Data Warehouse ativo baseada em políticas configuráveis de propagação de dados /

Scarpelini Neto, Paulo. January 2013 (has links)
Orientador: Carlos Roberto Valêncio / Banca: José Marcio Machado / Banca: Marilde Terezinha Prado Santos / Resumo: Em arquiteturas de Data Warehouse os dados são integrados periodicamente por meio da execução de processos de Extração, Transformação e Armazenamento - ETA. A atualização desses dados de forma periódica provoca um problema referente à desatualização das informações, uma vez que as ferramentas ETAs são executadas geralmente uma vez ao dia. A crescente necessidade do mundo corporativo por análises sobre dados cada vez mais recentes evidencia a necessidade de arquiteturas DW que possuam um maior grau de atualização. Nesse contexto, surgiram os DW ativos cujo intervalo de tempo entre as execuções do processo ETAs diminuem significativamente. Para suportar o aumento da frequência das atualizações, surge a necessidade de criação de critérios para priorização dos dados a serem transferidos, uma vez que a transferência de todo e qualquer dado inserido nas fontes pode sobrecarregar os sistemas envolvidos. O trabalho proposto consiste na construção de uma estratégia denominada ETA-PoCon, que tem como objetivo a execução do processo ETA em DW ativos. A estratégia distingue-se das existentes, pois possui políticas configuráveis de propagação de informações com base em parâmetros como intervalo de tempo em que a informação deve ser transferida, volume que deve ser propagado e relevância dos dados em relação às informações contidas no repositório. É demonstrado por meio dos experimentos executados que a aplicação da estratégia proporciona uma redução considerável no número de transferência de dados ao DW, uma vez que em todos os resultados a redução no total de atualizações foi superior a 60% / Abstract: In Data Warehouse (DW) architectures data are periodically integrated by means of execution of Extraction, Transformation and Load (ETL) processes which lead to the problem of outdated information. The growing necessity in the corporate world for analysis of constantly renewed data bespeaks of the need for DW architectures with higher level of freshness. In that context, active DWs appeared having a significant reduction of the interval of time between the executions of ETL processes. To support the increased frequency of the refreshment it's necessary to create criteria to prioritise the data to be transferred, since a transfer of all and any data from the sources would overload the systems. This work consists of the construction of a strategy called ETL-PoCon to execute ETL processes in active DWs. The original contribution of this work is to provide a strategy that considerably reduces the quantity of data transfers to active DWs, besides maintaining a satisfactory level of data freshness. Said reduction is obtained by means of configurable policies of data propagation based on parameters such as: the time in which the data must be transferred, the volume to be propagated and the relevance of the data regarding to the information stored in the DW. Experiments have shown that the ETL-PoCon strategy significantly contributes towards a reduction of the overload on the systems involved in the active DW environment, since all results presented a reduction higher than 60% in the amount of DW refreshments / Mestre
18

Confiabilidade e análise fisiológica de um teste isométrico de fadiga muscular localizada /

Souto, Larissa Rodrigues. January 2018 (has links)
Orientador: Carlos Marcelo Pastre / Banca: Fabio Micolis de Azevedo / Banca: Marcelo Papoti / Resumo: Introdução: Testes físicos confiáveis, capazes de identificar uma mudança real no desempenho proveniente de intervenções fisioterapêuticas e/ou do treinamento físico, são de extrema importância para a prescrição de exercícios físicos . Sua aplicação fornece parâmetros individualizados da performance muscular, permitindo uma adequada implementação de cargas durante a dinâmica de treinamento e/ou reabilitação. Além da aplicação de tais testes, avaliar a demanda metabólica durante sua execução é de extrema importância na prática clínica proporcionando parâmetros fisiológicos tanto para a avaliação como para a implementação da dinâmica de cargas. Objetivos: Verificar a confiabilidade intra e inter-avaliadores de um teste isométrico de fadiga muscular (TIFM) do quadríceps do membro inferior dominante realizado no dinamômetro isocinético e analisar a demanda metabólica exigida durante a sua execução. Métodos: O estudo foi dividido em duas etapas, sendo a primeira referente a análise da confiabilidade intra e inter-avaliadores do TIFM e a segunda em relação a análise da sua demanda metabólica. A primeira etapa do estudo consistiu em três sessões: familiarização, teste e reteste. Nessa etapa foi verificada a confiabilidade em relação as variáveis de desempenho tempo, energia e pico de torque (PT). Para a realização da segunda etapa o participante foi submetido a duas sessões: familiarização e teste. Na sessão de teste, houve análise de gases e da concentração sanguínea de lactato par... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Introduction: Reliable physical tests, capable of identifying a real change in performance from physiotherapeutic interventions and/or physical training, are extremely important for the prescription of physical exercises. Its application provides individualized parameters of muscular performance, allowing an adequate implementation of loads during training and/or rehabilitation dynamics. In addition to the application of such tests, evaluating the metabolic demand during its execution is extremely important in clinical practice, providing physiological parameters for both evaluation and implementation of load dynamics. Objectives: To verify the intra- and inter-rater reliability of an isometric muscle fatigue test (IMFT) of the dominant lower limb quadriceps performed on the isokinetic dynamometer and to analyze the metabolic demand required during its execution. Methods: The study was divided in two phases, the first one referring to the analysis of intra- and inter-rater reliability of the IMFT and the second one in relation to the analysis of its metabolic demand. The first phase of the study consisted of three sessions: familiarization, test and retest. In this phase the reliability of the time, energy and peak torque (PT) variables was verified. For the second phase the participant was submitted to two sessions: familiarization and test. In the test session, there was gas analysis and blood lactate concentration to determine the energy contribution and analysis of muscle... (Complete abstract click electronic access below) / Mestre
19

Um método de análise de dados temporais para o Cadastro Territorial Multifinalitário Urbano

Sass, Glaucia Gabriel [UNESP] 06 December 2013 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:47Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-12-06Bitstream added on 2014-08-13T18:00:31Z : No. of bitstreams: 1 000758474.pdf: 4617823 bytes, checksum: 2a5df96c9ef8c24f781d186af6b3a31c (MD5) / O Cadastro Territorial Multifinalitário é um instrumento usado para a gestão pública dos municípios e vem sendo cada vez mais utilizado. Com a evolução tecnológica alguns paradigmas vêm sendo alterados, como é o caso dos tradicionais formulários e mapas em papel que evoluíram para ambientes informatizados, otimizando e melhorando em vários aspectos o processo de implantação e manutenção do Cadastro Territorial Multifinalitário. Normalmente, os Sistemas de Informação Geográfica são utilizados nos Cadastros informatizados, gerando dados 2D, em banco de dados convencionais e geográficos, nos quais os dados são sobrescritos no momento da atualização. Todavia, os tradicionais Sistemas de Informação Geográfica, geralmente possuem poucos recursos para a geração de relatórios, análises e gráficos para dar suporte à tomada de decisão que possibilitem a definição de políticas públicas, comparado aos ambientes de Business Intelligence. O objetivo deste trabalho é contribuir com o desenvolvimento de procedimentos adequados para incorporar o aspecto temporal, principalmente, às análises pertinentes à gestão territorial a partir de dados do Cadastro Territorial Multifinalitário Urbano (Cadastro 2D acrescido do tempo). Segundo os modelos cadastrais e de Sistemas de Informação Geográfica os atributos espaciais e temporais fazem parte de seus conceitos. Entretanto, ao longo da história o atributo temporal não foi implantado. Isso ocorreu, em grande parte, pela falta de tecnologias adequadas para tratar a característica temporal. Com a evolução tecnológica ocorrida nas últimas décadas esse cenário vem se transformando. Com isso, conceitos discutidos há décadas estão tornando-se realidade... / The Multipurpose Cadastre is a tool used for the public management of the municipalities and it is becoming more widely used. With the technological evolution some paradigms are being modified, such as the traditional paper maps and forms which have evolved to computerized environments, optimizing and improving in many aspects the implementation and maintenance of the Multipurpose Cadastre. Normally, the Geographic Information Systems are used in the computerized Cadastres, generating 2D data, on conventional and geographic databases, in which the data are overwritten at the moment of the update. However, the traditional Geographic Information Systems, generally have few resources for the generation of reports, analysis and graphics to provide support for the decision making which enable the definition of public policies, compared to the environments of Business Intelligence. The aim of this essay is to contribute to the development of appropriate procedures to incorporate the temporal aspect, mainly, to the relevant analyzes to the territorial management, using data from the Urban Multipurpose Cadastre (2D Cadastre plus time)...
20

Definição de um ambiente data warehouse em uma instituição de ensino superior

Di Domenico, Jorge Antonio January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico / Made available in DSpace on 2012-10-18T04:53:39Z (GMT). No. of bitstreams: 1 179215.pdf: 1097488 bytes, checksum: 3fdeea9b12623d6d8c8b9a719b542810 (MD5) / O objetivo deste trabalho é propor uma metodologia para o desenvolvimento de um ambiente Data Warehouse, voltado a uma Instituição de Ensino Superior (IES). A proposta tem bases no estudo das diferentes formas organizacionais de IES e na identificação dos respectivos níveis decisórios. O resultado do trabalho é a proposta de uma metodologia de implantação do Data Warehouse da IES, segundo a arquitetura bottom-up de construção de Data Marts, centrada nos diferentes níveis organizacionais e decisórios da empresa. A metodologia foi aplicada na Universidade do Oeste de Santa Catarina - UNOESC Chapecó, resultando em um modelo de DW para a instituição, testado em um sistema OLAP sobre os processos de trancamento e conceitos por cursos da universidade

Page generated in 0.1134 seconds