• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 4
  • 4
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 28
  • 28
  • 28
  • 27
  • 15
  • 8
  • 7
  • 7
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Análise estatística na conciliação de receita de público e despesa de uso de redes em operadora de Telecom / Statistical analysis in the reconciliation of public revenue and expenditure for use in network provider of Telecom

Costa, Sílvio Roberto da 31 August 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2010. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-04-20T13:51:31Z No. of bitstreams: 1 2010_SilvioRobertoCosta.pdf: 4742636 bytes, checksum: 10e36d7a215cbd23d83a150a0e75c105 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2011-04-29T00:41:04Z (GMT) No. of bitstreams: 1 2010_SilvioRobertoCosta.pdf: 4742636 bytes, checksum: 10e36d7a215cbd23d83a150a0e75c105 (MD5) / Made available in DSpace on 2011-04-29T00:41:04Z (GMT). No. of bitstreams: 1 2010_SilvioRobertoCosta.pdf: 4742636 bytes, checksum: 10e36d7a215cbd23d83a150a0e75c105 (MD5) / A mensuração correta do alinhamento entre as receitas e despesas das operadoras de telefonia tem importância fundamental para o setor de telecomunicações. Os processos que compõem a cadeia da receita estão sujeitos a presença de variações, que podem comprometer o resultado financeiro das empresas, necessitando periodicamente de investigações analíticas para identificação de causas especiais e elucidação de diversos problemas. Considerando esses fatores que são comuns ao ciclo de faturamento das operadoras, os métodos estatísticos seriam indicadas para identificar e eliminar causas especiais de variação e outras condições operacionais anormais, colocando os processos da cadeia da receita sob controle estatístico. Para esse propósito, foi desenvolvido um modelo que visa avaliar o desempenho entre o tráfego de interconexão de redes e de tarifação de público. Toda a avaliação do tráfego será feita através do SAS (Statistical Analysis Systems), um software de inteligência analítica composto por um conjunto integrado de gestão de dados e de ferramentas de apoio à decisão. Neste software serão carregados os dados das aplicações transacionais de tráfego e processadas as análises estatísticas das medidas realizadas nas unidades experimentais, avaliando a existência ou não do descolamento de tráfego entre receita de público e despesas de interconexão. _________________________________________________________________________________ ABSTRACT / Gauging the difference between revenue and cost in telecommunications is quite relevant for the financial sustainability and operational efficiency. The process in relation to the revenue chain is highly susceptible to variations which can affect the company‟s figures. This operational process should be monitory close and periodically in order to recognize the main issues. Analytical monitoring can describe causes and consequences in relation to these issues, highlighting the relevant problems within the revenue chain. Statistical methods are a common used tool in the industry to monitor variations in distinct sort of operational chains. It can be deploy to billing cycles in order to recognize and classify variations causes and therefore discard normal and expected conditions, setting up the revenue process into a statistical control. A specific analytical model was developed aiming to evaluate the performance between the interconnection traffic and the consuming rates. All assessments were performed by using SAS software. In this particular case study, data with respect to traffic is loaded into the model which proceeds analytical evaluation due to the experimental units previously defined. The main purpose of these analyses is highlight and depicts the differences among the revenue from end-consumers and interconnection costs. The difference between them should expect to fit in a particular range so the revenue chain can be considered in a proper performance.
12

AtoM, normas e padrões para a descrição e representação de informações e objetos digitais em ambientes digitais Web /

Silva, Talita Cristina da. January 2017 (has links)
Orientador: Maria José Vicentini Jorente / Banca: Natália Bolfarini Tognoli / Banca: Rodrigo Eduardo Botelho Francisco / Resumo: Diante das transformações, das tecnologias e a mudança no comportamento dos internautas, os arquivos e profissionais da informação encontram-se com novos desafios, quanto à busca, a recuperação e o acesso à informação. Neste discutiu-se sobre os temas: descrição arquivística, normalização em arquivos, criação e implantação dos padrões e normas, com vistas à representação da informação; e o AtoM, como resultado destes esforços, que é um software de descrição Arquivística gerenciado pelo grupo Access to Memory. O AtoM registra, gerencia e apresenta via Web descrições de documentos. O sistema de descrição foi criado para ser aplicado em instituições de arquivo. Buscou-se, então, realizar a análise de softwares para representação em ambiente Web. Investigou-se o tema "Representação da Informação Arquivística na Web 2.0", com o intuito de compreender o processo de organização (classificação e descrição) na tradição da biblioteconomia e arquivística. Também foram estudadas e comparadas as normas de descrição nacionais e internacionais. Por fim, realizou-se um levantamento bibliográfico dos autores que versam sobre o tema na área da Ciência da Informação. Esta pesquisa se justifica pela necessidade de padrões em arquivos e pela possibilidade de intercâmbio de informação e interoperabilidade que o AtoM tem para com outros sistemas, pois foi desenvolvido especificamente para descrição e em conformidade com as normas de descrição arquivística. A metodologia utilizada nessa investigação... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Faced with the changes of technologies and in the behavior of Internet users, archives and information professionals experience new challenges in research, retrieval and access to information. Here some of the subjects that were discussed: archives' description, archives' normalization, creation and implementation of the standards and norms in order to represent the information; and AtoM. The result of these efforts: AtoM, it is archival description software managed by the Access to Memory group. AtoM records, manages and displays document descriptions via the Web. The description system was created to be applied in archival institutions. Therefore, it was aimed analyzing the software in Web environment. In order to understand the process organization (classification and description) in the librarianship and archival tradition, the topic "Representation of Archival Information in Web 2.0" was researched. It was also studied and compared national and international standards of description. Finally, a bibliographic survey of the authors on the subject in the area of Information Science was carried out. This research is justified by the need for standards in archives and by the possibility of information exchange and interoperability that AtoM has with other systems. The reason is that AtoM was developed specifically for description and in accordance with the norms of archival description. The methodology used in this research was the four pole method that is composed of the epi... (Complete abstract click electronic access below) / Mestre
13

Diferenciação de fluxos sem manutenção de estados em roteadores

Mussi, Salim Suhet 15 December 2011 (has links)
Made available in DSpace on 2016-12-23T14:07:27Z (GMT). No. of bitstreams: 1 Salim Suhet Mussi.pdf: 1598029 bytes, checksum: 726434eb3557035d6aedf33b981d9307 (MD5) Previous issue date: 2011-12-15 / O tráfego da Internet é dominado por transações de curta duração. Todavia, apesar da grande quantidade, os fluxos curtos são responsáveis por uma pequena porção da carga total dos enlaces e ainda disputam, injustamente, recursos com conexões que transportam grandes volumes de dados. O desempenho de sessões TCP (Transmission Control Protocol) operando em fase de slow-start ou em regime de pequenas janelas sofre de forma significativa ao compartilhar buffers e capacidade dos enlaces com grandes rajadas oriundas de sessões na fase de controle de congestionamento. Uma forma de amenizar essa desigualdade é tratar diferenciadamente fluxos curtos e longos. Neste trabalho estudamos, desenvolvemos e implementamos técnicas sem manutenção de estados (stateless) de forma a atingirmos um bom compromisso entre eficiência e complexidade na diferenciação de serviço entre fluxos curtos e longos. Do ponto de vista metodológico, optamos pela implementação experimental sobre roteadores físicos e utilizando tráfego real. Esta escolha trouxe maior confiabilidade aos resultados, uma vez que eles não ficaram atrelados à qualidade dos modelos de simuladores, os quais são frequentemente simplórios demais para corresponder ao real comportamento de uma rede. Para a implementação de roteadores que viabilizassem a alteração dos esquemas de tratamento de pacotes utilizou-se a plataforma Click. Em relação à metodologia de testes, propomos um ambiente controlado que possibilita comparações entre diferentes técnicas sob tráfego real, oriundo de um backup de um hard-disk via FTP (File Transfer Protocol). Dentre as técnicas de diferenciação de fluxos, apresentamos, no conhecimento dos autores, a primeira implementação física de um roteador com o mecanismo RuN2C (Running Number 2 Class). Trazemos ainda a contribuição da investigação de seu desempenho quando diferentes técnicas de escalonamento são aplicadas. Propomos ainda um novo método de diferenciação de fluxos, denominado RAFLE (Random Assorter of Flow LEngths), que não exige nenhuma alteração de protocolos hoje existentes, o que facilitaria sua implantação em ambiente em operação. A classificação de pacotes pertencentes a fluxos longos e curtos é inferida a partir de uma pequena tabela com as informações de identificação dos últimos pacotes encaminhados, não sendo necessário manter estados dos fluxos ativos. Como resultados relevantes podemos destacar que o desempenho do RAFLE supera o RUN2C e aproxima-se bastante do desempenho da diferenciação com conhecimento completo dos fluxos (full-state) em diferentes cenários de tráfego. / Internet traffic is dominated by short data transfers. However, short flows account for a small portion of the total link capacity. In addition, short flows unfairly compete for resources with connections that carry large volumes of data. The performance of TCP (Transmission Control Protocol) operating at slow-start phase (or under the small transmission windows) are impaired when sharing buffers and with long bursts coming from sessions at the stage of congestion control. One way to mitigate this inequality is to treat short and long flows differently. In this work we investigate stateless techniques in order to achieve a good compromise between efficiency and complexity of service differentiation between short and long flows. From the methodological point of view, we adopt an experimental approach using PC-based routers under real traffic. The goal is to achieve trustworthy to the results, since they are not tied to particular features of simulation models, which are often overlook the actual behavior of a network. We use the Click platform for routers implementation. The evaluation methodology for the different mechanisms is based on a controlled environment considering a backup of a hard-disk via FTP (File Transfer Protocol). We present what is, in the authors best knowledge, the first physical implementation of a router with the RUN2C mechanism (Running Class Number 2). In addition, we investigate its performance for different scheduling techniques. Our main contribution is a new method for flow differentiation called RAFLE (Random Lengths Assorter of Flow). In contrast with RuN2C, RAFLE requires no change of current network protocols. The classification of packets belonging to long and short flows is inferred from a small table with identification information of the last forwarded packets, but with no need for keeping the full flow states. Results show that RAFLE s performance exceeds RUN2C s. Moreover, RAFLE is able to virtually reach the performance of systems with full knowledge flows (full-state) in different traffic scenarios.
14

Interconexão de redes bluetooth : uma aplicação em telemetria de serviços de distribuição de energia / Odair Perianêz Ferline ; orientador, Marcelo E. Pellenz, co-orientador, Luiz A. de Paula Lima Jr.

Ferline, Odair Perianêz January 2003 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2003 / Inclui bibliografias / As companhias de distribuição de energia elétrica no Brasil vêm enfrentando grandes desafios. Atropeladas pela crise de energia pela qual o país passou recentemente e pelas novas regras de atuação decorrentes do processo de privatização, elas estão atualm / The electric energy distribution companies are facing great challenges, especially in Brazil. Run over by the crisis of energy by which the country has recently gone through and because of the new current rules of acting resulting from the privatization p
15

Modelo nacional de interoperabilidade do poder judiciário: aperfeiçoamento quanto à segurança e interoperabilidade dos dados

Silveira, Lucas January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-10-20T03:10:25Z (GMT). No. of bitstreams: 1 334836.pdf: 744315 bytes, checksum: 3bb51fae839a2a57373488b0da3e5b65 (MD5) Previous issue date: 2015 / Esta dissertação de mestrado apresenta como resultado uma análise crítica para o aperfeiçoamento quanto à segurança e a interoperabilidade dos dados do Modelo Nacional de Interoperabilidade do Poder Judiciário Brasileiro (MNI) (CNJ, 2013). Uma breve apresentação da estrutura judiciária brasileira é realizada, expondo a importância da interoperabilidade nesse contexto. Outros modelos de interoperabilidade de dados em utilização no Brasil e no mundo, como o e-PING e o e-CODEX, são sucintamente exibidos. Os resultados apresentados neste trabalho são baseados no Padrão Brasileiro de Assinatura Digital (ITI, 2012), no framework de Ray (2011), e no EuropeanInteroperability Framework (EIF) (ISA, 2010). Através do framework de Ray, identificam-se problemas no MNI como: a falta de definição de políticas básicas, de gerenciamento e de conformidade, ausência de um ciclo de vida para gestão do modelo, entre outros. O PBAD é apresentado e utilizado como meio de agregar mais segurança ao MNI, sendo indicado neste trabalho como ferramenta obrigatória para controle de acesso do MNI e dos documentos eletrônicos, para prover interoperabilidade, não-repúdio, unicidade, temporalidade, integridade e autenticidade aos dados. Além disto, o trabalho determina o nível de interoperabilidade que o MNI atinge, conforme a categorização de interoperabilidade definida pelo EuropeanInteroperability Framework (EIF) (ISA, 2010). Soluções para que níveis mais altos de interoperabilidade possam ser atingidos são apresentadas, além da identificação de problemas em níveis mais básicos, como falta de definição de protocolos de comunicação para o nível de interoperabilidade técnica.<br> / Abstract : This dissertation presents as a result an assessment on the improvementof security and interoperability for the Brazilian e-Justice Interoperability Model (MNI) (CNJ, 2013). A brief presentation of the judicial structure in Brazil is presented with a focus onhighlighting the importance of interoperability in this context.Additionally,other data interoperability models that are used in Brazil and around the world, such as e-PING and e-CODEX, are introduced in this text.The results are based on the Digital Signature BrazilianStandard (ITI, 2012), considering Ray?s framework (2011), and the European Interoperability Framework (EIF) (ISA, 2010). Through Ray?s framework, it was observed a lack of basic, management, and compliance policies in the MNI, as well as a lack of a life cycle model, among other improvement opportunities. The PBAD is presented and used as a way to add more security to the MNI and it is indicated in this paper as a mandatory tool for MNI access control and to provide interoperability, non-repudiation, uniqueness, timeliness, integrity, and authenticity to the electronic documents. In addition, this paper determines the level of interoperability that the MNI reaches, through the EIF interoperability categorization. It also presents solutions to achieve higherinteroperability levels, and it identifies problems in the lower levels, such as a lack of communication protocols for the level of technical interoperability.
16

SQLToKeyNoSQL

Schreiner, Geomar André January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-09-20T04:42:01Z (GMT). No. of bitstreams: 1 339451.pdf: 2281831 bytes, checksum: 129da9c13a181f4ca28c9822b6e994ca (MD5) Previous issue date: 2016 / Diversas aplicações atualmente produzem e manipulam um grande volume de dados, denominados Big Data. Bancos de dados tradicionais, em particular, os Bancos de Dados Relacionais (BDRs), não são adequados ao gerenciamento de Big Data. Devido a isso, novos modelos de dados têm sido propostos para manipular grandes massas de dados, enfatizando a escalabilidade e a disponibilidade. A maioria destes modelos de dados pertence a uma nova categoria de gerenciadores de dados denominados BDs NoSQL. Entretanto, BDs NoSQL não são compatíveis, em geral, com o padrão SQL e desenvolvedores que utilizam BDRs necessitam aprender novos modelos de dados e interfaces de acesso para produzirem aplicações baseadas em Big Data. Para lidar com esta problemática, abordagens têm sido propostas para o suporte da interoperabilidade entre BDRs e BDs NoSQL. Poucas destas abordagens tem a habilidade de suportar mais que um BD alvo, sendo a maioria restrita a um BD NoSQL. Neste contexto, este trabalho propõe uma abordagem para acesso via SQL para dados armazenados em um SGBD NoSQL baseado em Chave de acesso (chave-valor, orientado a documentos ou orientado a colunas). Para isso, é proposto um modelo canônico hierárquico intermediário para o qual é traduzido o modelo Relacional. Este modelo hierárquico pode ser traduzido para modelos de dados NoSQL orientado a colunas, orientado a documentos ou chave-valor. A tradução das instruções SQL é feita para um conjunto intermediário de métodos baseado na API REST, que são traduzidos para a linguagem de acesso dos BDs NoSQL. Além disso, a abordagem possibilita o processamento de junções que não são suportadas pelos BDs NoSQL. Experimentos demostram que a solução proposta é promissora, possuindo um overhead não proibitivo e sendo competitiva com ferramentas existentes.<br> / Abstract : A lot of applications produce and manipulate today a large volume of data, the so-called Big Data. Traditional databases, like relational databases (RDB), are not suitable to Big Data management. In order to deal with this problem, a new category of DB has been proposed, been most of them called NoSQL DB. NoSQL DB have different data models, as well as different access methods which are not usually compatible with the RDB SQL standard. In this context, approaches have been proposed for providing mapping of RDB schemata and operations to equivalent ones in NoSQL DB to deal with large relational data sets in the cloud, focusing on scalability and availability. However, these approaches map relational DB only to a single NoSQL data model and, sometimes, to a specific NoSQL DB product. This work presents SQLToKeyNoSQL, a layer able to translate, in a transparent way, RDB schemata as well as SQL instructions to equivalent schemata and access methods for key-oriented NoSQL DB, i.e., databases based on document-oriented, key-value and column-oriented data models. We propose a hierarchical data model that abstracts the key-oriented NoSQL data models, and use it as an intermediate data model for mapping the relational data model to these NoSQL data models. Besides, we propose the translation of a subset of SQL instructions to an intermediate set of access methods based on the REST API, which are further translated, in a simple way, to the access methods of the key-oriented NoSQL DB. Our solution also supports join queries, which is not a NoSQL DB capability. An experimental evaluation demonstrates that our approach is promising, since the introduced overhead with our layer is not prohibitive.
17

Sensoriamento de espectro para redes de rádios cognitivos em canais sem fio sob desvane imentos generalizados

Chaves, Diogo Sanders Starling 07 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-10-21T15:06:13Z No. of bitstreams: 1 2014_DiogoSandersStaruingChaves.pdf: 1166698 bytes, checksum: 65390bf55c59c293c1920377bef34e0a (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2014-11-18T16:06:22Z (GMT) No. of bitstreams: 1 2014_DiogoSandersStaruingChaves.pdf: 1166698 bytes, checksum: 65390bf55c59c293c1920377bef34e0a (MD5) / Made available in DSpace on 2014-11-18T16:06:22Z (GMT). No. of bitstreams: 1 2014_DiogoSandersStaruingChaves.pdf: 1166698 bytes, checksum: 65390bf55c59c293c1920377bef34e0a (MD5) / Este trabalho apresenta um estudo de sistemas de rádiosognitivos operando por meio de sensoriamento de espetro emanais em desvaneimento κ-μ e η-μ. Nesteontexto, aborda-se um esquema baseado em detecção de energia, em que é possível obter formulações e analisar as caraterísticas de operação do reeptor (ROC, do inglês reeiver operationharateristis). Nasurvas geradasé possível visualizar a probabilidade de não detecção (Pm, do inglês missing detetion probability)pela probabilidade de falso-alarme (Pf , do inglês false-alarm probability). Diversos cenários são analisados, nos quais os parâmetros de desvanecimento de cada função de distribuição são variados para representar desde um cenário de desvanecimento suave até um cenário de desvanecimento severo. Juntamente com as ROC sob desvanecimentos modelados pelas distribuições κ-μ e η-μ,são geradas ROCs para ambientes em desvanecimento Rayleigh, para efeito de comparação. Em seguida, é discutido o sensoriamento espetral cooperativo, em que é investigado o desempenho dos sistemas rádioognitivo quando se utiliza um número n de usuários colaboradores. Novamente,para estes esquemas colaborativos, são analisa dos cenários sob desvanecimentos típicos e severos.Características de operação do receptor são apresentadas para diferentes quantidades de usuários colaborativos. Visando demonstrar os ganhos obtidos em um cenário cooperativo, para um número pequeno de colaboradores até um número grande, novas formulações e análises das características de operação do receptor são geradas sendo possível visualizar a probabilidade de não detecção em relação à razão sinal-ruído média para cada grupo de n colaboradores. ______________________________________________________________________________ ABSTRACT / Theurrent work presents a detailed study on spectrum sensing system under κ-μ and η-μ fadinghannels. For the spectrum sensing, the approah taken was the use of energy detetion, wherewe were able to generateomplementary reeiver operatingharateristis (ROC)urves, whihplot the missing detetion probability (Pm) versus the false-alarm probability (Pf ). Several sena-rios were detailed, where the fading parameters of eah distribution were diversied to representa typial fading senario until a severe fading. Along with the ROCurves of the κ-μ and η-μdistributions, curves were generated for theases of Rayleigh fadinghannel foromparison. Next,the disussion onooperative spetrum sensing was also analyzed, investigation on the behaviorofomplementary reeiver operatingharateristisurves when a number of nooperative usersis used. Again for theooperative spetrum sensing, senarios under a typial and severe fadingonditions werereated. Complementary ROCurves are presented for diferent numbers ofoo-perative users. In order to demonstrate the gain in aollaborative senario, from a small number of users to a large number of users, ROCurves were generated where itan be seen the missing probability versus the average signal-to-noise ratio for eah group of n collaboractive users.
18

Nova proposta tecnológica de aquisição e armazenamento da informação geológica

Cipullo, Rodrigo Ávila 12 December 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-10-30T13:53:15Z No. of bitstreams: 1 2012_RodrigoAvilaCipullo.pdf: 80336749 bytes, checksum: 6297a565bc3107b61db7983dc9c4c385 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-10-31T10:26:43Z (GMT) No. of bitstreams: 1 2012_RodrigoAvilaCipullo.pdf: 80336749 bytes, checksum: 6297a565bc3107b61db7983dc9c4c385 (MD5) / Made available in DSpace on 2012-10-31T10:26:43Z (GMT). No. of bitstreams: 1 2012_RodrigoAvilaCipullo.pdf: 80336749 bytes, checksum: 6297a565bc3107b61db7983dc9c4c385 (MD5) / As geociências estão entre as ciências que mais produzem dados. No entanto, ainda não existem grandes trabalhos e iniciativas que consigam suprir a carência de modelos de armazenamento de dados e sua disponibilização para o território nacional. Dentro deste contexto, esse trabalho se propõe a construir e implementar um modelo de banco de dados geológico geoespacial, bem como o desenvolvimento de um sistema de entrada, manipulação e disponibilização de dados geológicos. Para a modelagem do banco de dados utilizou-se o conceito do OMT-G (Object Modeling Technique for Geographic Applications) tendo sido utilizado o software StarUML (http://staruml.sourceforge.net) para a geração do modelo conceitual. Toda conceituação e padronização adotadas no modelo conceitual do banco de dados estão baseadas na segunda versão do documento ‘Especificações Técnicos para Estruturação de Dados Geoespaciais Vetoriais’, produzido pela comissão Nacional de Cartografia (CONCAR). Este modelo de banco de dados geográfico foi implementado no Sistema Gerenciador de Banco de Dados Postgresql (com extensão Postgis), considerando as premissas estabelecidas pela INDE (Infraestrutura Nacional de Dados Espaciais) e pela Comissão de Gestão das Informações Geológicas (CMI - Commission for the Management and Application of Geoscience Information) da União Internacional de Ciências Geológicas (IUGS - International Union of Geological Sciences - http://www.cgi-iugs.org/tech_collaboration/thesaurus.html) para os requitos referente ao glossário e normatização das informações. O sistema para o gerenciamento de projetos de mapeamento geológico, denominado GEOTOOL - Gerenciamento de dados Geológicos - é um aplicativo que roda em ambiente web e é capaz de gerenciar desde a criação de um novo projeto até o fechamento do mapa geológico. Para a aquisição de dados em campo foi desenvolvida uma caderneta de campo digital capaz de coletar diversas informações relevantes de forma automatizada e sincronizá-las ao banco de dados do projeto de forma simples. Este trabalho também apresenta uma proposta de processo a ser utilizada para obter sucesso com o banco de dados e as ferramentas desenvolvidas. Dessa forma o processo esboça todas as etapas de aquisição, manipulação e publicação de dados indicando as melhores práticas para obter sucesso. ______________________________________________________________________________ ABSTRACT / The Geosciences are recognized as one of the scientific areas that generate the greatest amount of data. However, there are, as of yet, no comprehensive studies, nor initiatives that have been able to make up for the lack of data storage and availability models on a national scale. In light of this situation, the present study intends to construct and implement a geological geospatial database, as well as develop entrance, manipulation and availability systems for geological data. With regard to the database modeling, the Object Modeling Technique for Geographic Applications (OMT-G) was used, as well as the StarUML software (http://staruml.sourceforge.net) for generating the conceptual model. All of the concepts and standards adopted in the conceptual model of the database were founded on the second version of the document ‘Technical Specifications for the Structuring of Geospatial Vector Data’, produced by the National Commission of Cartography (CONCAR). This geographic database model was implemented in the System Manager of Postgresql Database (with a Postgis extension), taking into account the premises established by the National Infrastructure of Spatial Data (INDE)and on the Commission for the Management and Application of Geoscience Information (CMI) of the International Union of Geological Sciences – (http://www.cgi- iugs.org/tech_collaboration/thesaurus.html) for the requirements regarding the information glossary and norms. The system to manage the geological mapping projects, denominated GEOTOOL (Geological Data Management), is a device that runs in a web environment and is capable of managing, from the inception of the creation of a new project to the close of the geological map. For the acquisition of field data, a digital field notebook was developed with the capacity to collect diverse relevant information, which is automatically and easily synchronized to the project database. This study also presents a process proposal for appropriate use of the database and the tools developed, outlining all the steps necessary for data acquisition, manipulation and publication, indicating the best practices for successful use.
19

Exploração e análise de dados coletados pelo sistema integrado de monitoramento ambiental utilizando técnicas de visual analytics /

Carmo, Alisson Fernando Coelho do. January 2015 (has links)
Orientador: Milton Hirokazu Shimabukuro / Coorientador: Enner Herenio de Alcântara / Banca: Ramon Morais de Freitas / Banca: Maria de Lourdes Trindade Galo / Resumo: O processo de intervenção do homem no meio ambiente tem grande influência sobre as alterações que nele ocorrem. É importante monitorar características e fenômenos envolvidos neste processo, visando identificar, interpretar e controlar tais alterações. A identificação de fenômenos que variam com rapidez exige dados em alta resolução temporal, fato que pode prejudicar a utilização de Sensoriamento Remoto, pois a frequência de obtenção de dados de uma mesma região pode ser insuficiente. Por outro lado, o estudo de alterações causadas por processos lentos é realizado mediante a análise de longas séries históricas, construídas por meio de aquisições periódicas de dados por um longo período, podendo inviabilizar metodologias de coletas em campo, em razão de dificuldades associadas à logística para execução de tais coletas. O desenvolvimento tecnológico tem impulsionado a utilização de sensores para a realização de coletas automatizadas e periódicas de dados, como o Sistema Integrado de Monitoramento Ambiental (SIMA), cujo conjunto de dados é utilizado neste trabalho. O projeto SIMA é composto por um conjunto de plataformas fundeadas em reservatórios hidrelétricos, capazes de coletar automática e periodicamente atributos do ar e da água. No entanto, podem existir falhas no conjunto de dados causadas por problemas na coleta, na transmissão ou no armazenamento dos registros. Em razão da existência de grande quantidade de dados temporais multivariados e pela possibilidade de falhas, a exploração visual e interativa auxilia na caracterização do conjunto. Neste trabalho, foram investigadas abordagens com a aplicação de técnicas de Visualização de Informação na extração de características do conjunto de dados, as quais impactam a qualidade da análise dos fenômenos associados... / Abstract: The man intervention process in the environment has huge influence on the changes that occur in it. It is important monitoring the features and phenomena involved in this process to identify, interpret and control such changes. The identification of fast varying phenomena requires a high temporal resolution dataset, what can constrain remote sensing utilization, due to insufficient data collection rate. On the other hand, the analysis of changes caused by slow processes is done from long historical records, which come from a periodic data acquisition during a long period of time, which can make traditional technique, such as fieldwork campaings, an inappropriate approach due to the rate of collection. The technological development has been raising the use of automated sensors to collect data, such as the Environmental Monitoring Integrated System (Sistema Integrado de Monitoramento Ambiental, SIMA) that is the source of dataset used in this project. In the SIMA project, a set of platforms, which are capable of collecting air and water attributes automatically and periodically, are anchored to hydroelectric power dams. However, the dataset may be incomplete because of problems in one or more of the following phases: acquisition, transmission or storing. Due to huge amount of multivariate temporal data and the lack of dataset in some cases, the visual and interactive exploration can support the task of its characterization. In this project, Information Visualization techniques are applied to dataset characterization process, searching for features that may affect the quality of the associated phenomena analysis. Standards for data modelling and availability, aiming the flexibility for application development and interoperability among resources, have also been investigated... / Mestre
20

Exploração e análise de dados coletados pelo sistema integrado de monitoramento ambiental utilizando técnicas de visual analytics

Carmo, Alisson Fernando Coelho do [UNESP] 23 February 2015 (has links) (PDF)
Made available in DSpace on 2016-05-17T16:51:05Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-23. Added 1 bitstream(s) on 2016-05-17T16:54:37Z : No. of bitstreams: 1 000863678.pdf: 4664228 bytes, checksum: 10416fe1ca1a60a771d61ec51c813471 (MD5) / O processo de intervenção do homem no meio ambiente tem grande influência sobre as alterações que nele ocorrem. É importante monitorar características e fenômenos envolvidos neste processo, visando identificar, interpretar e controlar tais alterações. A identificação de fenômenos que variam com rapidez exige dados em alta resolução temporal, fato que pode prejudicar a utilização de Sensoriamento Remoto, pois a frequência de obtenção de dados de uma mesma região pode ser insuficiente. Por outro lado, o estudo de alterações causadas por processos lentos é realizado mediante a análise de longas séries históricas, construídas por meio de aquisições periódicas de dados por um longo período, podendo inviabilizar metodologias de coletas em campo, em razão de dificuldades associadas à logística para execução de tais coletas. O desenvolvimento tecnológico tem impulsionado a utilização de sensores para a realização de coletas automatizadas e periódicas de dados, como o Sistema Integrado de Monitoramento Ambiental (SIMA), cujo conjunto de dados é utilizado neste trabalho. O projeto SIMA é composto por um conjunto de plataformas fundeadas em reservatórios hidrelétricos, capazes de coletar automática e periodicamente atributos do ar e da água. No entanto, podem existir falhas no conjunto de dados causadas por problemas na coleta, na transmissão ou no armazenamento dos registros. Em razão da existência de grande quantidade de dados temporais multivariados e pela possibilidade de falhas, a exploração visual e interativa auxilia na caracterização do conjunto. Neste trabalho, foram investigadas abordagens com a aplicação de técnicas de Visualização de Informação na extração de características do conjunto de dados, as quais impactam a qualidade da análise dos fenômenos associados... / The man intervention process in the environment has huge influence on the changes that occur in it. It is important monitoring the features and phenomena involved in this process to identify, interpret and control such changes. The identification of fast varying phenomena requires a high temporal resolution dataset, what can constrain remote sensing utilization, due to insufficient data collection rate. On the other hand, the analysis of changes caused by slow processes is done from long historical records, which come from a periodic data acquisition during a long period of time, which can make traditional technique, such as fieldwork campaings, an inappropriate approach due to the rate of collection. The technological development has been raising the use of automated sensors to collect data, such as the Environmental Monitoring Integrated System (Sistema Integrado de Monitoramento Ambiental, SIMA) that is the source of dataset used in this project. In the SIMA project, a set of platforms, which are capable of collecting air and water attributes automatically and periodically, are anchored to hydroelectric power dams. However, the dataset may be incomplete because of problems in one or more of the following phases: acquisition, transmission or storing. Due to huge amount of multivariate temporal data and the lack of dataset in some cases, the visual and interactive exploration can support the task of its characterization. In this project, Information Visualization techniques are applied to dataset characterization process, searching for features that may affect the quality of the associated phenomena analysis. Standards for data modelling and availability, aiming the flexibility for application development and interoperability among resources, have also been investigated...

Page generated in 0.104 seconds