11 |
[en] A BIVARIATE GARMA MODEL WITH CONDITIONAL POISSON DISTRIBUTION / [pt] UM MODELO GARMA BIVARIADO COM DISTRIBUIÇÃO CONDICIONAL DE POISSONPRISCILLA FERREIRA DA SILVA 02 May 2014 (has links)
[pt] Os modelos lineares generalizados auto regressivos com médias móveis (do inglês GARMA), possibilitam a modelagem de séries temporais de dados de contagem com estrutura de correlação similares aos dos modelos ARMA. Neste trabalho é desenvolvida uma extensão multivariada do modelo GARMA, considerando a especificação de um modelo Poisson bivariado a partir da distribuição de Kocherlakota e Kocherlakota (1992), a qual será denominada de modelo Poisson BGARMA. O modelo proposto é adequado para séries de contagens estacionárias, sendo possível, através de funções de ligação apropriadas, introduzir deterministicamente o efeito de sazonalidade e de tendência. A investigação das propriedades usuais dos estimadores de máxima verossimilhança (viés, eficiência e distribuição) foi realizada através de simulações de Monte Carlo. Com o objetivo de comparar o desempenho e a aderência do modelo proposto, este foi aplicado a dois pares de séries reais bivariadas de dados de contagem. O primeiro par de séries apresenta as contagens mensais de óbitos neonatais para duas faixas de dias de vida. O segundo par de séries refere-se a contagens de acidentes de automóveis diários em dois períodos: vespertino e noturno. Os resultados do modelo proposto, quando comparados com aqueles obtidos através do ajuste de um modelo Gaussiano bivariado Vector Autoregressive (VAR), indicam que o modelo Poisson BGARMA é capaz de capturar de forma adequada as variações de pares de séries de dados de contagem e de realizar previsões com erros aceitáveis, além de produzir previsões probabilísticas para as séries. / [en] Generalized autoregressive linear models with moving average (GARMA) allow the modeling of discrete time series with correlation structure similar to those of ARMA’s models. In this work we developed
an extension of a univariate Poisson GARMA model by considerating the specification of a bivariate Poisson model through the distribution presented on Kocherlakota and Kocherlakota (1992), which will be called
Poisson BGARMA model. The proposed model not only is suitable for stationary discrete series, but also allows us to take into consideration the effect of seasonality and trend. The investigation of the usual properties of the maximum likelihood estimators (bias, efficiency and distribution) was performed using Monte Carlo simulations. Aiming to compare the performance and compliance of the proposed model, it was applied to two pairs of series of bivariate count data. The first pair is the monthly counts of neonatal deaths to two lanes of days. The second pair refers to counts of daily car accidents in two distinct periods: afternoon and evening. The results of our model when compared with those obtained by fitting a bivariate Vector Autoregressive Gaussian model (VAR) indicates that the Poisson BGARMA model is able to proper capture the variability of bivariate vectors of real time series of count data, producing forecasts with acceptable errors and allowing one to obtain probability forecasts.
|
12 |
[en] HPA MODEL FOR MODELING HIGH FREQUENCY DATA: APPLICATION TO FORECAST HOURLY ELECTRIC LOAD / [pt] MODELO HPA PARA A MODELAGEM DE DADOS DE ALTA FREQUÊNCIA: APLICAÇÃO À PREVISÃO HORÁRIA DE CARGA ELÉTRICASCHAIANE NOGUEIRA OUVERNEY BARROSO 28 December 2010 (has links)
[pt] A previsão de curto prazo, que envolve dados de alta frequência, é essencial para a confiabilidade e eficiência da operação do setor elétrico, fazendo com que a alocação da carga seja feita de forma eficiente, além de indicar possíveis distorções nos próximos períodos (dias, horas, ou frações de hora). A fim de garantir a operação energética, diversas abordagens têm sido empregadas com vistas à previsão de carga de energia a curto prazo. Dentre elas, pode-se citar os modelos híbridos de Séries Temporais, Lógica Fuzzy e Redes Neurais e o Método Holt-Winters com múltiplos ciclos que é a principal ferramenta utilizada atualmente. O HPA (Hierarchical Profiling Approach) é um modelo que decompõe a variabilidade dos dados de séries temporais em três componentes: determinística, estocástica e ruído. A metodologia é capaz de tratar observações únicas, periódicas e aperiódicas, e ao mesmo tempo, serve como uma técnica de pré-branqueamento. Este trabalho tem por objetivo implementar o HPA e aplicá-lo a dados de carga de energia elétrica de 15 em 15 minutos pra um estado da região Sudeste do Brasil. Também serão analisadas as previsões de curto prazo geradas pelo modelo para a série considerada, visto que a habilidade preditiva do HPA ainda é desconhecida para séries brasileiras. As previsões forneceram Coeficiente U de Theil igual a 0,36 e um Erro Percentual Absoluto Médio (MAPE, Mean Absolute Percentage Error) de 5,46%, o qual é bem inferior ao valor fornecido pelo Modelo Ingênuo usado para comparação (15,08%). / [en] Short-term forecast, which involves high frequency data, is essential for a reliable and efficient electricity sector operation, enabling an efficient power load allocation and indicating possible distortions in the coming periods (days, hours, or hour fractions). To ensure the operation efficiency, several approaches have been employed in order to forecast the short-term load. Among them, one can mention the hybrid models of Time Series, Fuzzy Logic and Neural Networks and Holt-Winters Method with multiple cycles, which is the main tool used today. The HPA (Hierarchical Profiling Approach) model decomposes the variability of time series data into three components: deterministic, stochastic and noise. The model is capable of modeling single, periodic and aperiodic observations, and at the same time function as a pre-whitening technique. This work aims to implement the HPA and to apply it in 15 in 15 minutes load data of a Brazil’s southeastern state, since the predictive ability of the HPA is still not known for the Brazilian series. The short-term forecasts estimated for the series considered are analyzed and provided a Theil-U Coefficient equal to 0.36 and a Mean Absolute Percentage Error (MAPE) of 5.46%, which is smaller than the value given by the Naive Model (15.08%).
|
13 |
[en] 3D OPACITY IN VOLUME RENDERING OF SEISMIC DATA / [pt] OPACIDADE 3D NA VISUALIZAÇÃO VOLUMÉTRICA DE DADOS SÍSMICOSMAURICIO KRECZMARSKY GUIMARAES MEINICKE 30 August 2007 (has links)
[pt] Este trabalho propõe uma técnica chamada de Opacidade 3D
para
visualização volumétrica de dados sísmicos. O grande
desafio da visualização
volumétrica é definir uma função de transferência
multidimensional que melhor se
adapte ao dado que se deseja visualizar. Será apresentada
uma função de
transferência que utiliza três tabelas de cores 1D para
compor a uma tabela de
cores 3D. O trabalho de Silva[30] sobre opacidade 2D
serviu de motivação para o
desenvolvimento da técnica de opacidade 3D e ao longo
deste trabalho são feitas
comparações entre ambos. São apresentados exemplos
reproduzindo a opacidade
2D e outros mostrando como a técnica proposta pode
auxiliar no estudo de
determinados eventos sísmicos. / [en] This work proposes a 3D opacity technique for the volume
rendering of
seismic data. The greater challenge of volume rendering is
to define a multidimensional
transfer function better adapted to the data to be
visualized. This
work presents a transfer function that uses three 1D color
tables to compose a 3D
color table. The work from Silva[30] about 2D opacity has
served as a motivation
for the development of the 3D opacity technique and,
hence, some comparisons
are made between them. Some examples are presented in
order to reproduce the
2D opacity technique and to show how the proposed
technique can improve the
visualization of specific seismic events.
|
14 |
[en] EXPLORING RDF KNOWLEDGE BASES THROUGH SERENDIPITY PATTERNS / [pt] EXPLORANDO BASES DE CONHECIMENTO EM RDF ATRAVÉS DE PADRÕES DE FORTUIDADEJERONIMO SIROTHEAU DE ALMEIDA EICHLER 15 January 2019 (has links)
[pt] Fortuidade pode ser definida como a descoberta de algo que não está sendo buscado. Em outras palavras, fortuidade trata da descoberta de informação que provê valiosas intuições ao desvendar conhecimento inesperado. O tópico vem recebendo bastante atenção na literatura, uma vez que precisão pode ser justificadamente relaxada com o objetivo de aumentar a satisfação do usuário. Uma área que pode se beneficiar com fortuidade é a área de dados interligados, um gigantesco espaço de dados no qual dados são disponibilizados publicamente. Buscar e extrair informação relevante se torna uma tarefa desafiadora à medida que cada vez mais dados se tornam disponíveis nesse ambiente. Esta tese contribui para enfrentar este desafio de duas maneiras. Primeiro, apresenta um processo de orquestração de consulta que introduz três estratégias para injetar padrões de fortuidade no processo de consulta. Os padrões de fortuidade são inspirados em características básicas de eventos fortuitos, como analogia e perturbação, e podem ser usados para estender os resultados com informações adicionais, sugerindo consultas alternativas ou reordenando os resultados. Em segundo lugar, introduz uma base de dados que pode ser utilizada para comparar diferentes abordagens de obtenção de conteúdo fortuito. A estratégia adotada para construção dessa base de dados consiste em dividir o universo de dados em partições com base em um atributo global e conectar entidades de diferentes partições de acordo com o número de caminhos compartilhados. / [en] Serendipity is defined as the discovery of a thing when one is not searching for it. In other words, serendipity means the discovery of information that provides valuable insights by unveiling unanticipated knowledge. The topic is receiving increased attention in the literature, since the precision requirement may be justifiably relaxed in order to improve user satisfaction. A field that can benefit from serendipity is the Web of Data, an immense global data space where data is publicly available. As more and more data become available in this data space, searching and extracting relevant information becomes a challenging task. This thesis contributes to addressing this challenge in two ways. First, it presents a query orchestration process that introduces three strategies to inject serendipity patterns in the query process. The serendipity patterns are inspired by basic characteristics of serendipitous events, such as, analogy and disturbance, and can be used for augmenting the results with additional information, suggesting
alternative queries or rebalancing the results. Second, it introduces a benchmark dataset that can be used to compare different approaches for locating serendipitous content. The strategy adopted for constructing the dataset consists of dividing the dataset into partitions based on a global feature and linking entities from different partitions according to the number of paths they share.
|
15 |
[en] A MODEL FOR EXPLORATION OF SEMI-STRUCTURED DATASETS / [pt] UM MODELO PARA EXPLORAÇÃO DE DADOS SEMIESTRUTURADOSTHIAGO RIBEIRO NUNES 05 February 2018 (has links)
[pt] Tarefas de exploração de informação são reconhecidas por possuir características tais como alta complexidade, falta de conhecimento do usuário sobre o domínio da tarefa e incertezas sobre as estratégias de solução. O estado-da-arte em exploração de dados inclui uma variedade de modelos e ferramentas baseadas em diferentes paradigmas de interação, como por exemplo, busca por palavras-chave, busca facetada e orientação-a-conjuntos. Não obstante os muitos avanços das últimas décadas, a falta de uma abordagem formal do processo de exploração, juntamente com a falta de uma adoção mais pragmática do princípio de separação-de-responsabilidades no design dessas ferramentas são a causa de muitas limitações. Dentre as limitações, essa tese aborda a falta de expressividade, caracterizada por restrições na gama de estratégias de solução possíveis, e dificuldades de análise e comparação entre as ferramentas propostas. A partir desta observação, o presente trabalho propõe um modelo formal de ações e processos de exploração, uma nova abordagem para o projeto de ferramentas de exploração e uma ferramenta que generaliza o estado-da-arte em exploração de informação. As avaliações do modelo, realizadas por meio de estudos de caso, análises e comparações o estado-da-arte, corroboram a utilidade da abordagem. / [en] Information exploration processes are usually recognized by their inherent complexity, lack of knowledge and uncertainty, concerning both the domain and the solution strategies. Even though there has been much work on the development of computational systems supporting exploration tasks, such as faceted search and set-oriented interfaces, the lack of a formal understanding of the exploration process and the absence of a proper separation of concerns approach in the design phase is the cause of many expressivity issues and serious limitations. This work proposes a novel design approach of exploration tools based on a formal framework for representing exploration actions and processes. Moreover, we present a new exploration system that generalizes the majority of the state-of-the art exploration tools. The evaluation of the proposed framework is guided by case studies and comparisons with state-of-the-art tools. The results show the relevance of our approach both for the design of new exploration tools with higher expressiveness, and formal assessments and comparisons between different tools.
|
16 |
[en] OPERATIONS OVER LIGHTWEIGHT ONTOLOGIES / [pt] OPERAÇÕES SOBRE ONTOLOGIAS LEVESROMULO DE CARVALHO MAGALHAES 25 February 2016 (has links)
[pt] Este trabalho aborda problemas de projeto de ontologias tratando-as como teorias e definindo um conjunto de operações que mapeiam ontologias em ontologias, incluindo suas restrições. Inicialmente, o trabalho resume o conhecimento básico necessário para definir a classe de ontologias utilizada e propõe quatro operações para manipular ontologias. Em seguida, mostra o funcionamento destas operações e como elas podem ajudar na criação de novas ontologias. O cerne do trabalho mostra a implementação destas operações em um plug-in do Protégé, detalhando sua arquitetura e incluindo casos de uso. / [en] This work addresses ontology design problems by treating ontologies as theories and by defining a set of operations that map ontologies into ontologies, including their constraints. The work first summarizes the base knowledge needed to define the class of ontologies used and proposes four operations to manipulate them. It then shows how the operations work and how they may help design new ontologies. The core of this work is describing the implementation of the operations over a Protégé plug-in, detailing the architecture and including case-use examples.
|
17 |
[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOSALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para
produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably,
which stressed the importance of following the Linked Data principles to foster
interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.
|
18 |
[en] DETECTING AND SUBSTUTING DISCONTINUITIES IN MINUTE-BY-MINUTE LOAD DATA VIA BAYES FACTOR / [pt] DETECÇÃO E SUBSTITUIÇÃO DE DESCONTINUIDADES NAS SÉRIES DE CARGA MINUTO À MINUTO DO CNOS VIA FATOR DE BAYESSANDRA CANTON CARDOSO 09 November 2005 (has links)
[pt] No Centro Nacional de Operação dos Sistemas - CNOS, órgão
da Eletrobrás, encarregado de controlar o sistema elétrico
brasileiro, localizado em Brasília, a varredura é feita de
20 em 20s e depois agregada para o minuto. Na transmissão
dos dados há muitos erros de medidas acarretando
descontinuidades visíveis. Estes erros podem ser causados
por problemas na transmissão dos dados ou problema físico
da medida em si. O objetivo desta dissertação é a
implementação de um sistema que detecte e corrija estas
descontinuidades nas séries de carga minuto a minuto do
CNOS via Fator de Bayes. / [en] In the National Center for System Operation (CNOS), the
Eletrobrás organ which controls the Brazilian electrical
system, readings of load demand are taken every 20
seconds, and then integrated over the minute, to provide
ninute-to-minute data. These data are then radio-
transmitted via satellite. Many errors occur during the
reading or the transmission, and so the data series
contains many missing values (which appear as
discontinuities in the graph of the series). In this
paper, we propose a system that detects and corrects
automatically these errors in the demand data, by means of
a Bayesian approach using the Bayes factor.
|
19 |
[pt] MANUTENÇÃO DE LINKS SAMEAS MATERIALIZADOS UTILIZANDO VISÕES / [en] MATERIALIZED SAMEAS LINK MAINTENANCE WITH VIEWSELISA SOUZA MENENDEZ 11 February 2016 (has links)
[pt] Na área de dados interligados, usuários frequentemente utilizam ferramentas de descoberta de links para materializar links sameAs entre diferentes base de dados. No entanto, pode ser difícil especificar as regras de ligação nas ferramentas, se as bases de dados tiverem modelos complexos. Uma possível solução para esse problema seria estimular os administradores das base de dados a publicarem visões simples, que funcionem como catálogos de recursos. Uma vez que os links estão materializados, um segundo problema que surge é como manter esses links atualizados quando as bases de dados são atualizadas. Para ajudar a resolver o segundo problema, este trabalho apresenta um framework para a manutenção de visões e links materializados, utilizando uma estratégia incremental. A ideia principal da estratégia é recomputar apenas os links dos recursos que foram atualizadas e que fazem parte da visão. Esse trabalho também apresenta um experimento para comparar a performance da estratégia incremental com a recomputação total das visões e dos links materializados. / [en] In the Linked Data field, data publishers frequently materialize sameAs links between two different datasets using link discovery tools. However, it may be difficult to specify linking conditions, if the datasets have complex models. A possible solution lies in stimulating dataset administrators to publish simple predefined views to work as resource catalogues. A second problem is related to maintaining materialized sameAs linksets, when the source datasets are updated. To help solve this second problem, this work presents a framework for maintaining views and linksets using an incremental strategy. The key idea is to re-compute only the set of updated resources that are part of the view. This work also describes an experiment to compare the performance of the incremental strategy with the full re-computation of views and linksets.
|
20 |
[en] FISCAL POLICY RISK AND THE YIELD CURVE: AN ALTERNATIVE MEASURE / [pt] RISCO FISCAL E CURVA DE JUROS: UMA MEDIDA ALTERNATIVARENATA CARREIRO AVILA 07 August 2023 (has links)
[pt] Risco fiscal afeta a curva de juros no contexto de economias emergentes?
Como medir adequadamente esse tipo de risco? Explorando o caso do Brasil,
estimamos uma medida alternativa de risco fiscal com base em notícias,
utilizando processamento de linguagem de texto. Encontramos que aumento
em risco fiscal gera aumento em taxas de juros longas, no prêmio a termo
e depreciação na taxa de câmbio. Os efeitos são robustos a uma série de
especificações alternativas do índice de risco fiscal, sugerindo que se trata de
um fenômeno relevante no cenário brasileiro. / [en] Does fiscal policy risk affect the yield curve in an emerging economy?
How can we adequately measure this kind of uncertainty? Exploiting the case
of Brazil, we estimate a novel, news-based measure of fiscal policy risk using
natural language processing. We show that increases in fiscal policy risk are
associated to increases in the levels of long maturities in the yield curve, in the
term spread and to a depreciation of the exchange rate. The effects are robust
to a series of alternative specifications of the text-based index, suggesting that
fiscal risk is a relevant phenomenon in the Brazilian setting.
|
Page generated in 0.0491 seconds