• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 20
  • Tagged with
  • 56
  • 56
  • 55
  • 13
  • 10
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] A BIVARIATE GARMA MODEL WITH CONDITIONAL POISSON DISTRIBUTION / [pt] UM MODELO GARMA BIVARIADO COM DISTRIBUIÇÃO CONDICIONAL DE POISSON

PRISCILLA FERREIRA DA SILVA 02 May 2014 (has links)
[pt] Os modelos lineares generalizados auto regressivos com médias móveis (do inglês GARMA), possibilitam a modelagem de séries temporais de dados de contagem com estrutura de correlação similares aos dos modelos ARMA. Neste trabalho é desenvolvida uma extensão multivariada do modelo GARMA, considerando a especificação de um modelo Poisson bivariado a partir da distribuição de Kocherlakota e Kocherlakota (1992), a qual será denominada de modelo Poisson BGARMA. O modelo proposto é adequado para séries de contagens estacionárias, sendo possível, através de funções de ligação apropriadas, introduzir deterministicamente o efeito de sazonalidade e de tendência. A investigação das propriedades usuais dos estimadores de máxima verossimilhança (viés, eficiência e distribuição) foi realizada através de simulações de Monte Carlo. Com o objetivo de comparar o desempenho e a aderência do modelo proposto, este foi aplicado a dois pares de séries reais bivariadas de dados de contagem. O primeiro par de séries apresenta as contagens mensais de óbitos neonatais para duas faixas de dias de vida. O segundo par de séries refere-se a contagens de acidentes de automóveis diários em dois períodos: vespertino e noturno. Os resultados do modelo proposto, quando comparados com aqueles obtidos através do ajuste de um modelo Gaussiano bivariado Vector Autoregressive (VAR), indicam que o modelo Poisson BGARMA é capaz de capturar de forma adequada as variações de pares de séries de dados de contagem e de realizar previsões com erros aceitáveis, além de produzir previsões probabilísticas para as séries. / [en] Generalized autoregressive linear models with moving average (GARMA) allow the modeling of discrete time series with correlation structure similar to those of ARMA’s models. In this work we developed an extension of a univariate Poisson GARMA model by considerating the specification of a bivariate Poisson model through the distribution presented on Kocherlakota and Kocherlakota (1992), which will be called Poisson BGARMA model. The proposed model not only is suitable for stationary discrete series, but also allows us to take into consideration the effect of seasonality and trend. The investigation of the usual properties of the maximum likelihood estimators (bias, efficiency and distribution) was performed using Monte Carlo simulations. Aiming to compare the performance and compliance of the proposed model, it was applied to two pairs of series of bivariate count data. The first pair is the monthly counts of neonatal deaths to two lanes of days. The second pair refers to counts of daily car accidents in two distinct periods: afternoon and evening. The results of our model when compared with those obtained by fitting a bivariate Vector Autoregressive Gaussian model (VAR) indicates that the Poisson BGARMA model is able to proper capture the variability of bivariate vectors of real time series of count data, producing forecasts with acceptable errors and allowing one to obtain probability forecasts.
12

[en] HPA MODEL FOR MODELING HIGH FREQUENCY DATA: APPLICATION TO FORECAST HOURLY ELECTRIC LOAD / [pt] MODELO HPA PARA A MODELAGEM DE DADOS DE ALTA FREQUÊNCIA: APLICAÇÃO À PREVISÃO HORÁRIA DE CARGA ELÉTRICA

SCHAIANE NOGUEIRA OUVERNEY BARROSO 28 December 2010 (has links)
[pt] A previsão de curto prazo, que envolve dados de alta frequência, é essencial para a confiabilidade e eficiência da operação do setor elétrico, fazendo com que a alocação da carga seja feita de forma eficiente, além de indicar possíveis distorções nos próximos períodos (dias, horas, ou frações de hora). A fim de garantir a operação energética, diversas abordagens têm sido empregadas com vistas à previsão de carga de energia a curto prazo. Dentre elas, pode-se citar os modelos híbridos de Séries Temporais, Lógica Fuzzy e Redes Neurais e o Método Holt-Winters com múltiplos ciclos que é a principal ferramenta utilizada atualmente. O HPA (Hierarchical Profiling Approach) é um modelo que decompõe a variabilidade dos dados de séries temporais em três componentes: determinística, estocástica e ruído. A metodologia é capaz de tratar observações únicas, periódicas e aperiódicas, e ao mesmo tempo, serve como uma técnica de pré-branqueamento. Este trabalho tem por objetivo implementar o HPA e aplicá-lo a dados de carga de energia elétrica de 15 em 15 minutos pra um estado da região Sudeste do Brasil. Também serão analisadas as previsões de curto prazo geradas pelo modelo para a série considerada, visto que a habilidade preditiva do HPA ainda é desconhecida para séries brasileiras. As previsões forneceram Coeficiente U de Theil igual a 0,36 e um Erro Percentual Absoluto Médio (MAPE, Mean Absolute Percentage Error) de 5,46%, o qual é bem inferior ao valor fornecido pelo Modelo Ingênuo usado para comparação (15,08%). / [en] Short-term forecast, which involves high frequency data, is essential for a reliable and efficient electricity sector operation, enabling an efficient power load allocation and indicating possible distortions in the coming periods (days, hours, or hour fractions). To ensure the operation efficiency, several approaches have been employed in order to forecast the short-term load. Among them, one can mention the hybrid models of Time Series, Fuzzy Logic and Neural Networks and Holt-Winters Method with multiple cycles, which is the main tool used today. The HPA (Hierarchical Profiling Approach) model decomposes the variability of time series data into three components: deterministic, stochastic and noise. The model is capable of modeling single, periodic and aperiodic observations, and at the same time function as a pre-whitening technique. This work aims to implement the HPA and to apply it in 15 in 15 minutes load data of a Brazil’s southeastern state, since the predictive ability of the HPA is still not known for the Brazilian series. The short-term forecasts estimated for the series considered are analyzed and provided a Theil-U Coefficient equal to 0.36 and a Mean Absolute Percentage Error (MAPE) of 5.46%, which is smaller than the value given by the Naive Model (15.08%).
13

[en] 3D OPACITY IN VOLUME RENDERING OF SEISMIC DATA / [pt] OPACIDADE 3D NA VISUALIZAÇÃO VOLUMÉTRICA DE DADOS SÍSMICOS

MAURICIO KRECZMARSKY GUIMARAES MEINICKE 30 August 2007 (has links)
[pt] Este trabalho propõe uma técnica chamada de Opacidade 3D para visualização volumétrica de dados sísmicos. O grande desafio da visualização volumétrica é definir uma função de transferência multidimensional que melhor se adapte ao dado que se deseja visualizar. Será apresentada uma função de transferência que utiliza três tabelas de cores 1D para compor a uma tabela de cores 3D. O trabalho de Silva[30] sobre opacidade 2D serviu de motivação para o desenvolvimento da técnica de opacidade 3D e ao longo deste trabalho são feitas comparações entre ambos. São apresentados exemplos reproduzindo a opacidade 2D e outros mostrando como a técnica proposta pode auxiliar no estudo de determinados eventos sísmicos. / [en] This work proposes a 3D opacity technique for the volume rendering of seismic data. The greater challenge of volume rendering is to define a multidimensional transfer function better adapted to the data to be visualized. This work presents a transfer function that uses three 1D color tables to compose a 3D color table. The work from Silva[30] about 2D opacity has served as a motivation for the development of the 3D opacity technique and, hence, some comparisons are made between them. Some examples are presented in order to reproduce the 2D opacity technique and to show how the proposed technique can improve the visualization of specific seismic events.
14

[en] EXPLORING RDF KNOWLEDGE BASES THROUGH SERENDIPITY PATTERNS / [pt] EXPLORANDO BASES DE CONHECIMENTO EM RDF ATRAVÉS DE PADRÕES DE FORTUIDADE

JERONIMO SIROTHEAU DE ALMEIDA EICHLER 15 January 2019 (has links)
[pt] Fortuidade pode ser definida como a descoberta de algo que não está sendo buscado. Em outras palavras, fortuidade trata da descoberta de informação que provê valiosas intuições ao desvendar conhecimento inesperado. O tópico vem recebendo bastante atenção na literatura, uma vez que precisão pode ser justificadamente relaxada com o objetivo de aumentar a satisfação do usuário. Uma área que pode se beneficiar com fortuidade é a área de dados interligados, um gigantesco espaço de dados no qual dados são disponibilizados publicamente. Buscar e extrair informação relevante se torna uma tarefa desafiadora à medida que cada vez mais dados se tornam disponíveis nesse ambiente. Esta tese contribui para enfrentar este desafio de duas maneiras. Primeiro, apresenta um processo de orquestração de consulta que introduz três estratégias para injetar padrões de fortuidade no processo de consulta. Os padrões de fortuidade são inspirados em características básicas de eventos fortuitos, como analogia e perturbação, e podem ser usados para estender os resultados com informações adicionais, sugerindo consultas alternativas ou reordenando os resultados. Em segundo lugar, introduz uma base de dados que pode ser utilizada para comparar diferentes abordagens de obtenção de conteúdo fortuito. A estratégia adotada para construção dessa base de dados consiste em dividir o universo de dados em partições com base em um atributo global e conectar entidades de diferentes partições de acordo com o número de caminhos compartilhados. / [en] Serendipity is defined as the discovery of a thing when one is not searching for it. In other words, serendipity means the discovery of information that provides valuable insights by unveiling unanticipated knowledge. The topic is receiving increased attention in the literature, since the precision requirement may be justifiably relaxed in order to improve user satisfaction. A field that can benefit from serendipity is the Web of Data, an immense global data space where data is publicly available. As more and more data become available in this data space, searching and extracting relevant information becomes a challenging task. This thesis contributes to addressing this challenge in two ways. First, it presents a query orchestration process that introduces three strategies to inject serendipity patterns in the query process. The serendipity patterns are inspired by basic characteristics of serendipitous events, such as, analogy and disturbance, and can be used for augmenting the results with additional information, suggesting alternative queries or rebalancing the results. Second, it introduces a benchmark dataset that can be used to compare different approaches for locating serendipitous content. The strategy adopted for constructing the dataset consists of dividing the dataset into partitions based on a global feature and linking entities from different partitions according to the number of paths they share.
15

[en] A MODEL FOR EXPLORATION OF SEMI-STRUCTURED DATASETS / [pt] UM MODELO PARA EXPLORAÇÃO DE DADOS SEMIESTRUTURADOS

THIAGO RIBEIRO NUNES 05 February 2018 (has links)
[pt] Tarefas de exploração de informação são reconhecidas por possuir características tais como alta complexidade, falta de conhecimento do usuário sobre o domínio da tarefa e incertezas sobre as estratégias de solução. O estado-da-arte em exploração de dados inclui uma variedade de modelos e ferramentas baseadas em diferentes paradigmas de interação, como por exemplo, busca por palavras-chave, busca facetada e orientação-a-conjuntos. Não obstante os muitos avanços das últimas décadas, a falta de uma abordagem formal do processo de exploração, juntamente com a falta de uma adoção mais pragmática do princípio de separação-de-responsabilidades no design dessas ferramentas são a causa de muitas limitações. Dentre as limitações, essa tese aborda a falta de expressividade, caracterizada por restrições na gama de estratégias de solução possíveis, e dificuldades de análise e comparação entre as ferramentas propostas. A partir desta observação, o presente trabalho propõe um modelo formal de ações e processos de exploração, uma nova abordagem para o projeto de ferramentas de exploração e uma ferramenta que generaliza o estado-da-arte em exploração de informação. As avaliações do modelo, realizadas por meio de estudos de caso, análises e comparações o estado-da-arte, corroboram a utilidade da abordagem. / [en] Information exploration processes are usually recognized by their inherent complexity, lack of knowledge and uncertainty, concerning both the domain and the solution strategies. Even though there has been much work on the development of computational systems supporting exploration tasks, such as faceted search and set-oriented interfaces, the lack of a formal understanding of the exploration process and the absence of a proper separation of concerns approach in the design phase is the cause of many expressivity issues and serious limitations. This work proposes a novel design approach of exploration tools based on a formal framework for representing exploration actions and processes. Moreover, we present a new exploration system that generalizes the majority of the state-of-the art exploration tools. The evaluation of the proposed framework is guided by case studies and comparisons with state-of-the-art tools. The results show the relevance of our approach both for the design of new exploration tools with higher expressiveness, and formal assessments and comparisons between different tools.
16

[en] OPERATIONS OVER LIGHTWEIGHT ONTOLOGIES / [pt] OPERAÇÕES SOBRE ONTOLOGIAS LEVES

ROMULO DE CARVALHO MAGALHAES 25 February 2016 (has links)
[pt] Este trabalho aborda problemas de projeto de ontologias tratando-as como teorias e definindo um conjunto de operações que mapeiam ontologias em ontologias, incluindo suas restrições. Inicialmente, o trabalho resume o conhecimento básico necessário para definir a classe de ontologias utilizada e propõe quatro operações para manipular ontologias. Em seguida, mostra o funcionamento destas operações e como elas podem ajudar na criação de novas ontologias. O cerne do trabalho mostra a implementação destas operações em um plug-in do Protégé, detalhando sua arquitetura e incluindo casos de uso. / [en] This work addresses ontology design problems by treating ontologies as theories and by defining a set of operations that map ontologies into ontologies, including their constraints. The work first summarizes the base knowledge needed to define the class of ontologies used and proposes four operations to manipulate them. It then shows how the operations work and how they may help design new ontologies. The core of this work is describing the implementation of the operations over a Protégé plug-in, detailing the architecture and including case-use examples.
17

[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOS

ALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably, which stressed the importance of following the Linked Data principles to foster interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.
18

[en] DETECTING AND SUBSTUTING DISCONTINUITIES IN MINUTE-BY-MINUTE LOAD DATA VIA BAYES FACTOR / [pt] DETECÇÃO E SUBSTITUIÇÃO DE DESCONTINUIDADES NAS SÉRIES DE CARGA MINUTO À MINUTO DO CNOS VIA FATOR DE BAYES

SANDRA CANTON CARDOSO 09 November 2005 (has links)
[pt] No Centro Nacional de Operação dos Sistemas - CNOS, órgão da Eletrobrás, encarregado de controlar o sistema elétrico brasileiro, localizado em Brasília, a varredura é feita de 20 em 20s e depois agregada para o minuto. Na transmissão dos dados há muitos erros de medidas acarretando descontinuidades visíveis. Estes erros podem ser causados por problemas na transmissão dos dados ou problema físico da medida em si. O objetivo desta dissertação é a implementação de um sistema que detecte e corrija estas descontinuidades nas séries de carga minuto a minuto do CNOS via Fator de Bayes. / [en] In the National Center for System Operation (CNOS), the Eletrobrás organ which controls the Brazilian electrical system, readings of load demand are taken every 20 seconds, and then integrated over the minute, to provide ninute-to-minute data. These data are then radio- transmitted via satellite. Many errors occur during the reading or the transmission, and so the data series contains many missing values (which appear as discontinuities in the graph of the series). In this paper, we propose a system that detects and corrects automatically these errors in the demand data, by means of a Bayesian approach using the Bayes factor.
19

[pt] MANUTENÇÃO DE LINKS SAMEAS MATERIALIZADOS UTILIZANDO VISÕES / [en] MATERIALIZED SAMEAS LINK MAINTENANCE WITH VIEWS

ELISA SOUZA MENENDEZ 11 February 2016 (has links)
[pt] Na área de dados interligados, usuários frequentemente utilizam ferramentas de descoberta de links para materializar links sameAs entre diferentes base de dados. No entanto, pode ser difícil especificar as regras de ligação nas ferramentas, se as bases de dados tiverem modelos complexos. Uma possível solução para esse problema seria estimular os administradores das base de dados a publicarem visões simples, que funcionem como catálogos de recursos. Uma vez que os links estão materializados, um segundo problema que surge é como manter esses links atualizados quando as bases de dados são atualizadas. Para ajudar a resolver o segundo problema, este trabalho apresenta um framework para a manutenção de visões e links materializados, utilizando uma estratégia incremental. A ideia principal da estratégia é recomputar apenas os links dos recursos que foram atualizadas e que fazem parte da visão. Esse trabalho também apresenta um experimento para comparar a performance da estratégia incremental com a recomputação total das visões e dos links materializados. / [en] In the Linked Data field, data publishers frequently materialize sameAs links between two different datasets using link discovery tools. However, it may be difficult to specify linking conditions, if the datasets have complex models. A possible solution lies in stimulating dataset administrators to publish simple predefined views to work as resource catalogues. A second problem is related to maintaining materialized sameAs linksets, when the source datasets are updated. To help solve this second problem, this work presents a framework for maintaining views and linksets using an incremental strategy. The key idea is to re-compute only the set of updated resources that are part of the view. This work also describes an experiment to compare the performance of the incremental strategy with the full re-computation of views and linksets.
20

[en] FISCAL POLICY RISK AND THE YIELD CURVE: AN ALTERNATIVE MEASURE / [pt] RISCO FISCAL E CURVA DE JUROS: UMA MEDIDA ALTERNATIVA

RENATA CARREIRO AVILA 07 August 2023 (has links)
[pt] Risco fiscal afeta a curva de juros no contexto de economias emergentes? Como medir adequadamente esse tipo de risco? Explorando o caso do Brasil, estimamos uma medida alternativa de risco fiscal com base em notícias, utilizando processamento de linguagem de texto. Encontramos que aumento em risco fiscal gera aumento em taxas de juros longas, no prêmio a termo e depreciação na taxa de câmbio. Os efeitos são robustos a uma série de especificações alternativas do índice de risco fiscal, sugerindo que se trata de um fenômeno relevante no cenário brasileiro. / [en] Does fiscal policy risk affect the yield curve in an emerging economy? How can we adequately measure this kind of uncertainty? Exploiting the case of Brazil, we estimate a novel, news-based measure of fiscal policy risk using natural language processing. We show that increases in fiscal policy risk are associated to increases in the levels of long maturities in the yield curve, in the term spread and to a depreciation of the exchange rate. The effects are robust to a series of alternative specifications of the text-based index, suggesting that fiscal risk is a relevant phenomenon in the Brazilian setting.

Page generated in 0.0416 seconds