• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 580
  • 38
  • 15
  • 13
  • 13
  • 12
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 1
  • Tagged with
  • 635
  • 635
  • 382
  • 350
  • 315
  • 128
  • 107
  • 83
  • 81
  • 68
  • 67
  • 61
  • 56
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Plataforma de estudo para determinação de conectividade cerebral embarcada e em tempo real. / Platform of study for embedded and real time determination of brain connectivity.

Silva, Tiago Sanches da 20 April 2016 (has links)
A presente dissertação examina um método de determinação da conectividade cerebral cujo uso vem se tornando popular nos últimos anos, o partial direct coherence (PDC), que se destaca dentre outros métodos por possibilitar a verificação das relações imediatas de sinais multivariados. Este método representa a conectividade cerebral no domínio da frequência e tem íntima relação com a noção de \"causalidade\" de Granger (GRANGER, 1969), que possibilita quantificar a influência mútua entre séries temporais observadas. De um ponto de vista computacional, o referido método faz uso de modelos de séries temporais que hoje têm implementação bastante eficiente em termos de algoritmos off-line, mas cujo sucesso depende da presunção de estacionariedade dos dados, fato que é somente verdadeiro em trechos relativamente curtos de sinais de origem cerebral, como no caso do EEG (Eletroencefalograma). O objetivo deste trabalho é criar um sistema que calcule o PDC, continuamente, em tempo real e que possua a mesma precisão do método off-line, além de ser uma plataforma de estudos para implementações e testes de métodos de determinação da conectividade neural em tempo real. A plataforma desenvolvida é modular, incentivando futuros trabalhos na mesma, e mostrouse eficaz quanto a precisão numérica dos resultados do cálculo do PDC. As características de tempo real foram atingidas com algumas restrições, que dependem da configuração do usuário e do número de canais que um sinal possui. / This thesis examines a method of determination of brain connectivity whose use becomes popular in recent years, the partial direct coherence (PDC) that stands out in comparison with other methods for making possible the verification of immediate relations of multivariate signal. This method represents the brain connectivity in the frequency domain and has a close relationship with the notion of Granger causality (GRANGER, 1969) that makes it possible to quantify the mutual influence between observed time series. From a computational perspective, the above method makes use of time series models, which today has very efficient implementation in terms of off-line algorithm, but whose success depends on presume that the data is stationary, a fact that is only true in relatively short stretches of cerebral signals, especially in the case of EEG. The objective of this thesis is to create a system that calculates the PDC continuously and in real time maintaining the same precision of the off-line method. Furthermore being a research platform for implementations and tests of new methods for determining neural connectivity in real time. The developed platform is modular encouraging future work on it, and was effective in the numerical accuracy of the PDC calculation results. The real time characteristics were achieved with some restrictions that depend of the user configuration and the number of channels that the signal has.
402

Mercados coloniais: um estudo sobre a integração entre mercados latino americanos e europeus de 1650 a 1820 / Colonial markets: a study of market integration between Latin America and Europe from 1650 to 1820

Paixão, Ricardo Fernandes 27 January 2009 (has links)
Se maiores mercados permitem ganhos de especialização, conforme postulado por Adam Smith, o estudo da integração entre mercados ocupa posição central em economia. No contexto histórico tais estudos permitem inferir, a partir de evidência empírica contida em séries de preços, relacionamentos entre diversos mercados e, conseqüentemente, permitem apoiar ou refutar a narrativa histórica tradicional. Apesar do grande número de estudos históricos sobre integração de mercados entre países europeus, e, em menor grau, Estados Unidos e China, a literatura sobre integração entre mercados latino americanos e europeus durante o período colonial é praticamente inexistente. Esta tese estuda, através de técnicas de cointegração, oito produtos (açúcar, trigo, linho, papel, sabão, carne e vinho) e doze mercados (Bolívia, Brasil, Argentina, Chile, Peru, Colômbia, Inglaterra, França, Alemanha, Itália, Espanha e Portugal) ao longo de até 800 anos. O principal resultado é o fato de o mercado inglês aparecer ao centro do comércio latino americano e mesmo ibérico durante o período colonial. Este resultado suporta a narrativa histórica tradicional que enfatiza a crescente ascendência do contrabando inglês na região. Por outro lado, a evidência empírica aqui demonstrada questiona a validade do chamado pacto colonial e coloca num contexto temporal mais longo os movimentos de independência que eclodiram na região ao final do período. / If larger markets allow gains from specialization, as postulated by Adam Smith, the study of market integration occupies a central position in economics. In the historical context such studies can infer, from evidence contained in price series, relationships between various markets and, consequently, can support or refute the traditional historical narrative. Despite the large number of historical studies on market integration between European countries, and to a lesser extent, the United States and China, the literature on integration between Latin American and European markets during the colonial period is virtually nonexistent. This thesis studies, using techniques of cointegration, eight products (sugar, wheat, linen, paper, soap, meat and wine) and twelve markets (Bolivia, Brazil, Argentina, Chile, Peru, Colombia, England, France, Germany, Italy, Spain and Portugal) over up to 800 years. The main result is the fact that the English market appears to be in the center of trade in Latin America and even in the Iberian Peninsula during the colonial period. This result supports the traditional historical narrative that highlights the growing ascendancy of English smuggling in the region. Moreover, the evidence demonstrated here questions the validity of the so-called \"colonial pact\" and places the independence movements that erupted in the region at the end of the period in a longer time span.
403

Predição de séries temporais por similaridade / Similarity-based time series prediction

Parmezan, Antonio Rafael Sabino 07 April 2016 (has links)
Um dos maiores desafios em Mineração de Dados é a integração da informação temporal ao seu processo. Esse fato tem desafiado profissionais de diferentes domínios de aplicação e recebido investimentos consideráveis da comunidade científica e empresarial. No contexto de predição de Séries Temporais, os investimentos se concentram no subsídio de pesquisas destinadas à adaptação dos métodos convencionais de Aprendizado de Máquina para a análise de dados na qual o tempo constitui um fator importante. À vista disso, neste trabalho é proposta uma nova extensão do algoritmo de Aprendizado de Máquina k-Nearest Neighbors (kNN) para predição de Séries Temporais, intitulado de kNN - Time Series Prediction with Invariances (kNN-TSPI ). O algoritmo concebido difere da versão convencional pela incorporação de três técnicas para obtenção de invariância à amplitude e deslocamento, invariância à complexidade e tratamento de casamentos triviais. Como demonstrado ao longo desta dissertação de mestrado, o uso simultâneo dessas técnicas proporciona ao kNN-TSPI uma melhor correspondência entre as subsequências de dados e a consulta de referência. Os resultados de uma das avaliações empíricas mais extensas, imparciais e compreensíveis já conduzidas no tema de predição de Séries Temporais evidenciaram, a partir do confronto de dez métodos de projeção, que o algoritmo kNN-TSPI, além de ser conveniente para a predição automática de dados a curto prazo, é competitivo com os métodos estatísticos estado-da-arte ARIMA e SARIMA. Por mais que o modelo SARIMA tenha atingido uma precisão relativamente superior a do método baseado em similaridade, o kNN-TSPI é consideravelmente mais simples de ajustar. A comparação objetiva e subjetiva entre algoritmos estatísticos e de Aprendizado de Máquina para a projeção de dados temporais vem a suprir uma importante lacuna na literatura, a qual foi identificada por meio de uma revisão sistemática seguida de uma meta-análise das publicações selecionadas. Os 95 conjuntos de dados empregados nos experimentos computacionais juntamente com todas as projeções analisadas em termos de Erro Quadrático Médio, coeficiente U de Theil e taxa de acerto Prediction Of Change In Direction encontram-se disponíveis no portal Web ICMC-USP Time Series Prediction Repository. A presente pesquisa abrange também contribuições e resultados significativos em relação às propriedades inerentes à predição baseada em similaridade, sobretudo do ponto de vista prático. Os protocolos experimentais delineados e as diversas conclusões obtidas poderão ser usados como referência para guiar o processo de escolha de modelos, configuração de parâmetros e aplicação dos algoritmos de Inteligência Artificial para predição de Séries Temporais. / One of the major challenges in Data Mining is integrating temporal information into process. This difficulty has challenged professionals several application fields and has been object of considerable investment from scientific and business communities. In the context of Time Series prediction, these investments consist majority of grants for designed research aimed at adapting conventional Machine Learning methods for data analysis problems in which time is an important factor. We propose a novel modification of the k-Nearest Neighbors (kNN) learning algorithm for Time Series prediction, namely the kNN - Time Series Prediction with Invariances (kNN-TSPI). Our proposal differs from the literature by incorporating techniques for amplitude and offset invariance, complexity invariance, and treatment of trivial matches. These three modifications allow more meaningful matching between the reference queries and Time Series subsequences, as we discuss with more details throughout this masters thesis. We have performed one of the most comprehensible empirical evaluations of Time Series prediction, in which we faced the proposed algorithm with ten methods commonly found in literature. The results show that the kNN-TSPI is appropriate for automated short-term projection and is competitive with the state-of-the-art statistical methods ARIMA and SARIMA. Although in our experiments the SARIMA model has reached a slightly higher precision than the similarity based method, the kNN-TSPI is considerably simpler to adjust. The objective and subjective comparisons of statistical and Machine Learning algorithms for temporal data projection fills a major gap in the literature, which was identified through a systematic review followed by a meta-analysis of selected publications. The 95 data sets used in our computational experiments, as well all the projections with respect to Mean Squared Error, Theils U coefficient and hit rate Prediction Of Change In Direction are available online at the ICMC-USP Time Series Prediction Repository. This work also includes contributions and significant results with respect to the properties inherent to similarity-based prediction, especially from the practical point of view. The outlined experimental protocols and our discussion on the usage of them, can be used as a guideline for models selection, parameters setting, and employment of Artificial Intelligence algorithms for Time Series prediction.
404

Análise de séries temporais com comportamento não linear obtidas por um sensor de um microscópio de força atômica / Time series analysis with nonlinear behavior obtained by a sensor of an atomic force microscope

Nozaki, Ricardo 21 October 2016 (has links)
O estudo das não linearidades das séries temporais da microviga de um microscópio de força atômica tem sido essencial para o desenvolvimento e aperfeiçoamento deste equipamento de ampliação de imagens. Não linearidades podem aparecer com frequência nos experimentos, afetando significativamente a resposta prevista de forma que estas instabilidades se concretizam em imagens ruins. Esta tese apresenta resultados obtidos através de uma abordagem experimental e teórica. Buscou-se aperfeiçoar modelos clássicos de osciladores do microscópio de força atômica melhorando seu comportamento caótico através da observação dos resultados dos experimentos. A identificação de sistemas é feita pelo método de espaço de estados. Outra abordagem de séries temporais obtidas através de um microscópio de força atômica torna possível a reconstrução de espaço de estados, utilizando-se de técnicas como informação mútua, falsos vizinhos e defasagem de tempo. Analisa-se também o comportamento caótico das séries temporais usando o teste 0-1 e escala indexada em quatro experimentos que resultam em um mapa que relaciona a altura que a microviga vibra com o coeficiente do teste 0-1 e com a escala indexada. / The study of time series nonlinearities of the cantilever\'s atomic force microscope has been essential to the development and improvement of this image magnification equipment. Nonlinearities may appear frequently in the experiments, significantly affecting expected response in a way that these instabilities generate bad images. This thesis presents results obtained through an experimental and theoretical approach accordingly. We attempted to improve the classical models of oscillators atomic force microscope improving its chaotic behavior by observing the results of the experiments. The system identification is made by method space state. Another approach to time series obtained through an atomic force microscope makes it possible to reconstruct space phase, using techniques such as mutual information and false neighbors delay. It is analyzed chaotic behavior time series by using the 0-1 test and scale index in four experiments resulting in a map that relates the height of cantilever deflections with the 0-1 test coefficient and the indexed scale.
405

Informações macroclimáticas aplicadas na previsão de vazões / Large scale information applied in the forecast streamflow

Rodrigues, Alcantaro Lemes 23 June 2016 (has links)
Fontes renováveis de energia representam alternativas para a mitigação da mudança do clima global, no entanto, são mais suscetíveis a mudanças nas condições climáticas. O sistema elétrico brasileiro (SEB) possui a peculiaridade de ter maior parte de sua energia gerada a partir de fontes renováveis, principalmente usinas hidrelétricas. Por essa razão, constitui uma amostra representativa das dificuldades de operar uma matriz energética de base predominantemente renovável. A geração predominantemente hidrelétrica de energia permite operar com baixas emissões e baixos custos operacionais, nada obstante a forte dependência dessa envolve considerável risco hidrológico, principalmente em um contexto em que as restrições à armazenagem de energia em grandes barragens são maiores. Por conseguinte, a combinação de investimentos inadequados na capacidade de geração com escassez de chuvas pode, eventualmente, levar a situações nas quais a capacidade de oferta seja inferior à demanda e até mesmo a racionamentos (2001). É evidente que a capacidade de prever com precisão o índice de chuvas e, consequentemente, as vazões disponíveis para o próximo período caracteriza-se como uma importante ferramenta para a operação do setor elétrico brasileiro. Hoje, as previsões de vazões futuras são realizadas com base na observação de vazões passadas sem incorporar nas análises as variáveis que as determinam (por exemplo, variáveis climáticas). Entretanto, existem evidências de que a variabilidade das vazões na América do Sul é cadenciada pelos sistemas acoplados do tipo oceano-atmosférico, os chamados fenômenos de grande escala como é o caso do El Niño. No entanto as técnicas tradicionais de previsão até então não utilizam de forma sistêmica as informações climáticas. A metodologia aqui apresentada incorpora informações sobre o clima para tomada de decisões envolvendo recursos hídricos, sendo demonstrada sua aplicação para a região Sudeste do Brasil. Demonstra-se que o manuseamento de variáveis climáticas (mais particularmente aquelas vinculadas ao fenômeno do El Niño) permite calcular a previsão de vazões tão bem quanto os programas oficiais, tendo como vantagem acompanhar as mudanças climáticas eminentes. A metodologia proposta é formada pelas seguintes partes: Modelo SARIMAX; Levantamento de Dados; Análise Gráfica de Correlações; Análise de Séries Temporais; Análise de Gráfica de wavelets e Análise de correlação em Mapas georreferenciados. Esses procedimentos são necessários para visualizar-se com clareza o histórico embutido nas informações analisadas e uma melhor compreensão para a fase de modelagem com o método SARIMAX. Os resultados indicam que o modelo SARIMAX, com variáveis macroclimáticas, é melhor que o NEWAVE. / Renewable energy sources represent alternatives to the mitigation of global climate change, but they are more susceptible to changing on weather conditions. The Brazilian electricity system has the peculiarity that most of its energy is generated from renewable sources, mainly by hydroelectric plants. For this reason, it provides a representative sample of the difficulties for operating a predominantly renewable basis energy matrix. On one hand, the main hydroelectric generation allows low emissions and low operating costs; on the other hand, the heavy dependence on hydropower involves considerable hydrological risks, specially in an environment where restrictions on energy storage (large dams) are high. Thus, the combination of inadequate investment in generation capacity with low rainfall may, eventually, lead to situations in which the supply capacity is less than the demand, leading even rationing (2002). It is then clear that the ability to accurately predict the rainfall index and hence flow rates available for the next period is an important tool for the operation of the Brazilian electric sector (SEB). Presently, future flows forecasting are only based on observation of past flows without incorporating the analysis of the variables that determine such flows (e.g. climate variables). However, there are evidences that the variability of flows in South America is punctuated by coupled ocean-atmosphere type systems, the so-called large-scale phenomena such as El Niño. However, the traditional forecasting techniques still do not use climate information in a systematic way. The methodology presented here incorporates weather information for decision making in water resources, and demonstrates its applicability to the Southeastern region of Brazil. It is showed that the use of climatic variables (particularly those related to the El Niño phenomenon) predicts streamflow forecasting as well as the official programs do, with the advantage of following eminent climate change. The proposed methodology is formed of the following parts, not necessarily in this order: Model SARIMAX; Data Collection; Graphic analysis of correlations; Time Series Analysis; Wavelets Graphical analysis and Correlation analysis of geo-referenced maps. These procedures are necessary to clearly see the embedded historical information of the information analyzed and better understanding of the modeling stage with SARIMAX method. The results indicate that the SARIMAX model, with large scale variables, is better than the NEWAVE.
406

Improving time series modeling by decomposing and analysing stochastic and deterministic influences / Modelagem de séries temporais por meio da decomposição e análise de influências estocásticas e determinísticas

Rios, Ricardo Araújo 22 October 2013 (has links)
This thesis presents a study on time series analysis, which was conducted based on the following hypothesis: time series influenced by additive noise can be decomposed into stochastic and deterministic components in which individual models permit obtaining a hybrid one that improves accuracy. This hypothesis was confirmed in two steps. In the first one, we developed a formal analysis using the Nyquist-Shannon sampling theorem, proving Intrinsic Mode Functions (IMFs) extracted from the Empirical Mode Decomposition (EMD) method can be combined, according to their frequency intensities, to form stochastic and deterministic components. Considering this proof, we designed two approaches to decompose time series, which were evaluated in synthetic and real-world scenarios. Experimental results confirmed the importance of decomposing time series and individually modeling the deterministic and stochastic components, proving the second part of our hypothesis. Furthermore, we noticed the individual analysis of both components plays an important role in detecting patterns and extracting implicit information from time series. In addition to these approaches, this thesis also presents two new measurements. The first one is used to evaluate the accuracy of time series modeling in forecasting observations. This measurement was motivated by the fact that existing measurements only consider the perfect match between expected and predicted values. This new measurement overcomes this issue by also analyzing the global time series behavior. The second measurement presented important results to assess the influence of the deterministic and stochastic components on time series observations, supporting the decomposition process. Finally, this thesis also presents a Systematic Literature Review, which collected important information on related work, and two new methods to produce surrogate data, which permit investigating the presence of linear and nonlinear Gaussian processes in time series, irrespective of the influence of nonstationary behavior / Esta tese apresenta um estudo sobre análise de séries temporais, a qual foi conduzida baseada na seguinte hipótese: séries temporais influenciadas por ruído aditivo podem ser decompostas em componentes estocásticos e determinísticos que ao serem modelados individualmente permitem obter um modelo híbrido de maior acurácia. Essa hipótese foi confirmada em duas etapas. Na primeira, desenvolveu-se uma análise formal usando o teorema de amostragem proposto por Nyquist-Shannon, provando que IMFs (Intrinsic Mode Functions) extraídas pelo método EMD (Empirical Mode Decomposition) podem ser combinadas de acordo com suas intensidades de frequência para formar os componentes estocásticos e determinísticos. Considerando essa prova, duas abordagens de decomposição de séries foram desenvolvidas e avaliadas em aplicações sintéticas e reais. Resultados experimentais confirmaram a importância de decompor séries temporais e modelar seus componentes estocásticos e determinísticos, provando a segunda parte da hipótese. Além disso, notou-se que a análise individual desses componentes possibilita detectar padrões e extrair importantes informações implícitas em séries temporais. Essa tese apresenta ainda duas novas medidas. A primeira é usada para avaliar a acurácia de modelos utilizados para predizer observações. A principal vantagem dessa medida em relação às existentes é a possibilidade de avaliar os valores individuais de predição e o comportamento global entre as observações preditas e experadas. A segunda medida permite avaliar a influência dos componentes estocásticos e determinísticos sobre as séries temporais. Finalmente, essa tese apresenta ainda resultados obtidos por meio de uma revisão sistemática da literatura, a qual coletou importantes trabalhos relacionados, e dois novos métodos para geração de dados substitutos, permitindo investigar a presença de processos Gaussianos lineares e não-lineares, independente da influência de comportamento não-estacionário
407

Employing nonlinear time series analysis tools with stable clustering algorithms for detecting concept drift on data streams / Aplicando ferramentas de análise de séries temporais não lineares e algoritmos de agrupamento estáveis para a detecção de mudanças de conceito em fluxos de dados

Costa, Fausto Guzzo da 17 August 2017 (has links)
Several industrial, scientific and commercial processes produce open-ended sequences of observations which are referred to as data streams. We can understand the phenomena responsible for such streams by analyzing data in terms of their inherent recurrences and behavior changes. Recurrences support the inference of more stable models, which are deprecated by behavior changes though. External influences are regarded as the main agent actuacting on the underlying phenomena to produce such modifications along time, such as new investments and market polices impacting on stocks, the human intervention on climate, etc. In the context of Machine Learning, there is a vast research branch interested in investigating the detection of such behavior changes which are also referred to as concept drifts. By detecting drifts, one can indicate the best moments to update modeling, therefore improving prediction results, the understanding and eventually the controlling of other influences governing the data stream. There are two main concept drift detection paradigms: the first based on supervised, and the second on unsupervised learning algorithms. The former faces great issues due to the labeling infeasibility when streams are produced at high frequencies and large volumes. The latter lacks in terms of theoretical foundations to provide detection guarantees. In addition, both paradigms do not adequately represent temporal dependencies among data observations. In this context, we introduce a novel approach to detect concept drifts by tackling two deficiencies of both paradigms: i) the instability involved in data modeling, and ii) the lack of time dependency representation. Our unsupervised approach is motivated by Carlsson and Memolis theoretical framework which ensures a stability property for hierarchical clustering algorithms regarding to data permutation. To take full advantage of such framework, we employed Takens embedding theorem to make data statistically independent after being mapped to phase spaces. Independent data were then grouped using the Permutation-Invariant Single-Linkage Clustering Algorithm (PISL), an adapted version of the agglomerative algorithm Single-Linkage, respecting the stability property proposed by Carlsson and Memoli. Our algorithm outputs dendrograms (seen as data models), which are proven to be equivalent to ultrametric spaces, therefore the detection of concept drifts is possible by comparing consecutive ultrametric spaces using the Gromov-Hausdorff (GH) distance. As result, model divergences are indeed associated to data changes. We performed two main experiments to compare our approach to others from the literature, one considering abrupt and another with gradual changes. Results confirm our approach is capable of detecting concept drifts, both abrupt and gradual ones, however it is more adequate to operate on complicated scenarios. The main contributions of this thesis are: i) the usage of Takens embedding theorem as tool to provide statistical independence to data streams; ii) the implementation of PISL in conjunction with GH (called PISLGH); iii) a comparison of detection algorithms in different scenarios; and, finally, iv) an R package (called streamChaos) that provides tools for processing nonlinear data streams as well as other algorithms to detect concept drifts. / Diversos processos industriais, científicos e comerciais produzem sequências de observações continuamente, teoricamente infinitas, denominadas fluxos de dados. Pela análise das recorrências e das mudanças de comportamento desses fluxos, é possível obter informações sobre o fenômeno que os produziu. A inferência de modelos estáveis para tais fluxos é suportada pelo estudo das recorrências dos dados, enquanto é prejudicada pelas mudanças de comportamento. Essas mudanças são produzidas principalmente por influências externas ainda desconhecidas pelos modelos vigentes, tal como ocorre quando novas estratégias de investimento surgem na bolsa de valores, ou quando há intervenções humanas no clima, etc. No contexto de Aprendizado de Máquina (AM), várias pesquisas têm sido realizadas para investigar essas variações nos fluxos de dados, referidas como mudanças de conceito. Sua detecção permite que os modelos possam ser atualizados a fim de apurar a predição, a compreensão e, eventualmente, controlar as influências que governam o fluxo de dados em estudo. Nesse cenário, algoritmos supervisionados sofrem com a limitação para rotular os dados quando esses são gerados em alta frequência e grandes volumes, e algoritmos não supervisionados carecem de fundamentação teórica para prover garantias na detecção de mudanças. Além disso, algoritmos de ambos paradigmas não representam adequadamente as dependências temporais entre observações dos fluxos. Nesse contexto, esta tese de doutorado introduz uma nova metodologia para detectar mudanças de conceito, na qual duas deficiências de ambos paradigmas de AM são confrontados: i) a instabilidade envolvida na modelagem dos dados, e ii) a representação das dependências temporais. Essa metodologia é motivada pelo arcabouço teórico de Carlsson e Memoli, que provê uma propriedade de estabilidade para algoritmos de agrupamento hierárquico com relação à permutação dos dados. Para usufruir desse arcabouço, as observações são embutidas pelo teorema de imersão de Takens, transformando-as em independentes. Esses dados são então agrupados pelo algoritmo Single-Linkage Invariante à Permutação (PISL), o qual respeita a propriedade de estabilidade de Carlsson e Memoli. A partir dos dados de entrada, esse algoritmo gera dendrogramas (ou modelos), que são equivalentes a espaços ultramétricos. Modelos sucessivos são comparados pela distância de Gromov-Hausdorff a fim de detectar mudanças de conceito no fluxo. Como resultado, as divergências dos modelos são de fato associadas a mudanças nos dados. Experimentos foram realizados, um considerando mudanças abruptas e o outro mudanças graduais. Os resultados confirmam que a metodologia proposta é capaz de detectar mudanças de conceito, tanto abruptas quanto graduais, no entanto ela é mais adequada para cenários mais complicados. As contribuições principais desta tese são: i) o uso do teorema de imersão de Takens para transformar os dados de entrada em independentes; ii) a implementação do algoritmo PISL em combinação com a distância de Gromov-Hausdorff (chamado PISLGH); iii) a comparação da metodologia proposta com outras da literatura em diferentes cenários; e, finalmente, iv) a disponibilização de um pacote em R (chamado streamChaos) que provê tanto ferramentas para processar fluxos de dados não lineares quanto diversos algoritmos para detectar mudanças de conceito.
408

Otimização de operações de entrada e saída visando reduzir o tempo de resposta de aplicações distribuídas que manipulam grandes volumes de dados / Optimization input output operations aiming at reduce execution time of distributed applications which handle large amount of data

Ishii, Renato Porfirio 01 September 2010 (has links)
Aplicações científicas atuais têm produzido volumes de dados cada vez maiores. O processamento, a manipulação e a análise desses dados requerem infraestruturas computacionais de larga escala tais como aglomerados e grades de computadores. Nesse contexto, várias pesquisas visam o aumento de desempenho dessas aplicações por meio da otimização de acesso a dados. Para alcançar tal objetivo, pesquisadores têm utilizado técnicas de replicação, migração, distribuição e paralelismo de dados. No entanto, uma das principais lacunas dessas pesquisas está na falta de emprego de conhecimento sobre aplicações com objetivo de realizar essa otimização. Essa lacuna motivou esta tese que visa empregar comportamento histórico e preditivo de aplicações a fim de otimizar suas operações de leitura e escrita sobre dados distribuídos. Os estudos foram iniciados empregando-se informações previamente monitoradas de aplicações a fim de tomar decisões relativas à replicação, migração e manutenção de consistência. Observou-se, por meio de uma nova heurística, que um conjunto histórico de eventos auxilia a estimar o comportamento futuro de uma aplicação e otimizar seus acessos. Essa primeira abordagem requer ao menos uma execução prévia da aplicação para composição de histórico. Esse requisito pode limitar aplicações reais que apresentam mudanças comportamentais ou que necessitam de longos períodos de execução para completar seu processamento. Para superar essa limitação, uma segunda abordagem foi proposta baseada na predição on-line de eventos comportamentais de aplicações. Essa abordagem não requer a execução prévia da aplicação e permite adaptar estimativas de comportamento futuro em função de alterações adjacentes. A abordagem preditiva analisa propriedades de séries temporais com objetivo de classificar seus processos geradores. Essa classificação aponta modelos que melhor se ajustam ao comportamento das aplicações e que, portanto, permitem predições com maior acurácia. As duas abordagens propostas foram implementadas e avaliadas utilizando o simulador OptorSim, vinculado ao projeto LHC/CERN, amplamente adotado pela comunidade científica. Experimentos constataram que as duas abordagens propostas reduzem o tempo de resposta (ou execução) de aplicações que manipulam grandes volumes de dados distribuídos em aproximadamente 50% / Current scientific applications produce large amount of data and handling, processing and analyzing such data require large-scale computing infrastructure such as clusters and grids. In this context, various studies have focused at improving the performance of these applications by optimizing data access. In order to achieve this goal, researchers have employed techniques of replication, migration, distribution and parallelism of data. However, these common approaches do not use knowledge about the applications at hand to perform this optimization. This gap motivated the present thesis, which aims at applying historical and predictive behavior of applications to optimize their reading and writing operations on distributed data. Based on information previously monitored from applications to make decisions regarding replication, migration and consistency of data, a new heuristic was initially proposed. Its evaluation revealed that considering sets of historical events indeed helps to estimate the behavior of future applications and to optimize their access operations. Thus it was embedded into two optimization approaches. The first one requires at least a previous execution for the history composition. This requirement may limit real world applications which present behavioral changes or take very long time to execute. In order to overcome this issue, a second technique was proposed. It performs on-line predictions about the behavior of the applications, mitigating the need of any prior execution. Additionally, this approach considers the future behavior of an application as a function of its underlying changes. This behavior can be modeled as time series. The method works by analyzing the series properties in order to classify their generating processes. This classification indicates models that best fit the applications behavior, allowing more accurate predictions. Experiments using the OptorSim simulator (LHC/CERN project) confirmed that the proposed approaches are able to reduce the response time of applications that handle large amount of distributed data in approximately 50%
409

Previsão do consumo de energia elétrica por setores através do modelo SARMAX / Forecasting electric energy consumption by sectors with SARMAX model

Moura, Fernando Alves de 25 November 2011 (has links)
A previsão do consumo de energia elétrica do Brasil é muito importante para os órgãos reguladores do setor. Uma série de metodologias têm sido utilizadas para a projeção desse consumo. Destacam-se os modelos de regressão com dados em painel, modelos de cointegração e defasagem distribuída, modelos estruturais de séries temporais e modelos de Box & Jenkins de séries temporais, dentre outros. Neste trabalho estimar-se um modelo de previsão do consumo comercial, industrial e residencial de energia brasileiro por meio de modelos SARMAX. Nesses modelos o consumo de energia pode ser estimado por meio de uma regressão linear múltipla considerando diversas variáveis macroeconômicas como variáveis explicativas. Os resíduos desse modelo são explicados por meio de um modelo de Box & Jenkins. Neste estudo realiza-se uma pesquisa bibliográfica sobre fatores que influenciam no consumo de energia elétrica e levantam-se variáveis proxies para prever este consumo no Brasil. Utiliza-se uma base de dados mensal no período entre Janeiro de 2003 e Setembro de 2010 para construção de cada um dos três modelos de previsão citados. Utilizase uma amostra de validação de Outubro de 2010 até Fevereiro de 2011. Realiza-se a avaliação dos modelos estimados em termos de adequação às premissas teóricas e ao desempenho nas medidas de acurácia MAPE, RMSE e coeficiente de determinação ajustado. Os modelos estimados para o consumo de energia elétrica dos setores comercial, industrial e residencial obtêm um MAPE de 2,05%, 1,09% e 1,27%; um RMSE de 144,13, 185,54 e 158,40; e um coeficiente de determinação ajustado de 95,91%, 93,98% e 96,03% respectivamente. Todos os modelos estimados atendem os pressupostos de normalidade, ausência de autocorrelação serial e ausência de heterocedasticidade condicionada dos resíduos. Os resultados confirmaram a viabilidade da utilização das variáveis macroeconômicas testadas para estimar o consumo de energia elétrica por setores e a viabilidade da metodologia para a previsão destas séries na amostra de dados selecionada. / The prediction of electricity consumption in Brazil is very important to the industry regulators. A number of methodologies have been used for the projection of this consumption. Noteworthy are the regression models with data in panel, co-integration and distributed lag models, time series structural models and Box & Jenkins time series models among others. In this work we intend to estimate a forecasting model of the Brazilian commercial, industrial and residential consumption of energy by means of SARMAX models. In these models the power consumption can be estimated by a multiple linear regression considering various macro-economic variables as explanatory variables. The residues of this model are explained by a Box & Jenkins model. In this study it is carried out a bibliographic research on factors that influence energy consumption and proxy variables are risen to predict the consumption in Brazil. The consumption of electricity is estimated for the commercial, industrial and residential sectors. It is used a monthly data base over the period between January 2003 and September 2010 for the construction of each of the three prediction models mentioned. It is used a validation sample from October 2010 to February 2011. It is carried out the assessment of the estimated models in terms of compliance with the theoretical premises and the performance on measures of accuracy MAPE, RMSE and adjusted determinant coefficient. The estimated models for the energy consumption of commercial, industrial and residential sectors obtain a MAPE of 2.05%, 1.09% and 1.27%; a RMSE of 144.13, 185.54 and 158.40; and a adjusted determinant coefficient of 95.91%, 93.98% and 96.03% respectively. All estimated models satisfy the assumptions of normality, absence of serial autocorrelation and absence of conditioned heteroscedasticity of the residues. The results confirmed the viability of the usage of the macroeconomic variables tested to estimate the energy consumption by sector and the viability of the methodology for the prediction of these series in the selected data sample.
410

Algoritmos não-paramétricos para detecção de pontos de mudança em séries temporais de alta frequência / Non-parametric change-point detection algorithms for high-frequency time series

Cardoso, Vitor Mendes 05 July 2018 (has links)
A área de estudos econométricos visando prever o comportamento dos mercados financeiros aparece cada vez mais como uma área de pesquisas dinâmica e abrangente. Dentro deste universo, podemos de maneira geral separar os modelos desenvolvidos em paramétricos e não paramétricos. O presente trabalho tem como objetivo investigar técnicas não-paramétricas derivadas do CUSUM, ferramenta gráfica que se utiliza do conceito de soma acumulada originalmente desenvolvida para controles de produção e de qualidade. As técnicas são utilizadas na modelagem de uma série cambial (USD/EUR) de alta frequência com diversos pontos de negociação dentro de um mesmo dia / The area of econometric studies to predict the behavior of financial markets increasingly proves itself as a dynamic and comprehensive research area. Within this universe, we can generally separate the models developed in parametric and non-parametric. The present work aims to investigate non-parametric techniques derived from CUSUM, a graphical tool that uses the cumulative sum concept originally developed for production and quality controls. The techniques are used in the modeling of a high frequency exchange series (USD/EUR) with several trading points within the same day

Page generated in 0.0414 seconds