• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 9
  • 5
  • 4
  • Tagged with
  • 121
  • 121
  • 63
  • 61
  • 27
  • 24
  • 24
  • 23
  • 22
  • 20
  • 19
  • 18
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algoritmos bio-inspirados para solução de problemas de otimização

BARBOSA, Carlos Eduardo Martins 09 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:10:42Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:19:29Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Made available in DSpace on 2018-07-26T22:19:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) Previous issue date: 2017-05-09 / Muitos problemas do mundo real podem ser formulados como problemas de otimização em domínios contínuos. Nos últimos anos, algoritmos bio-inspirados, que fundamentam-se no comportamento dos fenômenos naturais, têm sido cada vez mais empregados para resolver tais problemas. Neste trabalho, são investigados 8 (oito) algoritmos inspirados na natureza: algoritmos genéticos (GA), otimização por colônia de formigas (ACO), otimização por enxame de partículas (PSO), colônia de abelhas artificiais (ABC), algoritmo do vaga-lume (FA), algoritmo de busca do pássaro cuco (CS), algoritmo do morcego (BAT) e algoritmo de busca autoadaptativa do pássaro cuco (SACS). Estes algoritmos são analisados em três tipos de problemas distintos, que compreendem (1) funções de benchmark estudadas comumente em problemas de otimização, (2) previsão da energia eólica a partir da velocidade do vento com dados reais coletados de dois parques eólicos, e (3) clusterização de padrões, necessária na solução de problemas não-supervisionados. Os experimentos realizados com os diferentes algoritmos analisaram as principais vantagens e deficiências dos algoritmos em relação à (1) qualidade das soluções obtidas segundo métricas de desempenho específicas para cada problema, (2) tempo de execução do algoritmo e (3) tempo de convergência para a melhor solução. Uma técnica de ajuste automático dos parâmetros, também bio-inspirada, foi desenvolvida e empregada em todos os problemas e algoritmos, para se determinar os valores ótimos para cada método e permitir uma comparação consistente dos resultados. Os experimentos realizados evidenciaram que o algoritmo do pássaro cuco funciona de forma eficiente, robusta e superior aos outros métodos investigados para a maioria dos experimentos realizados, e que a propriedade de cauda longa da distribuição com voos de Lévy, explorada neste trabalho, é a principal responsável pela eficiência deste algoritmo. / Many real-world problems can be formulated as optimization problems in continuous domains. In the last years, bio-inspired algorithms, whice are based on the behavior of natural phenomena, have been increasingly employed to solve such problems. In this work, 8 (eight) algorithms inspired by nature are investigated: genetic algorithms (GA), ant colony optimization (ACO), particle swarm optimization (PSO), artificial bee colony (ABC), firefly algorithm (FA), cuckoo search algorithm (CS), bat algorithm (BAT) and self-adaptive cuckoo search algorithm (SACS). These algorithms are analyzed in three different types of problems, which comprise (1) benchmark functions commonly studied in optimization problems, (2) prediction of wind energy from wind speed with real data collected from two wind farms, and clustering patterns, required in solving unsupervised problems. The experiments performed with the different algorithms investigated the main advantages and disadvantages of the algorithms concerning (1) the quality of the solutions obtained according to specific metrics for each problem, (2) algorithm execution time and (3) convergence time for the best solution. A bio-inspired technique of automatic parameter tuning was developed and employed in all problems and algorithms in order to determine optimal values for each method and to allow a consistent comparison of the results. The performed experiments showed that the cuckoo search algorithm works efficiently, robustly and superior to the other investigated methods for most of the experiments, and the long tail property of the Lévy Flight distribution, explored in this work, is the main responsible for the efficiency of this algorithm.
2

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
3

Mapeamento semântico incremental com aprendizagem online e não-supervisionada

SOUSA, Ygor César Nogueira 20 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:14:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:31:06Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Made available in DSpace on 2018-08-03T19:31:06Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) Previous issue date: 2017-03-20 / CNPq / A crescente inclusão de robôs móveis na vida cotidiana das pessoas, compartilhando espaço como agentes em diferentes atividades, tem dado impulso à criação de uma série de novas tecnologias compostas. Neste contexto, aparece o Mapeamento Semântico, que visa criar uma abstração ou representação do espaço em que um robô navega, a fim de proporcionar um meio para comum entendimento e comunicação entre estes robôs e seres humanos. Essa abstração é criada sob a forma de um mapa que agrega informações semânticas (isto é, informações que façam sentido para um ser humano em termos de comunicação) sobre o ambiente no qual o robô se encontra. Desta forma, esta dissertação introduz uma abordagem de Mapeamento Semântico incremental, com aprendizagem online e não-supervisionada, baseada em Mapas Auto-organizáveis (SOMs) de topologia variante no tempo. A abordagem se divide no módulo de mapeamento, o qual cria mapas topológicos de ambientes incrementalmente, enriquecidos com objetos reconhecidos como informação semântica determinante, e no módulo de categorização de lugares, dotado de um método de aprendizagem incremental, não-supervisionado, com treinamento online, baseado em SOM. Com o intuito de avaliar a viabilidade da abordagem, a mesma foi testada a partir de experimentos realizados com uma base dados reais, os quais demonstraram de forma promissora sua capacidade na aquisição incremental de mapas topológicos enriquecidos com informações semânticas e na categorização de lugares mapeados a partir destas informações. / The increasing inclusion of mobile robots in people’s daily lives, sharing space as agents in a range of different activities, has given rise to the creation of a series of new composite technologies. In this context, it appears the Semantic Mapping, which aims to create an abstraction or representation of space in which a robot navigates in order to provide a means for common understanding and communication between these robots and humans. This abstraction is created in the form of a map that aggregates semantic information (i.e., information that makes sense to a human in terms of communication) about the environment in which the robot is. In this way, this dissertation introduces an incremental semantic mapping approach, with online and unsupervised learning, based on self-organizing maps (SOMs) with time-varying topology. The approach is divided into the mapping module, which incrementally creates topological maps of environments, enriched with recognized objects as determinant semantic information, and in the module of places categorization, endowed with an incremental, unsupervised learning method with online training, based on SOM. In order to evaluate the viability of the approach, it was tested in experiments with real world data, which demonstrated a promising capability for the incremental acquisition of topological maps enriched with semantic information and for the categorization of places based on this information.
4

Aprendizagem de máquina aplicada a métodos de classificação de supernovas.

SILVA, R. D. 06 September 2018 (has links)
Made available in DSpace on 2018-09-11T12:25:58Z (GMT). No. of bitstreams: 1 tese_12581_Dissertação Rodrigo Duarte Silva - PPGFis.pdf: 7836357 bytes, checksum: dd128e0cf54e3d58e169b4f2492da434 (MD5) Previous issue date: 2018-09-06 / Futuras pesquisas observacionais com investimentos, telescópios e tecnologias nunca antes vistos, estão sendo propostas na tentativa de se desvendar os mistérios do Universo. Em nosso trabalho, fornecemos um panorama desse cenário, com especial atenção para a classificação de supernovas que será feita pelo LSST (Large Synoptic Survey Telescope) a partir de 4244. Inicialmente introduzimos a física que envolve o evento da Supernova e sua observação, com o objetivo de tratar o problema da classificação fotométrica de supernovas didaticamente. Fornecemos importantes referências no uso de diferentes aprendizagens de máquina e redes neurais para esse propósito. Incluímos resultados do uso de alguns dos métodos computacionais e a teoria por trás deles, destacando suas potencialidades e vunerabilidades. Os métodos de aprendizagem de máquina podem envolver supervisão ou não. Objetivamos descrever a aplicação destas poderosas ferramentas, na análise de dados observacionais e verificamos resultados inesperados.
5

SVR-GARCH com misturas de kernels gaussianos

Bezerra, Pedro Correia Santos 18 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Administração, Programa de Pós-graduação em Administração, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-06-24T13:54:25Z No. of bitstreams: 1 2016_PedroCorreiaSantosBezerra.pdf: 1873991 bytes, checksum: 4cf775ac8f467cc83417f0bfde464f97 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-07-04T20:32:00Z (GMT) No. of bitstreams: 1 2016_PedroCorreiaSantosBezerra.pdf: 1873991 bytes, checksum: 4cf775ac8f467cc83417f0bfde464f97 (MD5) / Made available in DSpace on 2016-07-04T20:32:00Z (GMT). No. of bitstreams: 1 2016_PedroCorreiaSantosBezerra.pdf: 1873991 bytes, checksum: 4cf775ac8f467cc83417f0bfde464f97 (MD5) / Durante o desenvolvimento deste trabalho o autor recebeu auxílio financeiro da CAPES. / A previsão da volatilidade dos retornos financeiros é fundamental em finanças empíricas. Nos últimos 15 anos, a máquina de suporte vetorial para regressão (Support Vector Regression (SVR)) foi proposta na literatura para estimação e previsão da volatilidade devido à sua capacidade de modelar as caudas pesadas, agrupamento de volatilidade e efeito de alavancagem dos retornos financeiros (Santamaria-Bonfil et al., 2015, Cavalcante et al., 2016). Evidências empíricas sugerem que o mercado de capitais oscila entre vários estados (ou regimes) (BenSaida, 2015), em que a distribuição global dos retornos é uma mistura de distribuições normais (Levy e Klaplansky, 2015). Neste contexto, o objetivo deste trabalho foi implementar misturas de kernels gaussianos no modelo SVR com variáveis de entrada do GARCH (1,1) (denominado SVR-GARCH) para capturar os regimes de mercado e aprimorar as previsões da volatilidade. O SVR-GARCH com combinação convexa de um, dois três e quatro kernels gaussianos foi comparado com o random walk, SVR-GARCH com kernel de ondaleta de Morlet, SVR-GARCH com kernel de ondaleta de Chapéu Mexicano, GARCH(1,1), EGARCH(1,1) e GJR(1,1) com distribuição normal, t-Student, t-Student assimétrica e distribuição de erro generalizada (GED) para a série de log-retornos diários do Ibovespa de 22 de dezembro de 2007 a 04 de janeiro de 2016. Para selecionar os parâmetros ótimos do SVR e do kernel, utilizou-se a técnica de validação combinada com o procedimento de grid-search e análise de sensibilidade. Para comparar o desempenho preditivo dos modelos, utilizou-se o Erro Quadrático Médio (MSE), Erro Quadrático Normalizado (NMSE), Raiz Quadrada do Erro Quadrático Médio (RMSE) e o teste de Diebold-Mariano. Os resultados empíricos indicam que o modelo SVR-GARCH com kernel de ondaleta de Chapéu Mexicano e random walk têm desempenho preditivo superior em relação aos demais modelos. Ademais, o SVR-GARCH com mistura de dois, três e quatro kernels gaussianos é superior ao SVR-GARCH com kernel de ondaleta de Morlet e um kernel gaussiano, o que também é uma novidade e contribuição deste trabalho. Por fim, esta dissertação confirma os achados da literatura em relação à superioridade do SVR na modelagem dos fatos estilizados da volatilidade das séries financeiras em relação aos modelos GARCH linear e não-linear com caudas pesadas. ________________________________________________________________________________________________ ABSTRACT / Volatility forecasting plays an important role in empirical finance. In the last 15 years, a number of studies has used the Support Vector Regression to estimate and predict volatility due to its ability to model leptokurtosis, volatility clustering, and leverage effect of financial returns (Santamaria-Bonfil et al., 2015, Cavalcante et al., 2016). Empirical evidence suggests that the capital market oscillates between several states (or regimes) (BenSaida, 2015), in which the overall distribution of returns is a mixture of normal distributions (Levy and Klaplansky, 2015). In this context, the objective of this dissertation is to use a mixture of Gaussian kernels in the SVR based on GARCH (1,1) (heretofore SVR-GARCH) in order to capture the regime behavior and to improve the one-period-ahead volatility forecasts. In order to choose the SVR parameters, I used the validation technique (holdout method) based on grid-search and sensitivity analysis. The SVR-GARCH with a linear combination of one, two, three and four Gaussian kernels is compared with \textit{random walk}, SVR-GARCH with Morlet wavelet kernel, SVR-GARCH with Mexican Hat wavelet kernel, GARCH, GJR and EGARCH models with normal, student-t, skewstudent- t and Generalized Error Distribution (GED) innovations by using the Mean Squared Error (MSE), Normalized Mean Squared Error (NMSE), Root Mean Squared Error (RMSE) and Diebold Mariano test. The out-sample results for the Ibovespa daily closing price from August 20, 2013 to January 04, 2016 shows that the random walk model and SVR-GARCH with Mexican Hat wavelet kernel provide the most accurate forecasts. The outcomes also highlight the fact that the SVR GARCH with a mixture of two, three and four Gaussian kernels has superior results than the SVR GARCH with Morlet wavelet kernel and a single Gaussian kernel. Moreover, consistent with the findings of the literature, I confirm that the SVR has superior empirical results in modeling financial time series stylized facts than the linear and non-linear GARCH models with fat-tailed distributions.
6

Um algoritmo evolutivo para indução de árvores de regressão robusto a valores ausentes

Blomberg, Luciano Costa January 2014 (has links)
Made available in DSpace on 2014-09-23T02:01:03Z (GMT). No. of bitstreams: 1 000461465-Texto+Completo-0.pdf: 5428729 bytes, checksum: d0627f774922501baa685975c40465f5 (MD5) Previous issue date: 2014 / A common concern in many fields of knowledge involves problems of low quality data, such as noise and missing data. In the machine learning area, for example, missing data has generated serious problems in the knowledge extraction process, hiding important information about the dataset, skewing results and affecting the accuracy of the induced models. In order to deal with these problems, much has been discussed in the literature about missing values treatment strategies, either by preprocessing tasks or by the implementation of robust algorithms to missing data. In this thesis, we introduce a new evolutionary algorithm for induction of regression trees, including multiple strategies in its evolutionary cycle for dealing with missing data. Aiming to make a comparative analysis, we evaluated six traditional regression algorithms over 10 public datasets artificially modified to present different levels of missing data. Results from the experimental analysis show that the proposed solution presents a good trade-off between model interpretability and predictive performance, especially for datasets with more than 40% of missing data. / Uma preocupação comum em muitas áreas do conhecimento envolve problemas de baixa qualidade de dados, tais como ruídos e dados ausentes. Na área de aprendizado de máquina, por exemplo, dados ausentes têm gerado sérios problemas no processo de extração de conhecimento, ocultando importantes informações sobre o dataset, enviesando resultados e afetando o desempenho preditivo dos modelos induzidos. Para lidar com esse problema, muito tem se discutido na literatura sobre estratégias de tratamento, seja por préprocessamento ou por meio do desenvolvimento de algoritmos robustos a dados ausentes. Neste trabalho, propõe-se um novo algoritmo evolutivo para indução de árvores de regressão, agregando em seu ciclo evolutivo múltiplas estratégias para lidar com dados ausentes. Com o objetivo de fazer uma análise comparativa, foram avaliados 6 tradicionais algoritmos de regressão, considerando para tanto, 10 datasets artificialmente modificados para manterem diferentes níveis de dados ausentes. Resultados da análise experimental mostram que a solução proposta apresenta uma boa relação custo-benefício entre compreensibilidade dos modelos e desempenho preditivo, especialmente para as bases de dados com mais de 40% de dados ausentes.
7

Aprendizagem de máquina aplicada a métodos de classificação de supernovas

Silva, Rodrigo Duarte, 0000000226294436 06 September 2018 (has links)
Made available in DSpace on 2018-09-11T12:25:58Z (GMT). No. of bitstreams: 1 tese_12581_Dissertação Rodrigo Duarte Silva - PPGFis.pdf: 7836357 bytes, checksum: dd128e0cf54e3d58e169b4f2492da434 (MD5) Previous issue date: 2018-09-06 / Futuras pesquisas observacionais com investimentos, telescópios e tecnologias nunca antes vistos, estão sendo propostas na tentativa de se desvendar os mistérios do Universo. Em nosso trabalho, fornecemos um panorama desse cenário, com especial atenção para a classificação de supernovas que será feita pelo LSST (Large Synoptic Survey Telescope) a partir de 2022. Inicialmente introduzimos a física que envolve o evento de Supernovas e sua observação, com o objetivo de tratar o problema da classificação fotométrica de supernovas didaticamente. Fornecemos importantes referências no uso de diferentes aprendizagens de máquina e redes neurais para esse propósito. Incluímos resultados do uso de alguns dos métodos computacionais e a teoria por trás deles, destacando suas potencialidades e vunerabilidades. Os métodos de aprendizagem de máquina podem envolver supervisão ou não. Objetivamos descrever a aplicação destas poderosas ferramentas, na análise de dados observacionais e verificamos resultados inesperados. / Future observational research with investments, telescopes and technologies never before seen, are being proposed in an attempt to unravel the mysteries of the Universe. In our work, we provide an overview of this scenario, with special attention to the classification of supernovae that will be done by LSST (Large Synoptic Survey Telescope) from 2022. Initially, we introduce the physics that involve the Supernova event and its observation, with the objective of treating the problem of photometric classification of supernovae. We provide important references in the use of different machine learning and neural networks for this purpose. We include results from the use of some of the computational methods and the theory behind them, highlighting their potentialities and vunerabilities. Machine learning methods may involve supervision or not. We aim to describe the applica- tion of these powerful tools in the analysis of observational data and verify unexpected results.
8

Support Vector Regression aplicado à previsão de taxas de câmbio

Yaohao, Peng 17 November 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Gestão Pública, Programa de Pós-Graduação em Administração, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-29T16:54:14Z No. of bitstreams: 1 2016_PengYaohao.pdf: 1180450 bytes, checksum: ef8f0884103e32b6a4dac98a1c9dd880 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-04-13T20:57:38Z (GMT) No. of bitstreams: 1 2016_PengYaohao.pdf: 1180450 bytes, checksum: ef8f0884103e32b6a4dac98a1c9dd880 (MD5) / Made available in DSpace on 2017-04-13T20:57:38Z (GMT). No. of bitstreams: 1 2016_PengYaohao.pdf: 1180450 bytes, checksum: ef8f0884103e32b6a4dac98a1c9dd880 (MD5) / O presente estudo realizou a previsão da taxa spot de 15 pares de câmbio mediante a aplicação de um algoritmo de aprendizado de máquinas – Support Vector Regression – com base em um modelo fundamentalista composto por 13 variáveis explicativas. Para a estimação das previsões, foram consideradas 9 funções Kernel extraídas da literatura científica, totalizando assim 135 modelos verificados. As previsões foram comparadas com o benchmark Random Walke avaliadas em relação à taxa de acerto direcional do câmbio e às métricas de erro RMSE (raiz quadrada do erro quadrático médio) e MAE (erro absoluto médio). A significância estatística do incremento de poder explicativo dos modelos SVR em relação ao Random Walk foi verificada mediante a aplicação do Reality Check Test de White (2000). Os resultados mostram que os modelos SVR obtiveram desempenho preditivo satisfatório em relação ao benchmark, com vários dos modelos propostos apresentando forte significância estatística de superioridade preditiva.Por outro lado, observou-se que várias funções Kernel comumente utilizadas na literatura científica não lograram êxito em superar o Random Walk, apontando para uma possível lacuna no estado da arte de aprendizado de máquinas aplicada à previsão de taxas de câmbio. Por fim, discutiu-se acerca das implicações dos resultados obtidos para o desenvolvimento futuro da agenda de pesquisa correlata. / This paper aims to forecast the spot exchange rate of 15 currency pairs by applying a machinelearning algorithm – Support Vector Regression – based on a fundamentalist model composedof 13 explanatory variables. The predictions’ estimation were obtained by applying 9different Kernel functions extracted from the scientific literature, resulting in a total of 135 modelsverified. The predictions were compared to the Random Walk benchmark and evaluated for directionalaccuracy rate of exchange pradictions and error performance indices RMSE (root meansquare error) and MAE (mean absolute error). The statistical significance of the explanatorypower gain via SVR models with respect to the Random Walk was checked by applying White(2000)’s Reality Check Test. The results show that SVR models achieved satisfactory predictiveperformance relative to the benchmark, with several of the proposed models showing strong statisticalsignificance of predictive superiority. Furthermore, the results showed that mainstreamKernel functions commonly used in the scientific literature failed to outperform the RandomWalk,indicating a possible gap in the state of art of machine learning methods applications to exchangerates forecasting. Finally, the paper presents a discussion about the implications of the obtainedresults for the future development of related research agendas.
9

Poder preditivo de métodos de Machine Learning com processos de seleção de variáveis : uma aplicação às projeções de produto de países

Vasconcelos, Bruno Freitas Boynard de 31 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Departamento de Economia, Programa de Pós-Graduação em Ciências Econômicas, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-07-14T21:20:33Z No. of bitstreams: 1 2017_BrunoFreitasBoynarddeVasconcelos.pdf: 1272769 bytes, checksum: ea0067c9d9cebb423d06379ad5d32236 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-08-01T21:29:18Z (GMT) No. of bitstreams: 1 2017_BrunoFreitasBoynarddeVasconcelos.pdf: 1272769 bytes, checksum: ea0067c9d9cebb423d06379ad5d32236 (MD5) / Made available in DSpace on 2017-08-01T21:29:18Z (GMT). No. of bitstreams: 1 2017_BrunoFreitasBoynarddeVasconcelos.pdf: 1272769 bytes, checksum: ea0067c9d9cebb423d06379ad5d32236 (MD5) Previous issue date: 2017-08-01 / A tese procura aplicar métodos orientados a dados e de aprendizado de máquina para tratar de problemas estruturais de base e dados e fazer previsões com dados novos em ambientes de painéis de países. A questão de estudar e comparar países é muito interessante em economia. A tese faz os exercícios orientados a dados em painéis de países em dois trabalhos. No primeiro trabalho buscamos agrupar países com dinâmicas internas semelhantes com vistas a entender como e porque as dinâmicas internas dos países se diferenciam. Nesse sentido, em um ambiente com poucas observações amostrais, simulamos uma amostra grande o suficiente para conseguirmos estimar sistemas de equações identificados. Estes sistemas de equações visam estudar os canais de transmissão entre produto, investimento, poupança e preços do investimento e da poupança. No segundo trabalho, utilizamos uma abordagem de aprendizado de máquina para desenvolver um procedimento que visa (i) ter um desempenho preditivo com dados novos tão bom quanto os melhores estimadores disponíveis ao mesmo tempo que (ii) possui vantagens interpretativas sobre esses estimadores. Assim, em um primeiro estágio identificamos as variáveis" signals" em um conjunto de preditores e em um segundo estágio escolhemos, por validação cruzada, a melhor especificação para fazer previsão de PIB de países. Para avaliar a eficiência do método, comparamos nosso procedimento com outros procedimentos em igualdade de condições. Os resultados de ambos os trabalhos, apesar de usarem bases de dados e métodos distintos, apontam na mesma direção. O mais relevante para diferenciar um país, ou para antecipar flutuações do produto, é como esse país interage com o mercado internacional. No caso do primeiro trabalho, verificamos que a principal característica que assemelha ou diferencia os países é como ele responde a mudanças no humor dos investidores estrangeiros. No caso do segundo trabalho, a característica mais importante para antecipar informação nova é verificar como o país está absorvendo renda internacional em relação ao que fazia no passado. / The thesis has two main objectives. The first is to use data-driven and machine learning methods to address structural database problems. The second is to make predictions with new data in country panel environments. We do the exercises in country panels in two studies. In the first study, we group countries with similar internal dynamics in order to understand how and why countries differ from the structural point of view. To solve the problem of few sample observations, we simulate a large enough sample, based on the observed data, to make our estimates. The systems of structural equations used in this work aim to study the transmission channels between product, investment, savings and interest rates. In the second work, we use a machine learning approach to propose a two-stage estimation procedure that aims to: (i) make predictions with new data as good as the best estimators of machine learning, and (ii) present a better interpretation of the estimates. Thus, in the first stage, we identified the signals variables in a large set of predictors and in the second stage we defined a good specification to forecast countries' GDP. Finally, we confirm the efficiency of the method by comparing our procedure with other procedures on equal terms. The results of the two papers indicate similar lessons. The most important thing to differentiate a country, or to anticipate product fluctuations, is how that country interacts with the international market.
10

Predição da recuperação da inadimplência em operações de crédito

Lopes, Rogério Gomes 31 July 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-11-01T16:45:32Z No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-01-04T20:36:56Z (GMT) No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Made available in DSpace on 2018-01-04T20:36:56Z (GMT). No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) Previous issue date: 2018-01-04 / Este trabalho propôs a indução de classificadores, a partir da aplicação de técnicas de mineração de dados,para identificar clientes inadimplentes com potencial de regularização da dívida visando auxiliar uma instituição financeira a reduzir a Provisão para Créditos de Liquidação Duvidosa (PCLD). Estes modelos poderão contribuir para reversão de despesas da instituição financeira. Foram utilizados as técnicas Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) e Gradient Boosting Methods (GBM), implementados na plataforma H2O.ai. Alguns aspectos que afetam o comportamento do cliente inadimplente foram identificados, como o perfil de sua renda e a época do ano. Estratégias de recuperação de crédito foram propostas e simulações identificaram possibilidades de redução de despesas operacionais. / This works proposes the induction of classifiers, from the application of data mining techniques, to identify defaulting clients with debt settlement potential to assist a financial institution in reducing its provision for doubtful debits. These models may contribute to the reversal of expenses of the financial institution. The techniques Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) and Gradient Boosting Methods (GBM) algorithms implemented in the H2O.ai platform were used. Some aspects that affect the behavior of the defaulting customer, such as the profile of their income and the period of the year, have been identified. Strategies of credit recovery strategies were proposed and simulations identified possibilities of reducing operating expenses.

Page generated in 0.0863 seconds