• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 8
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 296
  • 296
  • 229
  • 186
  • 167
  • 123
  • 65
  • 42
  • 35
  • 34
  • 30
  • 28
  • 28
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Avaliação geoquímica da variabilidade das concentrações dos elementos Traço ao longo de perfis pedológicos na Bacia do Rio Tatuoca, Ipojuca PE

SANTOS, Ivaneide de Oliveira 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T18:02:18Z (GMT). No. of bitstreams: 2 arquivo2486_1.pdf: 2738344 bytes, checksum: c630cb58952dfd04bee951ccb1b9c2b6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A bacia hidrográfica do rio Tatuoca faz parte do grupo de pequenos rios litorâneos do Estado de Pernambuco e na sua área de drenagem encontra-se o Complexo Industrial Portuário de Suape - CIPS. O estudo das concentrações de elementos-traço em solos é um importante instrumento na gestão ambiental do meio físico de bacias hidrográficas, uma vez que pode contribuir para diferenciar as concentrações de base geogênica e as contribuições antrópicas em sua área de drenagem. Dentro desse contexto, o estudo teve como objetivo caracterizar a variação geoquímica de elementos-traço em dois perfis pedológicos, de modo a visualizar possíveis contribuições de origem antrópicas, bem como subsidiar estudos de geoquímica de sedimentos ativos de corrente na bacia do rio Tatuoca. Dois perfis pedológicos foram coletados através de sondagem rotativa, denominados CTP2 e CTP4, com 17 e 6 metros de profundidade respectivamente. Ambos foram seccionados a cada 50 centímetros compondo um total de 45 amostras, que foram inicialmente preparadas no Laboratório de Preparação de Amostras do Departamento de Geologia da Universidade Federal de Pernambuco e posteriormente enviadas para análises químicas no Laboratório Geosol (MG). Tais análises foram efetuadas por Espectrometria de Emissão Atômica (ICPAES) para 29 elementos. Os resultados foram tratados estatisticamente através de análise multivariada (Análise de Componentes Principais) e por Fator de Enriquecimento. A base de dados foi gerada a partir das concentrações dos 16 elementos-traço resultantes das análises das 45 amostras coletadas. A interpretação dos resultados estatísticos permitiu identificar anomalias geoquímicas nos dois perfis de solo estudados. O fator de enriquecimento para chumbo foi de 3,3 na seção mais superficial do solo, não sendo explicado por um natural enriquecimento pedogenético sendo, portanto, de origem antropogênica
42

Utilização de Redes Neurais Artificiais e Análise de Componentes Principais no Monitoramento da Qualidade da Água

Pimentel Marques, Luciana 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T18:06:12Z (GMT). No. of bitstreams: 2 arquivo7163_1.pdf: 2363182 bytes, checksum: e6884bcbe3ed945c11ac77e0587a427a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os recursos hídricos vem sendo ameaçados por diversas atividades antrópicas, o que tem levado a comunidade científica a se preocupar em elaborar e discutir metodologias de se avaliar a qualidade dessas águas, quer sejam de forma físico-química ou biológica. Uma das principais ameaças ao meio ambiente é o processo de eutrofização, que é o aumento da concentração de nutrientes, como por exemplo, nitrogênio e fósforo, nos ecossistemas aquáticos. Os avanços tecnológicos computacionais permitiram que a modelagem matemática passasse a desempenhar um importante papel nos estudos de tratamento de dados de Química Ambiental, em especial de Qualidade da Água. Este fato se deve a capacidade da modelagem encarar os processos hidrológicos, físicos, químicos e biológicos de forma simplificada e prática, ainda que sejam complexos. A modelagem empírica utiliza unicamente dados experimentais, surgindo como alternativa a essa complexidade e as técnicas de sistemas inteligentes (as Redes Neurais Artificiais- RNAs) e de análise multivariada (Análise de Componentes Principais-ACP), apresentaram-se atraentes para esta finalilidade. Visando a otimização, diminuindo os custos do processo e o tempo de resposta do monitoramento, neste trabalho foram desenvolvidas estratégias e ferramentas computacionais para a utilização de redes neurais e estatística multivariada na modelagem da qualidade da água utilizando a clorofila-a como parâmetro de avaliação para os dados do Reservatório da Marcela, em Sergipe, e reservatórios de seis bacias de Pernambuco, disponíveis no Laboratório de Engenharia Ambiental e da Qualidade (LEAQ) da Universidade Federal de Pernambuco (UFPE). Foram utilizadas na modelagem redes neurais do tipo Perceptron Multicamadas (MLP) e Funções de Base Radial (RBF), com e sem a ACP, que através da transformação das variáveis de entrada em variáveis linearmente independentes, melhoraria a eficiência das RNAs, e realizados 3 testes. O resultado do primeiro teste, com os dados do reservatório Marcela-SE, foi melhor em relação aos demais, pois possui mais parâmetros ambientais que influenciam a inferência da clorofila-a, já no terceiro teste o resultado para a utilização das redes não foram tão satisfatórios, uma vez que no agrupamento dos parâmetros em comum, parâmetros importantes a inferência foram desprezados. No primeiro teste a rede RBF com ACP, foi a melhor para representar a inferência da clorofila-a, porém no segundo teste, com os dados de reservatórios em Bacias de Pernambuco, foi a rede MLP com ACP quem melhor determinou. Este resultado mostra a independência de relação entre o fenômeno a ser tratado, pois as redes neurais são conhecidas como modelo caixa preta, assim como a independência do conjuntos de dados e o tipo de rede. Já no terceiro teste, com os dados dos outros testes juntos, apesar dos resultados não serem satisfatórios para os dados dos reservatórios, a utilização das redes neurais não pode ser comprometida, uma vez que os dados obtidos para este teste não apresentaram homogeneidade, este fato pôde ser observado através da técnica de ACP, onde verificou-se 2 grupos distintos de dados. A ferramenta computacional construída mostrou ser eficiente na aplicação das redes neurais e análise de componentes principais, assim como as interfaces construídas se mostraram realmente amigáveis
43

Predição genômica via redução de dimensionalidade em modelos aditivo dominante / Genomic prediction by reduction of dimensionality in additive dominant models

Costa, Jaquicele Aparecida da 26 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-06-12T11:46:53Z No. of bitstreams: 1 texto completo.pdf: 1019565 bytes, checksum: 12e002c506bdd711cb143f12e04ea169 (MD5) / Made available in DSpace on 2018-06-12T11:46:53Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1019565 bytes, checksum: 12e002c506bdd711cb143f12e04ea169 (MD5) Previous issue date: 2018-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Grandes avanços no melhoramento animal e vegetal têm sido propiciados utilizando- se informações da genética molecular. Nessa perspectiva, idealizaram a Seleção Genômica Ampla (Genome Wide Selection – GWS) cuja abordagem envolve a cobertura completa do genoma utilizando milhares de marcadores SNPs (Single Nucleotide Polymorphisms). O objetivo é estimar o mérito genético dos indivíduos e para tal, as pesquisas realizadas na GWS se baseiam na busca e na aplicação de metodologias estatísticas que visam resolver os problemas enfrentados no processo de estimação, como a alta dimensionalidade e a alta colinearidade entre os marcadores. Dentre elas, se destacam os métodos de redução de dimensionalidade: Regressão via Componentes Principais (PCR), Quadrados Mínimos Parciais (PLS) e Regressão via Componentes Independentes (ICR) e o tradicional método de regularização/shrinkage, G-BLUP (Genomic Best Linear Unbiased Predictor). Assim, o primeiro capítulo contempla as ideias centrais e a importância da GWS para o melhoramento genético, a definição de efeitos aditivos e de efeitos devido à dominância, os problemas estatísticos enfrentados na estimação dos efeitos de marcadores nos fenótipos pelo método usual baseado em quadrados mínimos ordinários, bem como as metodologias estatísticas baseadas em redução dimensional para resolver tais problemas e os procedimentos de validação que tem por finalidade comparar as metodologias estatísticas da GWS. Já o segundo capítulo refere-se a proposição e aplicação de sete critérios para a escolha do número ótimo de componentes independentes a serem utilizados na ICR, considerando apenas os efeitos aditivos. Os critérios consistem em determinar que o número de componentes independentes seja igual ao número de componentes que conduz: (i) os valores genômicos estimados via PCR a um maior valor de acurácia; (ii) os valores genômicos estimados via PCR a um menor valor de viés; (iii) a PCR a 80% de explicação da variação total de X; (iv) a PCR a 80% de explicação da variação total de Y; (v) a ICR a 80% de explicação da variação total de X; além dos critérios que consistem no número de componentes independentes igual ao número de variáveis determinadas pelos procedimentos (vi) Forward Selection e (vii) Backward Selection. O conjunto de dados simulados era composto por 2.000 marcadores SNPs e as populações simuladas totalizaram 1.000 indivíduos de 20 famílias de irmãos completos que tiveram os fenótipos e os genótipos avaliados. Além disso, os cenários simulados são baseados em dois níveis de herdabilidade e duas arquiteturas genéticas com ausência de dominância, constituindo assim, em quatro cenários, os quais foram simulados dez vezes cada. Com o intuito de demonstrar a aplicabilidade do estudo no melhoramento genético, foram avaliadas seis características de produtividade de um conjunto de dados reais de arroz asiático Oryza sativa (Número de panículas por planta, altura da planta, comprimento da panícula, número de panículas no perfilho primário, número de sementes por panícula e espiguetas por panícula) correspondente a 370 acessos de arroz, os quais foram genotipados para 44.100 marcadores SNPs. Em ambos os casos (dados simulados e reais) foi utilizada a validação independente e calculada as medidas de eficiência para comparar os critérios. De modo geral, as análises indicaram que o primeiro critério (número de componentes independentes igual ao número de componentes principais cujos os valores genômicos estimados via PCR apresentava maior valor de acurácia) se mostrou mais eficiente para os dois conjuntos de dados e apresentou as medidas de eficiência mais próximas do método exaustivo, com a vantagem de exigir menos tempo e esforço computacional. Para complementar o estudo, o terceiro capítulo consiste na aplicação dos três critérios mais eficientes do capítulo 2, os quais consistem no número de componentes independentes igual ao número de componentes que conduz os valores genômicos estimados via PCR a um maior valor de acurácia; a um menor valor de viés e a PCR a 80% de explicação da variação total de X considerando o modelo aditivo-dominante. Ainda no contexto deste modelo, foi aplicado os três métodos de redução de dimensionalidade (PCR, PLS e ICR) levando em consideração a escolha do número ótimo de componentes que conduz os valores genômicos aditivos, valores genômicos devido à dominância ou os valores genômicos totais (aditivo + dominância) a uma maior acurácia. Todos os métodos de redução de dimensionalidade foram comparados com o G-BLUP em termos de eficiência na estimação dos valores genômicos. As populações simuladas foram constituídas por 1.000 indivíduos de 20 famílias de irmãos completos, sendo genotipados para 2000 marcadores SNPs e as análises correspondentes a quatro cenários (dois níveis de herdabilidade × duas arquiteturas genéticas) sendo assumido dominância completa. Os resultados do capítulo 3 assinalaram que se manteve a superioridade do critério 1 nos modelos aditivo-dominante. Além disso, para a estimação dos efeitos aditivos e devido a dominância concomitantemente por meio dos métodos de redução de dimensionalidade, é recomendável utilizar o número de componentes que conduz o valor genômico devido à dominância a uma maior acurácia. Ademais, ao confrontar as metodologias de redução dimensional (ICR, PCR e PLS) com o G-BLUP, verifica- se que a PCR é superior em termos de acurácia e o método vantajosamente apresenta um dos menores tempos computacionais na execução das análises. Ademais, nenhum dos métodos considerados capturaram adequadamente as herdabilidades simuladas e apresentaram viés. / Great advances in animal and plant breeding have been provided using molecular genetic information. In this perspective, they proposed Genome Wide Selection (GWS), whose approach involves complete coverage of the genome using thousands of single nucleotide polymorphisms (SNPs). The objective is to estimate the genetic merit of the individuals and to that end, the researches carried out in GWS are based on the search and application of methodologies that aim to solve the problems faced in the estimation process, such as high dimensionality and high colinearity between the markers. Among them, we highlight the dimensionality reduction methods: Principal Component Regression (PCR), Partial Least Squares (PLS) and Independent Regression Component (ICR) and the traditional method of regularization / shrinkage, G-BLUP (Genomic Best Linear Unbiased Predictor). Thus, the first chapter considers the central ideas and importance of GWS for genetic improvement, definition of additive effects and effects due to dominance, the statistical problems faced in estimating the effects of markers on phenotypes by the usual method based on ordinary least squares, as well as the alternative statistical methodologies to solve such problems and validation procedures that aim to compare GWS methodologies. The second chapter refers to the proposition and application of seven criteria for choose the optimal number of independent components to be used in the ICR, considering only the additive effects. The criteria that consist of the number of independent components equal to the number of components that leads: (i) the estimated genomic values by PCR to a higher accuracy; (ii) estimated genomic values by PCR at a lower bias value; (iii) the PCR at 80% of the explanation of the total variation of X; (iv) PCR at 80% of the total variation of Y; (v) the ICR at 80% of explanation of the total variation of X; in addition to the criteria that consist of the number of independent components equal to the number of variables determined by the procedures (vi) Forward Selection and (vii) Backward Selection. The simulated data set consisted of 2.000 SNPs and the simulated populations totaled 1.000 individuals from 20 families of complete siblings that had the phenotypes and genotypes evaluated. In addition, the simulated scenarios are based on two levels of heritability and two genetic architectures, constituting in four scenarios, which were simulated ten times each assuming absence of dominance. In order to demonstrate the applicability of the study to genetic improvement, were evaluated six characteristics of productivity of a real data set Asian rice Oryza sativa (Number of panicles per plant, plant height, panicle length, number of panicles in the tiller primary, number of seeds per panicle and spikelets per panicle) corresponding to 370 accessions of rice, which were genotyped for 44.100 markers SNPs. In both cases (simulated and real data) the independent validation was used and the efficiency measures were calculated to compare the criteria. In general, the analyzes indicated that the first criterion (number of independent components equal to the number of principal components whose genomic values estimated by PCR showed highest accuracy) proved to be more efficient for both sets of data and presented the measures of efficiencies closer to the exhaustive method, with the advantage of requiring less computational time and effort. To complement the study, the third chapter consists of the application of the three most efficient criteria of chapter 2, which consist of the number of independent components equal to the number of components that leads the estimated genomic values via PCR to a highest accuracy value; to a lower value of bias and the PCR to 80% of explanation of the total variation of X considering the additive-dominant model. In the context of this model, the three dimensionality reduction methods (PCR, PLS and ICR) were applied taking into account the choice of the optimal number of components that leads to the additive genomic values, genomic values due to dominance or total genomic values (additive + dominance) to greater accuracy. All dimensionality reduction methods were compared with G-BLUP in terms of efficiency in the estimation of genomic values. Simulated populations were composed of 1.000 individuals from 20 families of complete siblings, with genotyped 2000 SNPs markers and analyzes corresponding to four scenarios (two levels of heritability × two genetic architectures). The simulations assumed complete dominance. The results of chapter 3 pointed out that the superiority of criterion 1 was maintained in the additive-dominant models. In addition, for the estimation of the additive effects and due to the dominance concomitantly by means of dimensionality reduction methods, it is recommended to use the number of components that drives the genomic value due to the dominance to a greater accuracy. In addition, when comparing the methodologies of dimensional reduction (ICR, PCR and PLS) with G-BLUP, it is verified that the PCR is superior in terms of accuracy and the method advantageously presents one of the smallest computational times in the execution of the analyzes. In addition, none of the methods considered adequately captured the simulated heritabilities and showed bias.
44

Quantificação de picos cromatograficos superpostos por metodos de calibração multivariada

Poppi, Ronei Jesus, 1961- 16 July 2018 (has links)
Orientador : Jose Fernando Gregori Faigle / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-07-16T17:15:15Z (GMT). No. of bitstreams: 1 Poppi_RoneiJesus_M.pdf: 3208509 bytes, checksum: df96399b4f4732182e2a8b0c6f311ac7 (MD5) Previous issue date: 1989 / Mestrado
45

Utilização de análise de componentes principais em séries temporais / Use of principal component analysis in time series

Teixeira, Sérgio Coichev 12 April 2013 (has links)
Um dos principais objetivos da análise de componentes principais consiste em reduzir o número de variáveis observadas em um conjunto de variáveis não correlacionadas, fornecendo ao pesquisador subsídios para entender a variabilidade e a estrutura de correlação dos dados observados com uma menor quantidade de variáveis não correlacionadas chamadas de componentes principais. A técnica é muito simples e amplamente utilizada em diversos estudos de diferentes áreas. Para construção, medimos a relação linear entre as variáveis observadas pela matriz de covariância ou pela matriz de correlação. Entretanto, as matrizes de covariância e de correlação podem deixar de capturar importante informações para dados correlacionados sequencialmente no tempo, autocorrelacionados, desperdiçando parte importante dos dados para interpretação das componentes. Neste trabalho, estudamos a técnica de análise de componentes principais que torna possível a interpretação ou análise da estrutura de autocorrelação dos dados observados. Para isso, exploramos a técnica de análise de componentes principais para o domínio da frequência que fornece para dados autocorrelacionados um resultado mais específico e detalhado do que a técnica de componentes principais clássica. Pelos métodos SSA (Singular Spectrum Analysis) e MSSA (Multichannel Singular Spectrum Analysis), a análise de componentes principais é baseada na correlação no tempo e entre as diferentes variáveis observadas. Essas técnicas são muito utilizadas para dados atmosféricos na identificação de padrões, tais como tendência e periodicidade. / The main objective of principal component analysis (PCA) is to reduce the number of variables in a small uncorrelated data sets, providing support and helping researcher understand the variation present in all the original variables with small uncorrelated amount of variables, called components. The principal components analysis is very simple and frequently used in several areas. For its construction, the components are calculated through covariance matrix. However, the covariance matrix does not capture the autocorrelation information, wasting important information about data sets. In this research, we present some techniques related to principal component analysis, considering autocorrelation information. However, we explore the principal component analysis in the domain frequency, providing more accurate and detailed results than classical component analysis time series case. In subsequent method SSA (Singular Spectrum Analysis) and MSSA (Multichannel Singular Spectrum Analysis), we study the principal component analysis considering relationship between locations and time points. These techniques are broadly used for atmospheric data sets to identify important characteristics and patterns, such as tendency and periodicity.
46

Utilização de análise de componentes principais em séries temporais / Use of principal component analysis in time series

Sérgio Coichev Teixeira 12 April 2013 (has links)
Um dos principais objetivos da análise de componentes principais consiste em reduzir o número de variáveis observadas em um conjunto de variáveis não correlacionadas, fornecendo ao pesquisador subsídios para entender a variabilidade e a estrutura de correlação dos dados observados com uma menor quantidade de variáveis não correlacionadas chamadas de componentes principais. A técnica é muito simples e amplamente utilizada em diversos estudos de diferentes áreas. Para construção, medimos a relação linear entre as variáveis observadas pela matriz de covariância ou pela matriz de correlação. Entretanto, as matrizes de covariância e de correlação podem deixar de capturar importante informações para dados correlacionados sequencialmente no tempo, autocorrelacionados, desperdiçando parte importante dos dados para interpretação das componentes. Neste trabalho, estudamos a técnica de análise de componentes principais que torna possível a interpretação ou análise da estrutura de autocorrelação dos dados observados. Para isso, exploramos a técnica de análise de componentes principais para o domínio da frequência que fornece para dados autocorrelacionados um resultado mais específico e detalhado do que a técnica de componentes principais clássica. Pelos métodos SSA (Singular Spectrum Analysis) e MSSA (Multichannel Singular Spectrum Analysis), a análise de componentes principais é baseada na correlação no tempo e entre as diferentes variáveis observadas. Essas técnicas são muito utilizadas para dados atmosféricos na identificação de padrões, tais como tendência e periodicidade. / The main objective of principal component analysis (PCA) is to reduce the number of variables in a small uncorrelated data sets, providing support and helping researcher understand the variation present in all the original variables with small uncorrelated amount of variables, called components. The principal components analysis is very simple and frequently used in several areas. For its construction, the components are calculated through covariance matrix. However, the covariance matrix does not capture the autocorrelation information, wasting important information about data sets. In this research, we present some techniques related to principal component analysis, considering autocorrelation information. However, we explore the principal component analysis in the domain frequency, providing more accurate and detailed results than classical component analysis time series case. In subsequent method SSA (Singular Spectrum Analysis) and MSSA (Multichannel Singular Spectrum Analysis), we study the principal component analysis considering relationship between locations and time points. These techniques are broadly used for atmospheric data sets to identify important characteristics and patterns, such as tendency and periodicity.
47

Relação entre as componentes principais da estrutura a termo da taxa de juros brasileira e as variáveis macroeconômicas

Obara, Victor Hideki 11 February 2014 (has links)
Submitted by Victor Hideki Obara (victor.obara@gmail.com) on 2014-03-06T18:17:06Z No. of bitstreams: 1 Dissertação_VictorObara2014.pdf: 1045588 bytes, checksum: 53366e74ed0e394dca903abf1be27bf7 (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2014-03-06T18:34:02Z (GMT) No. of bitstreams: 1 Dissertação_VictorObara2014.pdf: 1045588 bytes, checksum: 53366e74ed0e394dca903abf1be27bf7 (MD5) / Made available in DSpace on 2014-03-06T19:39:03Z (GMT). No. of bitstreams: 1 Dissertação_VictorObara2014.pdf: 1045588 bytes, checksum: 53366e74ed0e394dca903abf1be27bf7 (MD5) Previous issue date: 2014-02-11 / Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ. / This paper observes how the macroeconomic variables (inflation expectations, real interest rate, output gap and the exchange rate) influence the dynamics of the Term Structure of Interest Rates (TSIR). This dynamic was verified by introducing the theory of Principal Component Analysis (PCA) to capture the effect of the most important components in TSIR (level, slope and curvature). Using ordinary least square estimation and the generalized method of moments, it was verified that there is a statistical significant relationship between macroeconomic variables and TSIR principal components.
48

Avaliação da sensibilidade dos fundos de investimento imobiliários a variações nas taxas de juros através da análise de componentes principais

Frade, Rafael Berger 05 February 2015 (has links)
Submitted by rafael berger frade (rafaelfrade@gmail.com) on 2015-03-04T20:26:50Z No. of bitstreams: 1 Dissertação Rafael Frade Versao Final 1-03-15.pdf: 965218 bytes, checksum: 140a6383d7b724e356ab4d5ba9afc0c2 (MD5) / Rejected by Renata de Souza Nascimento (renata.souza@fgv.br), reason: Encaminhado por e-mail. on 2015-03-05T16:18:50Z (GMT) / Submitted by rafael berger frade (rafaelfrade@gmail.com) on 2015-03-05T17:09:42Z No. of bitstreams: 1 Rafael Frade Versao Final.pdf: 986234 bytes, checksum: 34872086ac970b7037d3e4e1c7c9b010 (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2015-03-05T18:25:27Z (GMT) No. of bitstreams: 1 Rafael Frade Versao Final.pdf: 986234 bytes, checksum: 34872086ac970b7037d3e4e1c7c9b010 (MD5) / Made available in DSpace on 2015-03-06T12:35:32Z (GMT). No. of bitstreams: 1 Rafael Frade Versao Final.pdf: 986234 bytes, checksum: 34872086ac970b7037d3e4e1c7c9b010 (MD5) Previous issue date: 2015-02-05 / The Real Estate Investment Trusts – FIIs – have been becoming an important alternative investment in Brazil. According to BM&FBovespa data, the daily average trading volumes increased from R$600 thousand in 2000 to R$27 million in 2014. However, after IFIX – FIIs index – reach its highest historical level in January 2013, it had been presenting a negative performance, at the same time that was observed an increase in interest rate curve. This work aims to analyze the impact of change in the interest rate curve to FIIs performance. In a way to avoid the divergence presented in previous works due to the interest rate used for the analyzes, this work adopt the Principal Component Analysis technique, reducing the number of variables to one representing level and other representing inclination. The results indicate that an increase in the level of interest rate curve have a negative impact on FIIs performance, while an increase in inclination also have a negative performance, although not significantly. / Os Fundos de Investimento Imobiliários – FIIs – vem ganhando destaque como alternativas de investimento no Brasil. Segundo dados da BM&FBovespa, a média diária de volume negociado aumentou de R$600 mil em 2009 para R$27 milhões em 2014. No entanto, após o IFIX – Indíce de FIIs - atingir seu maior patamar histórico em Janeiro de 2013, este passou apresentar performance negativa, ao mesmo tempo que se observou um processo de elevação da curva de juros. O presente trabalho visa analisar o impacto de movimentos da curva de juros no desempenho dos FIIs. De forma a limitar as divergências encontradas na literatura internacional quanto à taxa de juros utilizada como proxy para a avaliação, utiliza-se da Análise de Componentes Principais para reduzir o número de variáveis, restringindo-se a uma variável de nível e uma de inclinação. Os resultados indicam que aumento no nível da curva de juros tem um impacto negativo no desempenho dos FIIs, ao passo que aumenta na inclinação também tem impacto negativo, mas não de forma relevante.
49

Impacto dos países desenvolvidos e emergentes na economia brasileira

Bril, Marco 24 May 2013 (has links)
Submitted by Marco Bril (marcobril@yahoo.com.br) on 2016-02-19T14:07:29Z No. of bitstreams: 1 Tese Mestrado Marco Bril.pdf: 1223942 bytes, checksum: e8c41cd4b4f9345cbe52d71959bebbd2 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-02-22T14:03:07Z (GMT) No. of bitstreams: 1 Tese Mestrado Marco Bril.pdf: 1223942 bytes, checksum: e8c41cd4b4f9345cbe52d71959bebbd2 (MD5) / Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2016-02-25T13:08:48Z (GMT) No. of bitstreams: 1 Tese Mestrado Marco Bril.pdf: 1223942 bytes, checksum: e8c41cd4b4f9345cbe52d71959bebbd2 (MD5) / Made available in DSpace on 2016-02-25T13:08:58Z (GMT). No. of bitstreams: 1 Tese Mestrado Marco Bril.pdf: 1223942 bytes, checksum: e8c41cd4b4f9345cbe52d71959bebbd2 (MD5) Previous issue date: 2013-05-24 / This dissertation compares the behavior of the Brazilian economy to emerging and developing markets through principal component analysis. There were used variables of economic growth, as PMI; and macroeconomic variables, such as inflation, stock exchange, currency and interest rates. To achieve more consistent results, there were done two different analyses. The first one has compared these variables from different countries to the Brazilian PMI; whereas the second one has separated the later analysis in different time periods, in order to differentiate the period before and after the 2009 crisis. / A proposta desta dissertação é analisar o comportamento econômico brasileiro em relação às demais economias de países emergentes e desenvolvidos, utilizando-se como metodologia a análise de componentes principais com variáveis de crescimento econômico e macroeconômicas como inflação, bolsa, moeda e juros. Visando obter uma robustez maior nos resultados foram realizados dois exercícios, primeiro buscou-se comparar o resultado obtido para o Brasil com outros países. No segundo exercício a comparação foi realizada para diferentes períodos de tempo, de maneira de separar o período em pré e pós-crise de 2009.
50

Modelo HJM multifatorial com processo de difusão com jumps aplicado ao mercado brasileiro

Lueska, Laszlo Cerveira 05 August 2016 (has links)
Submitted by Laszlo Cerveira Lueska (laszlolueska@gmail.com) on 2016-08-30T14:41:54Z No. of bitstreams: 1 Laszlo_Lueska_v17.pdf: 8905674 bytes, checksum: d9f066c4099a2f1a605719d85eb2f44a (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2016-08-30T21:28:01Z (GMT) No. of bitstreams: 1 Laszlo_Lueska_v17.pdf: 8905674 bytes, checksum: d9f066c4099a2f1a605719d85eb2f44a (MD5) / Made available in DSpace on 2016-08-31T13:35:11Z (GMT). No. of bitstreams: 1 Laszlo_Lueska_v17.pdf: 8905674 bytes, checksum: d9f066c4099a2f1a605719d85eb2f44a (MD5) Previous issue date: 2016-08-05 / This paper proposes an extension of the multifactor Heath, Jarrow and Morton model incorporating a class of jump-diffusion process in an arbitrage-free enviroment, where the jump part follows independent Poisson process. We introduce a new methodology to the jump-diffusion process defining level, steepness and curvature jumps to capture the specificities of the Brazilian nominal interest rate term structure. A numerical solution is proposed under the Brace and Musiela (1994) parametrization extended to the jumpdiffusion process. Through Principal Component Analysis (PCA) and historical data manipulation, the calibration of the parameters of the model is made. With Monte Carlo simulations, the model is used to price asian interest rate options (IDI options), to obtain forecasts of the interest rate term structure and to simulate trading strategies of interest rate furutes. / O presente estudo propõe uma extensão do modelo Heath, Jarrow e Morton multifatorial através da adição de uma classe de processos geradores de jumps, modelados por distribuições independentes de Poisson, mantendo a estabilidade do modelo e a condição de não arbitragem do mercado. O estudo apresenta uma abordagem nova aos processos geradores de jumps, definindo jumps de nível, inclinação e curvatura, de modo a capturar as especifidades da estrutura a termo de taxa de juros (ETTJ) nominais do Brasil. Uma solução numérica é proposta na parametrização de Brace e Musiela (1994) estendida ao caso de processos geradores de jump. Através de Análise de Componentes Principais (PCA) e manipulação dos dados históricos, os parâmetros do modelo são calibrados. Através de simulações de Monte Carlo, o modelo é utilizado em precificações de opções de IDI, em forecasts da ETTJ e em estratégias de trading de DI Futuro.

Page generated in 0.1087 seconds