• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 6
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 141
  • 104
  • 40
  • 37
  • 37
  • 28
  • 26
  • 24
  • 24
  • 22
  • 22
  • 21
  • 20
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

MODELOS DE SÉRIES TEMPORAIS APLICADOS A DADOS DE UMIDADE RELATIVA DO AR / MODELS OF TEMPORAL SERIES APPLIED TO AIR RELATIVE HUMIDITY DATA

Tibulo, Cleiton 11 December 2014 (has links)
Time series model have been used in many areas of knowledge and have become a current necessity for companies to survive in a globalized and competitive market, as well as climatic factors that have always been a concern because of the different ways they interfere in human life. In this context, this work aims to present a comparison among the performances by the following models of time series: ARIMA, ARMAX and Exponential Smoothing, adjusted to air relative humidity (UR) and also to verify the volatility present in the series through non-linear models ARCH/GARCH, adjusted to residues of the ARIMA and ARMAX models. The data were collected from INMET from October, 1st to January, 22nd, 2014. In the comparison of the results and the selection of the best model, the criteria MAPE, EQM, MAD and SSE were used. The results showed that the model ARMAX(3,0), with the inclusion of exogenous variables produced better forecast results, compared to the other models SARMA(3,0)(1,1)12 and the Holt-Winters multiplicative. In the volatility study of the series via non-linear ARCH(1), adjusted to the quadrants of SARMA(3,0)(1,1)12 and ARMAX(3,0) residues, it was observed that the volatility does not tend to influence the future long-term observations. It was then concluded that the classes of models used and compared in this study, for data of a climatologic variable, showed a good performance and adjustment. We highlight the broad usage possibility in the techniques of temporal series when it is necessary to make forecasts and also to describe a temporal process, being able to be used as an efficient support tool in decision making. / Modelos de séries temporais vêm sendo empregados em diversas áreas do conhecimento e têm surgido como necessidade atual para empresas sobreviverem em um mercado globalizado e competitivo, bem como fatores climáticos sempre foram motivo de preocupação pelas diferentes formas que interferem na vida humana. Nesse contexto, o presente trabalho tem por objetivo apresentar uma comparação do desempenho das classes de modelos de séries temporais ARIMA, ARMAX e Alisamento Exponencial, ajustados a dados de umidade relativa do ar (UR) e verificar a volatilidade presente na série por meio de modelos não-lineares ARCH/GARCH ajustados aos resíduos dos modelos ARIMA e ARMAX. Os dados foram coletados junto ao INMET no período de 01 de outubro de 2001 a 22 de janeiro de 2014. Na comparação dos resultados e na seleção do melhor modelo foram utilizados os critérios MAPE, EQM, MAD e SSE. Os resultados mostraram que o modelo ARMAX(3,0) com a inclusão de variáveis exógenas produziu melhores resultados de previsão em relação aos seus concorrentes SARMA(3,0)(1,1)12 e o Holt-Winters multiplicativo. No estudo da volatilidade da série via modelo não-linear ARCH(1), ajustado aos quadrados dos resíduos dos modelos SARMA(3,0)(1,1)12 e ARMAX(3,0), observou-se que a volatilidade não tende a influenciar as observações futuras em longo prazo. Conclui-se que as classes de modelos utilizadas e comparadas neste estudo, para dados de uma variável climatológica, demonstraram bom desempenho e ajuste. Destaca-se a ampla possibilidade de utilização das técnicas de séries temporais quando se deseja fazer previsões e descrever um processo temporal, podendo ser utilizadas como ferramenta eficiente de apoio nas tomadas de decisão.
112

Análise de sobrevivência do tomateiro a Phytophthora infestans / Analysis of the survival of the tomato plant Phytophthora infestans

Araujo, Maria Nilsa Martins de 05 September 2008 (has links)
Made available in DSpace on 2015-03-26T13:32:04Z (GMT). No. of bitstreams: 1 texto completo.pdf: 569181 bytes, checksum: 1b525772884dca74fcef6c9c8033aaa5 (MD5) Previous issue date: 2008-09-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Reburning caused by Phytophthora infestansis is characterized as an aggressive disease of great destructive impact, capable of limiting or even hindering the economic cultivation of the tomato plant under conditions of high humidity and low temperatures. In view of the problems reburning can cause to tomato plant crops, this work aimed to: 1) fit models to describe the progress of the disease and form groups of tomato accesses with similar curves; 2) estimate data referring to the number of days to reach 5% severity of the disease, by means of inverse regression; 3) fit survival curves by means of the Kaplan-Meier estimator for the access groups and compare them by means of the Logrank test;4)fit survival curves by means of probabilistic models and compare these curves with Kaplan Meir´s non-parametric technique. Using tomato reburning real data, it was possible to fit the exponential model (Y = y0 exp (rX)) to describe the disease s progress. The means of the parameter estimates were submitted to grouping analysis using the centroid method, generating 10 access groups. Time up to 5% of the disease was calculated via inverse regression. Non-parametric techniques were used to estimate survival function by means of the Kaplan-Meier´s estimator to compare the survival curves by the Logrank test .The survival function was also fit using the probabilistic models, exponential Weibull and Log-normal, respectively, which were compared by means of the verisimilitude ratio test (VRT), considering the generalized Gamma model, as a general case for these models. The methodology applied allowed fitting the exponential model to describe tomato plant reburning progress and to regroup the accesses studied in the 10 groups. The access BGH-6 obtained a smaller disease progress than the others, thus characterizing its higher resistance to the disease; An inverse regression allowed time estimation up to the occurrence of 5% of the severity of the tomato plant reburning. The Kaplan-Meier ´s non-parametric technique allowed estimating the survival curves of the tomato plant accesses belonging to the groups 1, 2, 4, 6 and 8. Utilizing the Logrank test, it could be concluded that most two-by-two comparisons were significant (p<0.05), except in the comparisons of groups 2x4, 4x8 and 6x8. The use of the probabilistic models, exponential Weibull and Log-normal allowed estimating the survival curves of groups 2, 4, 6 and 8, except for group 4, to which the Weibull model was not adequate. Comparing the probabilistic models with the non-parametric technique, the curves of the probabilistic models of groups 2 and 4 presented satisfactory results, compared to the curve estimated by Kaplan-Meier. / A requeima causada por Phytophthora infestans caracteriza-se por ser uma doença agressiva e de grande impacto destrutivo, podendo limitar ou até mesmo impedir o cultivo econômico do tomateiro sob condições de alta umidade e baixas temperaturas. Diante dos problemas que a requeima pode provocar às lavouras de tomate, este trabalho teve por objetivos: 1) ajustar modelos para descrever o progresso da doença e formar grupos de acessos de tomateiro com curvas semelhantes; 2) estimar dados referentes ao número de dias até atingir 5% de severidade da doença, por meio de regressão inversa; 3) ajustar curvas de sobrevivência por meio do estimador de Kaplan-Meier para grupos de acessos e compará-las mediante o uso do teste Logrank; 4) ajustar curvas de sobrevivência por meio de modelos probabilísticos e compará-las com a técnica não-paramétrica de Kaplan-Meier. Utilizando dados reais sobre a requeima do tomateiro, foi possível ajustar o modelo exponencial (Y = y0 exp (rX)) para descrever o progresso da doença. As médias das estimativas dos parâmetros foram submetidas à análise de agrupamento pelo método Centróide, o que gerou 10 grupos de acessos, sendo o tempo até a incidência de 5% da doença calculado via regressão inversa. Foram utilizadas técnicas não-paramétricas para estimar a função de sobrevivência por meio do estimador de Kaplan-Meier e para comparar as curvas de sobrevivência pelo teste Logrank. Foi também ajustada a função de sobrevivência, empregando-se os modelos probabilísticos Exponencial, Weibull e Log-normal, os quais foram comparados por meio do Teste da Razão da Verossimilhança (TRV), considerando-se o modelo Gama generalizado por ser caso geral para esses modelos. A metodologia utilizada permitiu ajustar o modelo Exponencial para descrever o progresso da requeima do tomateiro e agrupar os acessos estudados em 10 grupos. O acesso BGH-6 sofreu um progresso de doença menor que os demais, caracterizando-se, assim, sua maior resistência à enfermidade. A regressão inversa possibilitou estimar o tempo até a ocorrência de 5% da severidade da requeima do tomateiro. Pela técnica não-paramétrica de Kaplan-Meier, foi possível estimar as curvas de sobrevivência dos acessos de tomateiro pertencentes aos grupos 1, 2, 4, 6 e 8. Utilizando o teste Logrank, pode-se concluir que a maioria das comparações duas a duas foi significativa (p<0,05), exceto nas comparações dos grupos 2x4, 4x8 e 6x8. O uso dos modelos probabilísticos Exponencial, Weibull e Log-normal possibilitou a estimação das curvas de sobrevivência nos grupos 2, 4, 6 e 8, exceto no grupo 4, em que o modelo Weibull não foi adequado. Comparando os modelos probabilísticos com a técnica não-paramétrica, as curvas dos modelos probabilísticos dos grupos 2 e 4 apresentaram ajustes satisfatórios com relação à curva estimada por Kaplan-Meier.
113

Eficiência da análise estatística espacial na classificação de famílias do feijoeiro - estudo via simulação / Efficiency of spatial statistical analysis in the classification of common bean families - the study via simulation

Campos, Josmar Furtado de 24 February 2011 (has links)
Made available in DSpace on 2015-03-26T13:32:11Z (GMT). No. of bitstreams: 1 texto completo.pdf: 446864 bytes, checksum: 1ba8efc18a08b922adc7e2c5eb3dc55c (MD5) Previous issue date: 2011-02-24 / The aim of this study was to evaluate the efficiency of spatial analysis, which considers spatially dependent errors, for classification of common bean families in relation to traditional analysis in randomized blocks and lattice that assuming independent errors. Were considered different degrees of spatial dependence and experimental precision. Were taken as reference to simulate the results of seven experiments carried out in simple square lattice for genetic evaluation of yield (g/plot) of families and bean cultivars of winter crops and water used in 2007 and 2008. From the results presented in the simulation, it was possible to assess the quality of their experiments based on different analysis (Block, lattice and Spatial) and simulated average of 100 families in different scenarios for Spatial Dependence (DE) and Accuracy Selective (AS). In the process of simulation, the average yield (645 g/plot) and the residual variance (7744.00), was defined based on the analysis results of the tests in blocks of bean breeding program at UFV. To make up the four simulated scenarios were considered magnitude of spatial dependence (null, low, medium and high), corresponding to ranges of 0, 25, 50 and 100% of the maximum distance between plots. Were also simulated three classes of selective accuracy (0.95, 0.80 and 0.60), corresponding to the experimental precision very high, high and average, respectively. The actual classification of families was used to evaluate the efficiency of analysis methods tested by Spearman correlation applied to orders and genotypic classification of Selection Efficiency between classifications based on tested methodologies and the actual classification for the selection of 10, 20 and 30% of the best families. To compare the efficiency of adjustment of the models tested, was used the Akaike information criterion (AIC), based on likelihood. Spatial analysis has provided estimates of residual variance very close to the simulated residual variance and higher selective accuracy estimated in all scenarios, indicating greater experimental accuracy. With the reduction in the accuracy and selective increase in spatial dependence, there was greater influence of analysis on the classification of families, and the spatial analysis showed the best results, providing more efficient selection of bean families than traditional analysis of randomized blocks and lattice, mainly for the selection of fewer families. The results for selective accuracy estimated on the basis of F statistics were very close to those obtained with the Spearman correlation between estimated and simulated averages for families, indicating that the accuracy should be used selectively as a measure of experimental precision tests of genetic evaluation. / O objetivo deste trabalho foi avaliar a eficiência da análise Espacial, que considera erros dependentes espacialmente, para classificação de famílias de feijoeiro em relação às análises tradicionais em blocos casualizados e em látice que assumem erros independentes. Considerou-se diferentes graus de dependência espacial e de precisão experimental. Foram tomados como referência para simulação os resultados de sete ensaios instalados em látice quadrado simples para avaliação genética da produtividade de grãos (g/parcela) de famílias e cultivares de feijoeiro das safras de inverno e das águas de 2007 e 2008. A partir dos resultados apresentados na simulação, foi possível avaliar a qualidade dos respectivos experimentos com base nas diferentes análises (Bloco, Látice e Espacial) e médias simuladas das 100 famílias nos diferentes cenários para Dependência Espacial (DE) e Acurácia Seletiva (AS). No processo de simulação, a média de produção (645 g/parcela), bem como a variância residual (7744,00), foi definida com base nos resultados de análises em blocos de ensaios do programa de melhoramento do feijoeiro da UFV. Para a composição dos cenários simulados foram consideradas quatro magnitudes de dependência espacial (nula, baixa, média e alta), correspondendo aos alcances 0, 25, 50 e 100% da distância máxima entre parcelas. Também foram simuladas três classes de acurácia seletiva (0,95, 0,80 e 0,60), correspondente a precisão experimental muito alta, alta e média, respectivamente. A classificação real das famílias foi utilizada para avaliar a eficiência das metodologias de análise testadas através da correlação de Spearman aplicada às ordens de classificação genotípica e da Eficiência de Seleção entre classificações com base nas metodologias testadas e na classificação real, para a seleção de 10, 20 e 30% das melhores famílias. Para comparar a eficiência de ajuste dos modelos testados, foi utilizado o critério de Informação de Akaike (AIC), baseado em verossimilhança. A análise Espacial apresentou estimativas de variância residual muito próxima da variância residual simulada e maior acurácia seletiva estimada em todos os cenários, indicando maior precisão experimental. Com a redução na acurácia seletiva e aumento na dependência espacial, observou-se maior influência do tipo de análise sobre a classificação das famílias, sendo que a análise espacial apresentou os melhores resultados, proporcionando seleção mais eficiente das famílias do feijoeiro do que as análises tradicionais em Látice e em Blocos casualizados, principalmente, para seleção de menor número de famílias. Os resultados para acurácia seletiva estimada em função da estatística F foram muito próximos aos obtidos para a correlação de Spearman entre médias estimadas e simuladas para as famílias, indicando que a acurácia seletiva deve ser utilizada como medida de precisão experimental nos ensaios de avaliação genética.
114

Complexidade descritiva das lógicas de ordem superior com menor ponto fixo e análise de expressividade de algumas lógicas modais / Descriptive complexity of the logic of higher order with lower fixed point and analysis of expression of some modal logics

Freire, Cibele Matos January 2010 (has links)
Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-14T19:46:59Z No. of bitstreams: 1 2010_dis_cmfreire.pdf: 426798 bytes, checksum: 4ad13c09839833ee22b0396a445e8a26 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-14T19:48:16Z (GMT) No. of bitstreams: 1 2010_dis_cmfreire.pdf: 426798 bytes, checksum: 4ad13c09839833ee22b0396a445e8a26 (MD5) / Made available in DSpace on 2016-06-14T19:48:16Z (GMT). No. of bitstreams: 1 2010_dis_cmfreire.pdf: 426798 bytes, checksum: 4ad13c09839833ee22b0396a445e8a26 (MD5) Previous issue date: 2010 / In Descriptive Complexity, we investigate the use of logics to characterize computational classes os problems through complexity. Since 1974, when Fagin proved that the class NP is captured by existential second-order logic, considered the rst result in this area, other relations between logics and complexity classes have been established. Wellknown results usually involve rst-order logic and its extensions, and complexity classes in polynomial time or space. Some examples are that the rst-order logic extended by the least xed-point operator captures the class P and the second-order logic extended by the transitive closure operator captures the class PSPACE. In this dissertation, we will initially analyze the expressive power of some modal logics with respect to the decision problem REACH and see that is possible to express it with temporal logics CTL and CTL . We will also analyze the combined use of higher-order logics extended by the least xed-point operator and obtain as result that each level of this hierarchy captures each level of the deterministic exponential time hierarchy. As a corollary, we will prove that the hierarchy of HOi(LFP), for i 2, does not collapse, that is, HOi(LFP) HOi+1(LFP) / Em Complexidade Descritiva investigamos o uso de logicas para caracterizar classes problemas pelo vies da complexidade. Desde 1974, quando Fagin provou que NP e capturado pela logica existencial de segunda-ordem, considerado o primeiro resultado da area, outras relac~oes entre logicas e classes de complexidade foram estabelecidas. Os resultados mais conhecidos normalmemte envolvem logica de primeira-ordem e suas extens~oes, e classes de complexidade polinomiais em tempo ou espaco. Alguns exemplos são que a l ogica de primeira-ordem estendida com o operador de menor ponto xo captura a clsse P e que a l ogica de segunda-ordem estendida com o operador de fecho transitivo captura a classe PSPACE. Nesta dissertação, analisaremos inicialmente a expressividade de algumas l ogicas modais com rela cão ao problema de decisão REACH e veremos que e poss vel express a-lo com as l ogicas temporais CTL e CTL . Analisaremos tamb em o uso combinado de l ogicas de ordem superior com o operador de menor ponto xo e obteremos como resultado que cada n vel dessa hierarquia captura cada n vel da hierarquia determin stica em tempo exponencial. Como corol ario, provamos que a hierarquia de HOi(LFP) não colapsa, ou seja, HOi(LFP) HOi+1(LFP) / FREIRE, Cibele Matos. Complexidade descritiva das lógicas de ordem superior com menor ponto fixo e análise de expressividade de algumas lógicas modais. 2010. 54 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2010.
115

Problemas inversos em engenharia financeira: regularização com critério de entropia / Inverse problems in financial engineering: regularization with entropy criteria

Raombanarivo Dina Ramilijaona 13 September 2013 (has links)
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática. / This study aims at applying Maximum Entropy Regularization to the Inverse Problem of Option Pricing suggested by Neri and Schneider in 2012. They pointed out that the probability density that solves such problem in the case of calls and digital options could be written as piecewise exponentials on the positive real axis. The limits of these segments are the different strike prices. The entropy criteria is a powerful tool to regularize this ill-posed problem. The Exponential Family solution set is calculated using a Newton-Raphson algorithm, with specific bounds for the binary options. These bounds obey the no-arbitrage principle. We applied the method to data from the Brazilian stock index BOVESPA and its call prices for different strikes. The parametric entropy analysis for "synthetic" digital prices (constructed from the no-arbitrage bounds) showed values where the digital prices maximizes the entropy. The example of data extracted on the IBOVESPA of January 24th 2013, showed slippage from the no-arbitrage principle when the option was in the money: such principle is a necessary condition to apply the maximum entropy regularization to get the density and modeled prices. When the condition is fulfilled, our results showed that it is possible to have a smile-like volatility curve with prices calculated from the exponential density that fit well the market data. In a computational modelling perspective, this thesis enabled the implementation of a pricing method using the maximum entropy principle. Three well known algorithms were used in that extent. The bisection alone, then a combined bisection with Newton-Raphson to recover the implied volatility from market data. Thereafter, the one dimensional Newton-Raphson to calculate the coefficients of the exponential densities: purpose of the study. Finally the Simpson method was used to calculate integrals of the cumulative distributions and the modeled prices implied by the expectation.
116

Problemas inversos em engenharia financeira: regularização com critério de entropia / Inverse problems in financial engineering: regularization with entropy criteria

Raombanarivo Dina Ramilijaona 13 September 2013 (has links)
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática. / This study aims at applying Maximum Entropy Regularization to the Inverse Problem of Option Pricing suggested by Neri and Schneider in 2012. They pointed out that the probability density that solves such problem in the case of calls and digital options could be written as piecewise exponentials on the positive real axis. The limits of these segments are the different strike prices. The entropy criteria is a powerful tool to regularize this ill-posed problem. The Exponential Family solution set is calculated using a Newton-Raphson algorithm, with specific bounds for the binary options. These bounds obey the no-arbitrage principle. We applied the method to data from the Brazilian stock index BOVESPA and its call prices for different strikes. The parametric entropy analysis for "synthetic" digital prices (constructed from the no-arbitrage bounds) showed values where the digital prices maximizes the entropy. The example of data extracted on the IBOVESPA of January 24th 2013, showed slippage from the no-arbitrage principle when the option was in the money: such principle is a necessary condition to apply the maximum entropy regularization to get the density and modeled prices. When the condition is fulfilled, our results showed that it is possible to have a smile-like volatility curve with prices calculated from the exponential density that fit well the market data. In a computational modelling perspective, this thesis enabled the implementation of a pricing method using the maximum entropy principle. Three well known algorithms were used in that extent. The bisection alone, then a combined bisection with Newton-Raphson to recover the implied volatility from market data. Thereafter, the one dimensional Newton-Raphson to calculate the coefficients of the exponential densities: purpose of the study. Finally the Simpson method was used to calculate integrals of the cumulative distributions and the modeled prices implied by the expectation.
117

Sobre uma classe de equações elípticas envolvendo crescimento exponencial em &#8477;2

Guimarães, Wanderson Rodrigo 16 May 2013 (has links)
Made available in DSpace on 2015-05-15T11:46:22Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1317724 bytes, checksum: 6a915301a18806d377bf5c949922b304 (MD5) Previous issue date: 2013-05-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, we will study the existence and multiplicity of weak solutions for a class of nonhomogeneous elliptic problems involving exponential growth Trudinger-Moser type in R2. For this, we will use the Ekeland s Variational Principle and the Mountain Pass Theorem without the Palais-Smale condition in combination with a version of the Trudinger-Moser inequality. / Teorema do Passo da Montanha, Principio variacional de Ekeland, equação de Schrodinger, Desigualdade de Trudinger-Moser, Crescimento Exponencial.
118

Soluções nodais para problemas elípticos semilineares com crescimento crítico exponencial

Pereira, Denilson da Silva 05 December 2014 (has links)
Made available in DSpace on 2015-05-15T11:46:22Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1236830 bytes, checksum: ba028274cff1ac1fffc16c7d6e148a98 (MD5) Previous issue date: 2014-12-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, we study existence, non-existence and multiplicity results of nodal solutions for the nonlinear Schrödinger equation (P) -u + V (x)u = f(u) in ; where is a smooth domain in R2 which is not necessarily bounded, f is a continuous function which has exponential critical growth and V is a continuous and nonnegative potential. In the first part, we prove the existence of least energy nodal solution in both cases, bounded and unbounded domain. Moreover, we also prove a nonexistence result of least energy nodal solution for the autonomous case in whole R2. In the second part, we establish multiplicity of multi-bump type nodal solutions. Finally, for V - 0, we prove a result of infinitely many nodal solutions on a ball. The main tools used are Variational methods, Lions's Lemma, Penalization methods and a process of anti-symmetric continuation. / Neste trabalho, estudamos resultados de existência, não existência e multiplicidade de soluções nodais para a equação de Schrödinger não-linear (P) -u + V (x)u = f(u) em ;onde é um domínio suave em R2 não necessariamente limitado, f é uma função que possui crescimento crítico exponencial e V é um potencial contínuo e não-negativo. Na primeira parte, mostramos a existência de soluções nodais de energia mínima em ambos os casos, domínio limitado e ilimitado. Mostramos ainda um resultado de não existência de solução nodal de energia mínima para o caso autônomo em todo o R2. Na segunda parte, estabelecemos a multiplicidade de soluções do tipo multi-bump nodal. Finalmente, para V - 0, mostramos um resultado de existência de infinitas soluções nodais em uma bola. As principais ferramentas utilizadas são Métodos Variacionais, Lema de Deformação, Lema de Lions, Método de penalização e um processo de continuação anti-simétrica.
119

Modelos de efeito Allee e epidemiológicos de tuberculose / Allee effect and epidemiological models for tuberculosis

Lindomar Soares dos Santos 04 July 2013 (has links)
A dinâmica de crescimento populacional de uma espécie é permeada pela relação entre as desvantagens da competição intraespecífica e os benefícios da presença de conspecíficos. Para muitas espécies, os benefícios da cooperação podem superar as desvantagens da competição. A correlação positiva entre tamanho populacional e adaptabilidade em populações muito pequenas é conhecida como efeito Allee demográfico. Apesar de haver modelos matemáticos isolados para os diferentes tipos de efeitos Allee, não há um modelo simples que os abranja e os conecte a modelos de crescimento mais gerais (como o de Richards). Propomos unificar modelos de efeitos Allee e o de crescimento de Richards em um modelo que permita um novo ponto de vista sobre o efeito Allee demográfico. Um exemplo do aumento das possibilidades descritivas de tal generalização é a emergência de mais de uma transição cooperação-competição quando considerado um caso particular desse novo modelo (Allee-Gompertz). Apesar da importância do crescimento populacional, a maioria dos modelos básicos de transmissão de doenças infecciosas considera o tamanho populacional constante ou adota simplificações pouco plausíveis. Nesta tese, mostramos as deficiências de um modelo compartimental dinâmico de tuberculose já consagrado e propomos um novo modelo com crescimento populacional logístico. Quando comparados, nosso modelo apresenta previsões mais pessimistas para a erradicação da doença a longo prazo quando testado com parâmetros que definem políticas de controle pouco eficientes. Realizamos tais predições adotando estratégias de controle de países desenvolvidos e subdesenvolvidos. Visto que esses modelos compartimentais desprezam aspectos espaciais, desenvolvemos uma modelagem computacional de agentes, baseada no modelo proposto, com duas estruturas subjacentes: redes aleatórias e redes reais. A súbita emergência de tuberculose resistente a drogas como consequência de tratamentos ineficazes é também um resultado das implementações desses modelos em dois cenários distintos. Esses resultados são comparados com os do modelo compartimental e com os de um modelo de estrutura subjacente mais simples e, como novo resultado, surge nos dois modelos a possibilidade de erradicação da doença em menos de uma década após o início do tratamento. Esse resultado é possível desde que sejam adotadas estratégias eficientes de controle. / The one-species population growth dynamics is permeated by the relationship between the harms from the intraspecific competition and the benefits from the presence of conspecifics. For many species, the benefits from conspecific cooperation may outweigh the harms from competition. The positive correlation between population size and total fitness in very small population known as demographic Allee effect. Although there are isolated mathematical models for different types of Allee effects, there is not a simple model that covers and connects them to more general growth models (like Richards). We propose to unify models of Allee effects and the Richards growth one in a model that allows a new perspective on the demographic Allee effect. An example of the increased descriptive possibilities of such generalization is the emergence of more than one transition cooperation-competition when considering a particular case of this new model (Gompertz-Allee). Despite the importance of population growth, most basic models of infectious diseases transmission considers population size constant or adopts implausible simplifications. In this thesis, we show the shortcomings of a dynamic compartmental model of tuberculosis already established and we propose a new model with population logistic growth. When compared, our model provides more pessimistic forecasts for the eradication of the disease in the long term if it is tested with parameters that define inefficient control policies. We perform such predictions adopting control strategies from developed and underdeveloped countries. Since these compartmental model disregards spatial aspects, we developed a computational agent model, based on the proposed model, with two underlying structures: random networks and real networks. The sudden emergence of drug-resistant tuberculosis as a result of ineffective treatments is also a result from the implementations of these models in two distinct scenarios. These results are compared with the ones from a compartimental model and with the ones from a model with simpler underlying structure and, as a new result, the possibility of eradicating the disease in less than a decade after beginning the treatment appears on the two models. This result is possible adopting effective control strategies.
120

Modelos flexíveis para dados de tempos de vida em um cenário de riscos competitivos e mecanismos de ativação latentes / Flexible models for data fifetime in a competing risk scenario and latente activation schemes

José Julio Flores Delgado 26 May 2014 (has links)
Na literatura da área da análise de sobrevivência existem os modelos tradicionais, ou sem fração de cura, e os modelos de longa duração, ou com fração de cura. Recentemente tem sido proposto um modelo mais geral, conhecido como o modelo com fatores de risco latentes com esquemas de ativação. Nesta tese são deduzidas novas propriedades que possuem a função de sobrevivência, a função de taxa de risco e o valor esperado, quando e considerado o modelo com fatores de risco latentes. Estas propriedades são importantes, já que muitos outros modelos que tem aparecido na literatura recentemente podem ser considerados como casos particulares do modelo com fatores de risco latentes. Além disto, são propostos novos modelos de sobrevivência e estes são aplicados a conjuntos de dados reais. Também é realizado um estudo de simulação e uma análise de sensibilidade, para mostrar a qualidade destes modelos / In the survival literature we can find traditional models without cure fraction and longterm models with cure fraction. A more general risk factor model with latent activation scheme has been recently proposed. In this thesis we deduce new properties for the survival function, hazard function and expected value for this model. Since many recent survival models can be regarded as particular cases of the risk factor model with latent activation scheme these properties are of great relevance. In addition we propose new survival models that are applied to real data examples. A simulation and sensibility analysis are also performed to asses the goodness of fit of these models

Page generated in 0.0558 seconds