• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • Tagged with
  • 33
  • 22
  • 17
  • 12
  • 12
  • 12
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Caminhos da convergência da renda agropecuária no Brasil: Uma análise a partir do processo de Markov de primeira ordem para o período de 1996 a 2009

Valois, Isabela da Silva January 2012 (has links)
VALOIS, Isabela da Silva. Caminhos da convergência da renda agropecuária no Brasil: Uma análise a partir do processo de Markov de primeira ordem para o período de 1996 a 2009, Fortaleza-Ce. 2012. 94f.: Dissertação (Mestrado em Economia Rural)- Universidade Federal do Ceará, Centro de Ciências Agrária, Departamento de Economia Agrícola, Programa de Pós-Graduação em Economia Rural, Fortaleza-CE, 2012. / Submitted by Sergio Vitor (vitor_s.v@hotmail.com) on 2013-10-21T15:55:35Z No. of bitstreams: 1 2012_dis_isvalois.pdf: 583886 bytes, checksum: 83ef98d3446c22ced5f05be4cbd33eae (MD5) / Approved for entry into archive by Margareth Mesquita(margaret@ufc.br) on 2013-10-21T17:32:37Z (GMT) No. of bitstreams: 1 2012_dis_isvalois.pdf: 583886 bytes, checksum: 83ef98d3446c22ced5f05be4cbd33eae (MD5) / Made available in DSpace on 2013-10-21T17:32:37Z (GMT). No. of bitstreams: 1 2012_dis_isvalois.pdf: 583886 bytes, checksum: 83ef98d3446c22ced5f05be4cbd33eae (MD5) Previous issue date: 2012 / The Brazilian agricultural sector has made in the period of stabilization after the Real Plan (1996-2009) a satisfactory economic dynamics, in which the level of agricultural products began an upward trend and virtually uninterrupted growth. This performance suggests that state economies are undergoing a process of catching up, which in the long run there would be a tendency for poorer economies achieve the same level of economic growth (in terms of per capita agricultural GDP) of the richest economies, setting a process of convergence to steady state. Accordingly, this paper seeks to analyze the convergence of per capita agricultural income between the states of Brazil, making sure that the dynamics of the agricultural sector had contributed to the reduction of inequalities existing interstate. To this end, it was used the first-order Markov process. The results indicate the occurrence of movements backward economies to levels of income per capita agricultural lower, indicating that the economies under review showed a trend of impoverishment, despite the global economic growth presented by the sector over the period. Among the factors that led these economies to tread a path of impoverishment, one can cite the emphasis of public policy to export crops, not covered by all the federating units of the country, which would result in the strengthening of the state economies have developed, expense of which are under development; beyond the migration of manpower for the agricultural production centers in more developed agricultural, causing the "Red Queen Effect," in which the growth of agricultural GDP does not translate into growth of income per capita in the field. However, the focus of this study is to identify the occurrence of convergence / divergence, no inferences about the causes that led to the initiation of such a movement, since these factors make room for new studies that seek to investigate them, in order to provide tools for the formulation of agricultural policies aimed at minimizing or even reversal of the causes that lead to poverty in the countryside. / O setor agropecuário brasileiro tem apresentado no período de pós estabilização do Plano Real (1996-2009) uma dinâmica econômica satisfatória, em que o nível de produto agropecuário iniciou uma trajetória ascendente e praticamente ininterrupta de crescimento. Tal performance sugere que as economias estaduais estejam passando por um processo de catching up, em que no longo prazo existiria uma tendência das economias mais pobres alcançarem o mesmo nível de crescimento econômico (em termos de PIB per capita agropecuário) das economias mais ricas, configurando um processo de convergência no steady state. Eom efeito, este, trabalho busca analisar a convergência da renda agropecuária per capita entre os estados do Brasil, verificando se a dinâmica do setor agrícola teria contribuído para a redução das desigualdades interestaduais preexistentes. Para tal, fez-se uso do processo markoviano de primeira ordem. Os resultados apontaram a ocorrência de movimentos de retrocesso das economias para níveis de renda per capita agropecuária inferiores, indicando que as economias em análise apresentaram uma tendência de empobrecimento, apesar do crescimento econômico global do setor ao longo do período. Dentre os fatores que levariam tais economias a trilharem uma trajetória de empobrecimento, pode-se citar a ênfase das políticas públicas às culturas de exportação, não contempladas por todas as unidades federativas do País, o que resultaria no fortalecimento das economias estaduais já desenvolvidas, em detrimento das que se encontram em desenvolvimento; além dos movimentos migratórios da mão-de-obra agropecuária para os centros produtores agrícolas mais desenvolvidos, causando o “Efeito Rainha Vermelha”, em que o crescimento do PIB agropecuário não se traduziria em crescimento das rendas per capita no campo. Contudo, o foco deste estudo consiste na identificação da ocorrência do processo de convergência/divergência, sem inferir sobre as causas que levariam ao desencadeamento de tal movimento, já que tais fatores abrem espaço para novos estudos que busquem investigálos, a fim de poder fornecer instrumentos de formulação de políticas públicas agropecuárias direcionadas à minimização ou mesmo reversão das causas que levam à pobreza no campo.
2

O papel da virulência na evolução da adaptabilidade de uma população de parasitas / Shock waves in virus fitness evolutio

Carvalhaes, Fernando Goldenstein 03 May 2005 (has links)
Trata da modelagem teórica de um experimento que simula in vitro a evolução da aptidão (fitness) de uma população de virus. / We consider a nonlinear partial differential equation of conservation type to describe the dy- namics of vesicular stomatitis virus observed in aliquots of fixed particle number taken from an evolving clone at periodic intervals of time [5]. The changes in time behavior of fitness function noticed in experimental data are related to a crossover exhibited by the solutions to this equation in the transient regime for pulse-like initial conditions. As a consequence, the average replication rate of the population is predicted to reach a plateau as a power t1/ 2
3

Modelo GARCH com mudança de regime markoviano para séries financeiras / Markov regime switching GARCH model for financial series

Rojas Duran, William Gonzalo 24 March 2014 (has links)
Neste trabalho analisaremos a utilização dos modelos de mudança de regime markoviano para a variância condicional. Estes modelos podem estimar de maneira fácil e inteligente a variância condicional não observada em função da variância anterior e do regime. Isso porque, é razoável ter coeficientes variando no tempo dependendo do regime correspondentes à persistência da variância (variância anterior) e às inovações. A noção de que uma série econômica possa ter alguma variação na sua estrutura é antiga para os economistas. Marcucci (2005) comparou diferentes modelos com e sem mudança de regime em termos de sua capacidade para descrever e predizer a volatilidade do mercado de valores dos EUA. O trabalho de Hamilton (1989) foi uns dos mais importantes para o desenvolvimento de modelos com mudança de regime. Inicialmente mostrou que a série do PIB dos EUA pode ser modelada como um processo que tem duas formas diferentes, uma na qual a economia encontra-se em crescimento e a outra durante a recessão. O câmbio de uma fase para outra da economia pode seguir uma cadeia de Markov de primeira ordem. Utilizamos as séries de índice Bovespa e S&P500 entre janeiro de 2003 e abril de 2012 e ajustamos o modelo GARCH(1,1) com mudança de regime seguindo uma cadeia de Markov de primeira ordem, considerando dois regimes. Foram consideradas as distribuições gaussiana, t de Student e generalizada do erro (GED) para modelar as inovações. A distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos se mostrou superior à distribuição normal para caracterizar a distribuição dos retornos em relação ao modelo GARCH com mudança de regime. Além disso, verificou-se um ganho no percentual de cobertura dos intervalos de confiança para a distribuição normal, bem como para a distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos, em relação ao modelo GARCH com mudança de regime quando comparado ao modelo GARCH usual. / In this work we analyze heterocedastic financial data using Markov regime switching models for conditional variance. These models can estimate easily the unobserved conditional variance as function of the previous variance and the regime. It is reasonable to have time-varying coefficients corresponding to the persistence of variance (previous variance) and innovations. The economic series notion may have some variation in their structure is usual for economists. Marcucci (2005) compared different models with and without regime switching in terms of their ability to describe and predict the volatility of the U.S. market. The Hamiltons (1989) work was the most important one in the regime switching models development. Initially showed that the series of U.S. GDP can be modeled as a process that has two different forms one in which the economy is growing and the other during the recession. The change from one phase to another economy can follow a Markov first order chain. We use the Bovespa series index and S&P500 between January 2003 and April 2012 and fitted the GARCH (1,1) models with regime switching following a Markov first order chain, considering two regimes. We considered Gaussian distribution, Student-t and generalized error (GED) to model innovations. The t-Student distribution with the same freedom degree for both regimes and distinct degrees showed higher than normal distribution for characterizing the distribution of returns relative to the GARCH model with regime switching. In addition, there was a gain in the percentage of coverage of the confidence intervals for the normal distribution, as well as the t-Student distribution with the same freedom degree for both regimes and distinct degrees related to GARCH model with regime switching when compared to the usual GARCH model.
4

Modelos markovianos e análise de desempenho de esquemas ARQ em canais móveis

Leal de Siqueira, Rodrigo January 2004 (has links)
Made available in DSpace on 2014-06-12T17:39:59Z (GMT). No. of bitstreams: 2 arquivo6995_1.pdf: 1049176 bytes, checksum: b3a6f8f79054249102563aaaf90c2d98 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / O presente trabalho desenvolve modelos de canais de estados finitos (CEF) para um sistema de comunicação discreto, composto por um modulador digital, um canal com desvanecimento plano (Rayleigh ou Rice) correlacionado no tempo e um demodulador, bem como estuda as propriedades de correlação do processo de desvanecimento para analisar o desempenho de protocolos de solicitação de retransmissão automática (ARQ, do inglês automatic repeat request) em canais CEF. O modelo CEF irá representar os sucessos e erros na transmissão de símbolos em um canal com desvanecimento, o qual é representado matematicamente como uma seqüência de erro binária. Dois modelos de canais CEF comumente usados para caracterizar canais com desvanecimento serão considerados: o modelo de Markov de K-ésima ordem e o modelo Gilbert-Elliott (GEC). Será desenvolvida uma nova expressão analítica para o cálculo da vazão do esquema GBN (do inglês Go-Back-N) do protocolo ARQ para transmissão em canais CEF. A partir da comparação das curvas de vazão obtidas por simulação e as obtidas analiticamente para modelos CEF, serão determinadas faixas de parâmetros do sistema de comunicação nas quais o canal discreto pode ser aproximado por algum modelo CEF considerado neste trabalho. Os resultados obtidos avaliam a influência de diversos parâmetros do canal móvel no desempenho do sistema de comunicações
5

O papel da virulência na evolução da adaptabilidade de uma população de parasitas / Shock waves in virus fitness evolutio

Fernando Goldenstein Carvalhaes 03 May 2005 (has links)
Trata da modelagem teórica de um experimento que simula in vitro a evolução da aptidão (fitness) de uma população de virus. / We consider a nonlinear partial differential equation of conservation type to describe the dy- namics of vesicular stomatitis virus observed in aliquots of fixed particle number taken from an evolving clone at periodic intervals of time [5]. The changes in time behavior of fitness function noticed in experimental data are related to a crossover exhibited by the solutions to this equation in the transient regime for pulse-like initial conditions. As a consequence, the average replication rate of the population is predicted to reach a plateau as a power t1/ 2
6

Modelo GARCH com mudança de regime markoviano para séries financeiras / Markov regime switching GARCH model for financial series

William Gonzalo Rojas Duran 24 March 2014 (has links)
Neste trabalho analisaremos a utilização dos modelos de mudança de regime markoviano para a variância condicional. Estes modelos podem estimar de maneira fácil e inteligente a variância condicional não observada em função da variância anterior e do regime. Isso porque, é razoável ter coeficientes variando no tempo dependendo do regime correspondentes à persistência da variância (variância anterior) e às inovações. A noção de que uma série econômica possa ter alguma variação na sua estrutura é antiga para os economistas. Marcucci (2005) comparou diferentes modelos com e sem mudança de regime em termos de sua capacidade para descrever e predizer a volatilidade do mercado de valores dos EUA. O trabalho de Hamilton (1989) foi uns dos mais importantes para o desenvolvimento de modelos com mudança de regime. Inicialmente mostrou que a série do PIB dos EUA pode ser modelada como um processo que tem duas formas diferentes, uma na qual a economia encontra-se em crescimento e a outra durante a recessão. O câmbio de uma fase para outra da economia pode seguir uma cadeia de Markov de primeira ordem. Utilizamos as séries de índice Bovespa e S&P500 entre janeiro de 2003 e abril de 2012 e ajustamos o modelo GARCH(1,1) com mudança de regime seguindo uma cadeia de Markov de primeira ordem, considerando dois regimes. Foram consideradas as distribuições gaussiana, t de Student e generalizada do erro (GED) para modelar as inovações. A distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos se mostrou superior à distribuição normal para caracterizar a distribuição dos retornos em relação ao modelo GARCH com mudança de regime. Além disso, verificou-se um ganho no percentual de cobertura dos intervalos de confiança para a distribuição normal, bem como para a distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos, em relação ao modelo GARCH com mudança de regime quando comparado ao modelo GARCH usual. / In this work we analyze heterocedastic financial data using Markov regime switching models for conditional variance. These models can estimate easily the unobserved conditional variance as function of the previous variance and the regime. It is reasonable to have time-varying coefficients corresponding to the persistence of variance (previous variance) and innovations. The economic series notion may have some variation in their structure is usual for economists. Marcucci (2005) compared different models with and without regime switching in terms of their ability to describe and predict the volatility of the U.S. market. The Hamiltons (1989) work was the most important one in the regime switching models development. Initially showed that the series of U.S. GDP can be modeled as a process that has two different forms one in which the economy is growing and the other during the recession. The change from one phase to another economy can follow a Markov first order chain. We use the Bovespa series index and S&P500 between January 2003 and April 2012 and fitted the GARCH (1,1) models with regime switching following a Markov first order chain, considering two regimes. We considered Gaussian distribution, Student-t and generalized error (GED) to model innovations. The t-Student distribution with the same freedom degree for both regimes and distinct degrees showed higher than normal distribution for characterizing the distribution of returns relative to the GARCH model with regime switching. In addition, there was a gain in the percentage of coverage of the confidence intervals for the normal distribution, as well as the t-Student distribution with the same freedom degree for both regimes and distinct degrees related to GARCH model with regime switching when compared to the usual GARCH model.
7

Controladores Markovianos aplicados a um robô manipulador subatuado / Markovian controllers applied to an underactuated robot manipulator

Farfan, Daniel Vidal 25 September 2000 (has links)
Este trabalho trata do controle Markoviano aplicado a um robô manipulador visando obter um sistema tolerante a falhas. Os controladores H2, H&#8734, e H2/H&#8734 Markovianos são calculados e aplicados ao robô em diversas situações de operação. Os controladores obtidos mantiveram a estabilidade do sistema tanto em situações de operação normal, quanto em situações de falhas sucessivas. / This work deals with Markovian control applied to a robot manipulator, in an effort to obtain a fault tolerant system. The H2, H&#8734, and H2/H&#8734 controllers were calculated and applied to the robot in different operation situations. The obtained controllers guaranteed the stability of the system in both situations: normal operation, and successive faults operation.
8

Estratégias para otimização do algoritmo de Iteração de Valor Sensível a Risco / Strategies for optimization of Risk Sensitive Value Iteration algorithm

Igor Oliveira Borges 11 October 2018 (has links)
Processos de decisão markovianos sensíveis a risco (Risk Sensitive Markov Decision Process - RS-MDP) permitem modelar atitudes de aversão e propensão ao risco no processo de tomada de decisão usando um fator de risco para representar a atitude ao risco. Para esse modelo, existem operadores que são baseados em funções de transformação linear por partes que incluem fator de risco e fator de desconto. Nesta dissertação são formulados dois algoritmos de Iteração de Valor Sensível a Risco baseados em um desses operadores, esses algoritmos são chamados de Iteração de Valor Sensível a Risco Síncrono (Risk Sensitive Value Iteration - RSVI) e Iteração de Valor Sensível a Risco Assíncrono (Asynchronous Risk Sensitive Value Iteration- A-RSVI). Também são propostas duas heurísticas que podem ser utilizadas para inicializar os valores dos algoritmos de forma a torná-los mais eficentes. Os resultados dos experimentos no domínio de Travessia do Rio em dois cenários de recompensas distintos mostram que: (i) o custo de processamento de políticas extremas a risco, tanto de aversão quanto de propensão, é elevado; (ii) um desconto elevado aumenta o tempo de convergência do algoritmo e reforça a sensibilidade ao risco adotada; (iii) políticas com valores para o fator de risco intermediários possuem custo computacional baixo e já possuem certa sensibilidade ao risco dependendo do fator de desconto utilizado; e (iv) o algoritmo A-RSVI com a heurística baseada no fator de risco pode reduzir o tempo para o algoritmo convergir, especialmente para valores extremos do fator de risco / Risk Sensitive Markov Decision Process (RS-MDP) allows modeling risk-averse and risk-prone attitudes in decision-making process using a risk factor to represent the risk-attitude. For this model, there are operators that are based on a piecewise linear transformation function that includes a risk factor and a discount factor. In this dissertation we formulate two Risk Sensitive Value Iteration algorithms based on one of these operators, these algorithms are called Synchronous Risk Sensitive Value Iteration (RSVI) and Asynchronous Risk Sensitive Value Iteration (A-RSVI). We also propose two heuristics that can be used to initialize the value of the RSVI or A-RSVI algorithms in order to make them more efficient. The results of experiments with the River domain in two distinct rewards scenarios show that: (i) the processing cost in extreme risk policies, for both risk-averse and risk-prone, is high; (ii) a high discount value increases the convergence time and reinforces the chosen risk attitude; (iii) policies with intermediate risk factor values have a low computational cost and show a certain sensitivity to risk based on the discount factor; and (iv) the A-RSVI algorithm with the heuristic based on the risk factor can decrease the convergence time of the algorithm, especially when we need a solution for extreme values of the risk factor
9

Estratégias para otimização do algoritmo de Iteração de Valor Sensível a Risco / Strategies for optimization of Risk Sensitive Value Iteration algorithm

Borges, Igor Oliveira 11 October 2018 (has links)
Processos de decisão markovianos sensíveis a risco (Risk Sensitive Markov Decision Process - RS-MDP) permitem modelar atitudes de aversão e propensão ao risco no processo de tomada de decisão usando um fator de risco para representar a atitude ao risco. Para esse modelo, existem operadores que são baseados em funções de transformação linear por partes que incluem fator de risco e fator de desconto. Nesta dissertação são formulados dois algoritmos de Iteração de Valor Sensível a Risco baseados em um desses operadores, esses algoritmos são chamados de Iteração de Valor Sensível a Risco Síncrono (Risk Sensitive Value Iteration - RSVI) e Iteração de Valor Sensível a Risco Assíncrono (Asynchronous Risk Sensitive Value Iteration- A-RSVI). Também são propostas duas heurísticas que podem ser utilizadas para inicializar os valores dos algoritmos de forma a torná-los mais eficentes. Os resultados dos experimentos no domínio de Travessia do Rio em dois cenários de recompensas distintos mostram que: (i) o custo de processamento de políticas extremas a risco, tanto de aversão quanto de propensão, é elevado; (ii) um desconto elevado aumenta o tempo de convergência do algoritmo e reforça a sensibilidade ao risco adotada; (iii) políticas com valores para o fator de risco intermediários possuem custo computacional baixo e já possuem certa sensibilidade ao risco dependendo do fator de desconto utilizado; e (iv) o algoritmo A-RSVI com a heurística baseada no fator de risco pode reduzir o tempo para o algoritmo convergir, especialmente para valores extremos do fator de risco / Risk Sensitive Markov Decision Process (RS-MDP) allows modeling risk-averse and risk-prone attitudes in decision-making process using a risk factor to represent the risk-attitude. For this model, there are operators that are based on a piecewise linear transformation function that includes a risk factor and a discount factor. In this dissertation we formulate two Risk Sensitive Value Iteration algorithms based on one of these operators, these algorithms are called Synchronous Risk Sensitive Value Iteration (RSVI) and Asynchronous Risk Sensitive Value Iteration (A-RSVI). We also propose two heuristics that can be used to initialize the value of the RSVI or A-RSVI algorithms in order to make them more efficient. The results of experiments with the River domain in two distinct rewards scenarios show that: (i) the processing cost in extreme risk policies, for both risk-averse and risk-prone, is high; (ii) a high discount value increases the convergence time and reinforces the chosen risk attitude; (iii) policies with intermediate risk factor values have a low computational cost and show a certain sensitivity to risk based on the discount factor; and (iv) the A-RSVI algorithm with the heuristic based on the risk factor can decrease the convergence time of the algorithm, especially when we need a solution for extreme values of the risk factor
10

Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas / Efficient solutions to Markov decision processes based on reachability and stochastic bisimulations

Santos, Felipe Martins dos 09 December 2013 (has links)
Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica. / Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation.

Page generated in 0.1161 seconds