• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 480
  • 38
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 534
  • 326
  • 112
  • 97
  • 86
  • 78
  • 68
  • 55
  • 55
  • 51
  • 44
  • 38
  • 38
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

[en] A MODEL TO PREDICT UNCERTAINTY FOR FATIGUE DAMAGE CALCULATION / [pt] UM MODELO PARA A PREVISÃO DA INCERTEZA DO DANO POR FADIGA

JORGE LUIZ DE ALMEIDA FERREIRA 23 June 2015 (has links)
[pt] O presente trabalho tem como objetivo deduzir, implementar e validar um modelo para avaliar o valor médio e a variância do dano por fadiga em estruturas sujeitas a carregamentos aleatórios. Para isto, a técnica de aproximação da média e da variância através da expansão em série de Taylor foi aplicada ao conjunto de equações do método epsilon-N e à regra de acúmulo de dano de Palmgren-Miner. O modelo proposto permite avaliar o comportamento estatístico das gamas de tensão localizadas, das gamas de deformações localizadas e do dano propriamente dito. O modelo proposto possibilita a combinação dos fatores aleatórios associados à história de carregamento e ao comportamento mecânico do material. Isto permite avaliar a dispersão do dano sob um aspecto mais amplo, quantificando de forma independente as incertezas oriundas do comportamento aleatório do material e da história de carregamento. A fim de avaliar o modelo proposto, foram utilizadas 20 histórias de carregamento diferentes. Estas histórias foram combinadas à dois níveis distintos de dispersões das propriedades mecânicas do material. A comparação das estatísticas obtidas analiticamente com aquelas estimadas através da técnica de simulação de Monte Carlo demostraram a viabilidade da utilização do modelo proposto. Um estudo bastante completo foi realizado com relação à influência da história de carregamento sobre a dispersão do dano. Por este estudo verificou-se que a dispersão na previsão do dano provocado por trechos distintos de histórias são fortemente dependentes do tamanho da amostra. Para os casos estudados, verificou-se que trechos amostrados com menos de 3000 picos conduzem a dispersões superiores à 10 por cento , para histórias estritamente estacionárias, e superiores à 20 por cento, para histórias estacionárias num sentido amplo. Após estudar o comportamento estatístico do dano acumulado e de seu valor crítico para a iniciação de uma trinca de fadiga, foram utilizados dois modelos analíticos distintos para a previsão da confiabilidade de projetos à fadiga. Estes modelos foram desenvolvidos supondo a distribuição de Weibull e a lognormal. A validação destes modelos foi realizada comparando-se os resultados estimados analiticamente com seus correspondentes obtidos por simulação de Monte Carlo. A comparação das curvas de confiabilidade obtidas analiticamente com as curvas obtidas por simulação de Monte Carlo mostrou que o modelo baseado na distribuição lognormal é o mais indicado para a previsão da confiabilidade de projetos à fadiga. / [en] The present work is concerned with the development and the validation of a model to evaluate the average and the variance of the fatigue damage in structures subjected to random loading. The technique of the approximation of these statistics through of the expansion into Taylor series was applied to the set of equations that describe the epsilon-N method and the Palmgren-Miner rule. The proposed model allows the evaluation of the statistical behavior of the notch stress ranges, of the notch strain ranges and of the cumulative fatigue damage. The developed model allows the combination of random factors associated to loading histories and to the behavior of the material. In other words, the model estimates the dispersion of the fatigue damage under an extensive aspect, quatifying separately the contributions derives from the dispersion associated to sources of variation of the material behavior and the loading histories. In order to evaluate the proposed model, 20 random loading histories were combined to two levels of dispersion of the material properties. The combination allowed the study of the model under several situations. The performance of the model was evaluated by comparisons with the Monte Carlo technique. The agreement of the proposed model with the Monte Carlo technique was considered good. An extensive study was realized concerning the influence of the random loading on the dispersion of the damage prediction. It was observed that the dispersion is strongly associated to sample s size. From the cases studied it was observed that sample s blocks with less than 3000 peak might conduct to dispersions larger than 10 per cent, for strictly stationary processes, and larger than 20 per cent, for wide-sense stationary processes. After studying the statistical behavior of the cumulative fatigue damage and of its critical value to initiate a fatigue crack, two analytical model for fatigue reliability analysis were presented. These models are developed under the assumption that cumulative fatigue damage and its critical value follow a lognormal or a Weibull distribution. To verify the predicted results the Monte Carlo analysis was used. From this analysis it was verified tha the interference statistical model, based on a lognormal distribution, describes better the behavior of the fatigue s reliability.
112

[en] VALUING REAL OPTIONS FOR NETWORK INVESTMENT DECISIONS AND COST-BASED ACCESS PRICING / [pt] AVALIANDO OPÇÕES REAIS PARA DECISÕES DE INVESTIMENTO EM REDE E PRECIFICAÇÃO DE ACESSO BASEADO EM CUSTOS

SERGIO LUIS FRANKLIN JÚNIOR 20 February 2017 (has links)
[pt] Com o objetivo de estimular a competição no setor de telecomunicações, agências reguladoras do mundo todo têm adotado a regulação de preços baseados em custos para serviços de acesso e interconexão de redes. O processo de introdução da competição não tem sido fácil e muitos problemas têm surgido nos últimos anos relacionados com a definição de quais infraestruturas de rede devem ser disponibilizadas pela operadora incumbente (i.e., as atuais concessionárias de serviços de telecomunicações), e em que termos e condições. Um desses problemas, ainda não endereçado pelas agências reguladoras, é a consideração do valor da opção de investir na ocasião do cálculo de preços baseados em custos de serviços regulados. A fórmula de precificação atualmente usada pelos reguladores ignora o valor da opção de investir produtivamente em algum momento no futuro. Esta tese propõe um modelo e uma metodologia para a valoração da opção de postergar decisões de investimento em rede e para o cálculo de preços baseados em custos de serviços de telecomunicações regulados, levando em consideração as incertezas de demanda e tecnológica no setor de telecomunicações. Em um estudo de custos típico, a rede de telecomunicações é representada por uma lista de elementos de rede especificamente dimensionados para atender a previsão de demanda por serviços de telecomunicações, onde cada elemento de rede é uma parte identificável da infraestrutura de rede (por exemplo, o enlace de acesso local), para a qual pode ser designado um único direcionador de custos. Diferentes elementos de rede estão sujeitos a diferentes incertezas de demanda e tecnológica. Por exemplo, equipamentos de comutação e transmissão estão sujeitos a substituição tecnológica mais rápida do que enlaces de acesso local e linhas de transmissão. Nesta tese, múltiplos de valor de opção são calculados para decisões de investimento em três principais elementos de rede, cada um representando uma parte diferente da rede de telecomunicações fixa brasileira, e o impacto desses múltiplos sobre o custo unitário médio de cada elemento de rede é estimado. Esta tese inova em vários aspectos. Primeiro, porque diferentes elementos de rede estão sujeitos a diferentes incertezas de demanda e tecnológica, um fator de markup é calculado para cada elemento de rede principal. Segundo, o valor da opção de investir em cada elemento de rede é modelado como uma função de duas variáveis estocásticas: o fluxo de lucro variável total do elemento e o custo de novo investimento no elemento. Terceiro, a incerteza tecnológica é modelada por meio de duas abordagens complementares: obsolescência tecnológica de equipamento usado e evolução tecnológica de equipamento novo. Quarto, o valor das opções futuras de reposição é considerado, permitindo o redimensionamento da capacidade de rede na medida em que os equipamentos vão sendo substituídos. As incertezas de demanda e tecnológica associadas a cada elemento de rede são modeladas por meio de três processos estocásticos: o fluxo de lucro variável total (movimento geométrico Browniano), a depreciação de ativo usado (processo de Poisson), e o custo de ativo moderno equivalente (movimento geométrico Browniano). E todos se encaixam em um modelo elegante e simples que calcula o múltiplo de valor de opção para cada elemento de rede. Uma taxa de juros livre de risco constante foi assumida para derivar as equações diferenciais estocásticas que devem ser satisfeitas pelos valores das opções reais, apesar de a incerteza na taxa de juros ter sido investigada e a sua volatilidade ter sido calculada para diferentes maturidades/prazos. Esta tese propõe um método para a construção da curva de cupom de inflação no Brasil, usando uma combinação de algoritmo tradicional de otimização não-linear e um algoritmo genético especificamente desenvolvido para esta finalidade. Tem havido um grande debate sobre q / [en] With the goal of increasing competition in the telecommunications sector, regulatory authorities around the world have adopted cost-based prices for network interconnection and access services. The process of introducing competition has not been easy and many issues have arisen in recent years related to which facilities should be made available by the incumbent carriers, and on what terms and conditions. One of these issues, not yet addressed by the regulatory authorities, is the consideration of the value of the option to invest when calculating cost-based prices of regulated services. The pricing formula currently used by the regulators ignores the value of the option to productively invest at some time in the future. This thesis proposes a model and methodology for valuing the option to delay network investment decisions and calculating costbased prices of regulated telecommunications services, taking into account the demand and technological uncertainties in telecommunications networks. In a typical cost study, the telecommunications network is represented by a list of network elements specifically dimensioned to meet the forecast demand for all telecommunications services, where each network element is an identifiable part of the network infrastructure (e.g., the local loop), for which it can be assigned a single cost driver. Different network elements are subject to different demand and technological uncertainties. For example, switches and transmission equipment are subject to faster technological substitution than local loop and transmission facilities. In this thesis, I calculate the option value multiples for the decisions to invest in three main network elements, each representing a different part of the Brazilian fixed telecommunications network (subject to different technological and demand uncertainties), and estimate the impact of these option value multiples on the average unitary cost of each network element. This thesis innovates in several aspects. First, because different network elements are subject to different demand and technological uncertainties, a markup factor is calculated for each main network element. Second, the value of the option to invest in each network element is modeled as a function of two stochastic variables: the element s total variable profit and the cost of new investment in the element. Third, technological uncertainty is modeled using two complementary approaches: technology obsolescence of used equipment and technology evolution of new equipment. Fourth, the value of future replacement options is considered, allowing for the resizing of network capacity as equipment elements are replaced. The demand and technological uncertainties associated with each network element are modeled through the use of three stochastic processes: the flow of total variable profit (geometric Brownian motion), the depreciation of used asset (Poisson decay process), and the cost of modern equivalent asset (geometric Brownian motion). They all fit together into a neat and simple model that calculates the option value multiple for each network element. A constant riskfree interest rate has been assumed to derive the stochastic differential equations that the real option values must satisfy, although interest rate uncertainty has been investigated and interest rate volatilities have been calculated for different maturities/terms. This thesis proposes a method for constructing the Brazilian inflation coupon curve using a combination of traditional nonlinear optimization algorithm and a genetic algorithm specifically developed for that purpose. There has been a good deal of debate about which markup factor (if any) should be applied to the investment cost component of a network investment decision in order to reflect the value of the killed option. Some authors say the real option value is negligible and should be ignored, as in Pelcovits (1999), while others calculate markup values that are quite significant, as in Hausman (1999) and Pindyck (2005). T
113

Ajuste de modelo de sistemas rotativos utilizando técnicas de inferência bayesiana / Model updating using bayesian inference for rotating system

Tyminski, Natalia Cezaro, 1988- 28 August 2018 (has links)
Orientador: Helio Fiori de Castro / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-28T11:56:54Z (GMT). No. of bitstreams: 1 Tyminski_NataliaCezaro_M.pdf: 6550021 bytes, checksum: 3fb888c14fc5d24d29f7f155d0e4f2b0 (MD5) Previous issue date: 2015 / Resumo: As unidades geradoras de energia das usinas são formadas por turbinas e turbo-geradores, que são exemplos típicos de máquinas rotativas. Essas maquinas são componentes críticos, pois são essenciais à geração de energia. Sabendo que a análise dinâmica de máquinas rotativas é uma tarefa complexa envolvendo diversos parâmetros a serem analisados, sua realização não deve considerar apenas o rotor, pois seu comportamento dinâmico é influenciado pela interação com os demais componentes do mesmo sistema. O comportamento dinâmico de uma máquina rotativa é, geralmente, representado por um modelo determinístico. Entretanto, sistemas rotativos reais possuem características estocásticas, visto que os inúmeros parâmetros de projetos possuem incertezas inerentes à fabricação e, principalmente, às condições de operações. Desta forma, modelos estocásticos são uma opção importante para representação de sistemas rotativos na fase de projeto, onde se podem prever os efeitos da variação dos parâmetros de projeto. O tema em foco nesta dissertação de mestrado é a aplicação de Inferência Bayesiana para ajustar um modelo de sistema rotativo. Neste trabalho foram analisadas as incertezas nos parâmetros de projeto de um sistema rotativo, e a partir das incertezas obtidas foi possível obter a resposta estocástica do sistema. A primeira analise considera as incertezas dos parâmetros relacionados ao eixo; como o modulo de elasticidade, a massa especifica do material e o coeficiente de proporcionalidade a matriz de rigidez. Na segunda análise, os parâmetros escolhidos foram os parâmetros de desbalanceamento; ângulo de fase, momento de desbalanceamento e posição axial. Em uma terceira abordagem, foi analisado parâmetros dos mancais hidrodinâmicos, folga radial do mancal e temperatura do óleo lubrificante. A partir das incertezas dos referidos parâmetros, foi possível analisar a propagação de incertezas desses parâmetros no cálculo da posição do eixo no mancal e dos coeficientes dinâmicos dos mancais hidrodinâmicos / Abstract: Energy generation plants rely on units such as turbines and turbo-generators, which are common examples of rotating machines. These machines are critical components in these units, once they are essential to the energy generation. The dynamic analysis of rotating machines is a complex task including several parameters to be considered. This analysis requires taking the rotor into account but also the other components, which affect the dynamic behavior of the system. The dynamic behavior of rotating machines is usually represented by a deterministic model. Although, real rotating system have stochastic characteristics once that the parameters on project have uncertainties. In this way, stochastic models are an important option for the representation of these systems, and it's possible predict the variation's parameters. This study aims the application of Bayesian Inference for model updating on rotating systems. The uncertainties of rotating machines parameters were analyzed, and the system stochastic response was obtained. The first analyzed considers the uncertainties of the beam parameters, as the Young¿s modulus, and the proportionality coefficient to the stiffness matrix. In the second analysis, the selected parameters were the unbalance parameters; phase angle, unbalance moment and axial position. In a third approach, it was analyzed parameters of journal bearings, clearance radial and lubricating oil temperature. From the uncertainties of these parameters, it was possible to analyze the propagation of uncertainties of these parameters, to calculate the center line position in the bearing, and the dynamic coefficients of journal bearings / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestra em Engenharia Mecânica
114

Incerteza da amostragem e da análise no controle de qualidade do monitoramento de recursos hídricos

Santana, Rogério Visquetti de January 2018 (has links)
Orientadora: Profª. Drª. Roseli Frederigi Benassi / Coorientadora. Profª. Drª. Lucia Helena Gomes Coelho / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência e Tecnologia Ambiental, Santo André, 2018. / Os monitoramentos ambientais de recursos hídricos são construídos por meio de resultados analíticos de variáveis ecológicas que são avaliadas por meio da aquisição de amostras. Estas devem representar o mais fielmente possível as condições e características do ambiente estudado para garantir que as tomadas de decisão baseadas neles sejam adequados. Por conta disso, este trabalho teve como objetivo avaliar a eficiência da utilização do cálculo de incerteza da amostragem como estratégia de garantia da representatividade dos procedimentos de coleta usados em estudos ambientais. Para isso, foram avaliadas amostras, coletadas e analisadas em duplicatas e cujos resultados foram usados para determinar a incerteza da amostragem conforme procedimento definido pelo EURACHEM no documento "Measurement uncertainty arising from sampling". Para tanto, foram avaliados pontos de coleta pertencentes a rede de monitoramento da qualidade das águas superficiais da CETESB, sendo 11 localizados em rios que cruzam a região metropolitana de São Paulo (Pinheiros, Tamanduateí e Tietê) e 9 localizados no reservatório Billings. A população de dados obtidas foi tratada por meio da análise da diferença percentual das duplicatas, para que os valores suspeitos (outliers) fossem excluídos, sendo os resultados escolhidos usados para a determinação incerteza. Por meio do cálculo de incerteza em dois níveis, foram calculadas as incertezas da amostragem e da análise observando-se que a primeira apresentou resultados maiores do que a segunda. Conclui-se, por fim, que apesar da metodologia ser adequada para avaliar o a influência da amostragem e da análise separadamente, o desenho amostral aplicado não permite avaliar as fontes de incerteza presentes em cada ponto, uma vez que considerada pontos com características hidrológicas e limnológicas bastante distintas. / The environmental monitoring of water resources is constructed through analytical results of ecological variables that are evaluated through the acquisition of samples. These should represent as accurately as possible the conditions and characteristics of the environment studied to ensure that decision-making based on them is adequate. The objective of this study is to evaluate the efficiency of the use of the uncertainty calculation of sampling as a strategy to guarantee the representativeness of the collection procedures used in environmental studies. This essay aims to evaluate the efficiency of the uncertainty estimation method as a strategy to ensure representativeness of sampling procedures used in environmental studies. For this, were evaluated the samples, which were collected and analyzed in duplicates and whose results were used to determine the sampling uncertainty according to the procedure defined by EURACHEM in the document "Measurement uncertainty arising from sampling" To that end, collection points belonging to the CETESB surface water quality monitoring network were evaluated, of which 11 were located in rivers crossing the São Paulo metropolitan area (Pinheiros, Tamanduateí and Tietê) and 9 located in the Billings reservoirs. The population of data obtained was treated by means of the analysis of the Percent Difference of the duplicates, so that the outliers were excluded, and the chosen results were used to determine uncertainty. By calculating uncertainty at two levels, we calculated the sampling and analysis uncertainties by observing that the former presented higher than the second results. Finally, it is concluded that although the methodology is adequate to evaluate the influence of sampling and analysis separately, the applied sample design does not allow to evaluate the sources of uncertainty present in each point, once considered points with hydrological and limnological characteristics quite different.
115

The long-run properties of a dynamic Mirrlees' model with aggregate shocks

Santiago, Diego C. 19 July 2013 (has links)
Submitted by Diego Santiago (dcsantiago89@gmail.com) on 2013-09-30T14:06:04Z No. of bitstreams: 1 mestrado.pdf: 886336 bytes, checksum: 9d486ef132b354c3a86e1c00759e0284 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2013-10-01T12:25:06Z (GMT) No. of bitstreams: 1 mestrado.pdf: 886336 bytes, checksum: 9d486ef132b354c3a86e1c00759e0284 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2013-10-03T17:35:04Z (GMT) No. of bitstreams: 1 mestrado.pdf: 886336 bytes, checksum: 9d486ef132b354c3a86e1c00759e0284 (MD5) / Made available in DSpace on 2013-10-03T17:36:03Z (GMT). No. of bitstreams: 1 mestrado.pdf: 886336 bytes, checksum: 9d486ef132b354c3a86e1c00759e0284 (MD5) Previous issue date: 2013-07-19 / We assess the existence of a long run stationary distribution of expected util- ities in a dynamic Mirrlees’s (1971) incentive structure when the government has only imperfect record keeping and the economy is subject to aggregate shocks. When aggregate shocks are i.i.d., we prove the existence of such a distribution and partially characterize the steady-state allocations. We show that the consumption share of each cohort is invariant to the aggregate state. In contrast, when aggre- gate shocks are persistent, efficient allocations display history dependence, and an invariant distribution need not exist. / Nós abordamos a existência de distribuições estacionárias de promessas de utilidade em um modelo Mirrlees dinâmico quando o governo tem record keeping imperfeito e a economia é sujeita a choques agregados. Quando esses choques são iid, provamos a existência de um estado estacionário não degenerado e caracterizamos parcialmente as alocações estacionárias. Mostramos que a proporção do consumo agregado é invariante ao estado agregado. Quando os choques agregados apresentam persistência, porém, alocações eficientes apresentam dependência da história de choques e, em geral, uma distribuição invariante não existe.
116

A economia da informação: rumo a um programa de pesquisa alternativo

Xavier, Luís Eugenio de Menezes 30 May 2012 (has links)
Submitted by Elizabete Silva (elizabete.silva@ufes.br) on 2015-05-14T19:26:43Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A economia da informação rumo a um programa de pesquisa.pdf: 849283 bytes, checksum: d1d9b3151eab0e7fdae1ce71cbf2a895 (MD5) / Approved for entry into archive by Elizabete Silva (elizabete.silva@ufes.br) on 2015-08-11T21:45:49Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A economia da informação rumo a um programa de pesquisa.pdf: 849283 bytes, checksum: d1d9b3151eab0e7fdae1ce71cbf2a895 (MD5) / Made available in DSpace on 2015-08-11T21:45:49Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A economia da informação rumo a um programa de pesquisa.pdf: 849283 bytes, checksum: d1d9b3151eab0e7fdae1ce71cbf2a895 (MD5) Previous issue date: 2012-05 / Este trabalho tem por objetivo discutir o surgimento de um programa de pesquisa na Ciência Econômica, no que concerne a análise das assimetrias de informação, as diferenças epistemológicas e as implicações em termos de equilíbrio ótimo de Pareto, em contraponto à abordagem neoclássica standard. Em busca de tal objetivo, foi necessário destacar o método de ambos os paradigmas; todavia, era igualmente necessário discutir a filosofia/epistemologia da ciência envolvida e que serviria de base para uma abordagem relacionada a mudanças paradigmáticas na ciência. No capítulo 1, discutimos a epistemologia da ciência, a partir de três autores: Popper, Kuhn e Lakatos. Definimos o conjunto de hipóteses que podem ser associadas ao método empregado pela Escola Neoclássica, a partir da filosofia da ciência proposta por Lakatos. Em seguida, no capítulo 2, fizemos uma longa exposição do método neoclássico, definindo os axiomas inerentes às preferências bem-comportadas, apresentando algebricamente o equilíbrio geral walrasiano, exemplificando o relaxamento de hipóteses auxiliares do modelo neoclássico a partir de Friedman e, por fim, aplicando o instrumental neoclássico ao relaxamento da hipótese auxiliar de perfeição da informação, a partir do modelo desenvolvido por Grossman & Stiglitz (1976), bem como da expansão matemática desenvolvida pelo presente trabalho. Finalmente, encerramos a presente dissertação com o capítulo 3, no qual, basicamente, expomos as principais contribuições de autores como Stiglitz, Akerlof e Arrow, no que concerne a mercados permeados por informações assimétricas e comportamentos oportunistas. Procuramos mostrar as consequências para o próprio mercado, chegando a resultados em que o mesmo era extinto. Apresentamos a segunda parte do modelo de Grossman & Stiglitz, enfatizando a natureza imperfeita do sistema de preços, sua incapacidade de transmitir todas as informações sobre os bens ao conjunto dos agentes, e, por fim, discutimos tópicos variados ligados à Economia da Informação. / This work aims to discuss the emergence of a research program in Economic Science, concerning the analysis of information asymmetries, the differences and epistemological implications of Pareto optimal equilibrium, in contrast to the standard neoclassical approach. In pursuit of this goal, it was necessary to highlight the method of both paradigms, yet it was also necessary to discuss the philosophy/epistemology of science involved and which serve as the basis for an approach related to paradigm shifts in science. In chapter 1 we discussed the epistemology of science, from three authors: Popper, Kuhn and Lakatos. We defined the set of hypotheses that can be associated with the method employed by the neoclassical school, from the philosophy of science proposed by Lakatos. Then, in chapter 2, we did a long exposure of the neoclassical method, setting axioms inherent in well-behaved preferences, presenting algebraically the Walrasian general equilibrium, illustrating relaxation of auxiliary hypotheses of the neoclassical model from Friedman and, finally, applying the neoclassical instrumental to the relaxation of auxiliary hypotheses of completeness of information from the model developed by Grossman & Stiglitz (1976) and developed by mathematical expansion of this work. Finally, we close this dissertation with chapter 3, which basically lays out the major contributions of authors such as Stiglitz, Akerlof and Arrow, with respect to markets permeated by asymmetric information and opportunistic behavior. We show the consequences for the market itself, reaching results in which it was extinguished. Here is the second part of the model of Grossman & Stiglitz, emphasizing the imperfect nature of the price system, their inability to convey all the information about the goods to all agents, and, finally, we discussed various topics related to the Economics of Information.
117

Essays on heterogeneous agent models with entrepreneurship

Merlin, Giovanni Tondin 12 April 2018 (has links)
Submitted by Giovanni Tondin Merlin (gtmerlin@hotmail.com) on 2018-04-26T20:30:59Z No. of bitstreams: 1 Giovanni_Merlin_PhdThesis.pdf: 2320745 bytes, checksum: 5570b1e9282fcd00b0c9bc7c8cd2f61c (MD5) / Approved for entry into archive by Katia Menezes de Souza (katia.menezes@fgv.br) on 2018-04-26T20:49:27Z (GMT) No. of bitstreams: 1 Giovanni_Merlin_PhdThesis.pdf: 2320745 bytes, checksum: 5570b1e9282fcd00b0c9bc7c8cd2f61c (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-04-27T13:42:28Z (GMT) No. of bitstreams: 1 Giovanni_Merlin_PhdThesis.pdf: 2320745 bytes, checksum: 5570b1e9282fcd00b0c9bc7c8cd2f61c (MD5) / Made available in DSpace on 2018-04-27T13:42:29Z (GMT). No. of bitstreams: 1 Giovanni_Merlin_PhdThesis.pdf: 2320745 bytes, checksum: 5570b1e9282fcd00b0c9bc7c8cd2f61c (MD5) Previous issue date: 2018-04-12 / This thesis is composed of three essays related to heterogeneous agent models with entrepreneurship. The first chapter adds aggregate uncertainty in a heterogeneous agent model with entrepreneurship and financial frictions, in order to evaluate the welfare effects of business cycles. The second chapter quantitatively assess the impact of The Brazilian Development Bank on the Brazilian economy, through subsidized credit supply. The third chapter uses a heterogeneous agent model to estimate effects of changes in the Brazilian tax composition on development and welfare. / Essa tese é composta por três ensaios cujo elemento em comum é a utilização de modelos de agentes heterogêneos com empreendedorismo. O primeiro capítulo adiciona incerteza agregada em um modelo de agentes heterogêneos com empreendedorismo e fricções financeiras, com o intuito de avaliar os efeitos de bem-estar dos ciclos de negócios. O segundo capítulo mensura os impactos do BNDES na economia Brasileira, através da oferta de crédito subsidiado. O terceiro capítulo utiliza um modelo de agentes heterogêneos para estimar os efeitos da composição tarifária no Brasil sobre o desenvolvimento e bem-estar.
118

Planejamento financeiro: levantamento de casos na indústria cinematográfica

Rocha, Fernanda Amorim Poggi da 12 1900 (has links)
Submitted by fernanda amorim poggi da rocha (fepoggi@gmail.com) on 2016-01-20T22:50:55Z No. of bitstreams: 1 Dissertação_v. final_Fernanda Poggi_20.01.2016.pdf: 1324736 bytes, checksum: dfe76e09e1e20caf8d7b9f61ca73d9c6 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2016-02-29T12:03:32Z (GMT) No. of bitstreams: 1 Dissertação_v. final_Fernanda Poggi_20.01.2016.pdf: 1324736 bytes, checksum: dfe76e09e1e20caf8d7b9f61ca73d9c6 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2016-02-29T12:04:54Z (GMT) No. of bitstreams: 1 Dissertação_v. final_Fernanda Poggi_20.01.2016.pdf: 1324736 bytes, checksum: dfe76e09e1e20caf8d7b9f61ca73d9c6 (MD5) / Made available in DSpace on 2016-02-29T12:05:08Z (GMT). No. of bitstreams: 1 Dissertação_v. final_Fernanda Poggi_20.01.2016.pdf: 1324736 bytes, checksum: dfe76e09e1e20caf8d7b9f61ca73d9c6 (MD5) Previous issue date: 2015-12 / This exploratory research aimed to investigate the main mechanisms used in the planning process by the film industry. At this extent, it was realized a multiple case study with four film producers companies, of which three of them are located in Rio de Janeiro, and one in São Paulo. The data was collected through interviews with professionals from those four companies. The cases were analyzed in light of planning and control theories facing both environmental uncertainty and cultural industries. The results indicate that the budgetary process and control of a film are made in a rigorous way. All the four companies use continuous budgets during the production. The main uncertainty perceived by all four cases was revenue projection and for that two companies indicated the use of scenario analyses. Furthermore, two film companies elaborate a portfolio of projects in order to reduce production risks among the projects. Finally, only one case brought a new element in comparison to the other cases: including a partner with equity share of the production. This business model results in lower budgets if compared to the other cases. / Este estudo exploratório teve como objetivo investigar os principais mecanismos de gestão utilizados no planejamento na indústria cinematográfica. Para tanto, foi realizado um estudo de casos múltiplos, envolvendo quatro produtoras cinematográficas, das quais três estão localizadas no estado do Rio de Janeiro e uma em São Paulo. Os dados foram obtidos a partir de entrevistas focalizadas com profissionais dessas quatro empresas. Os casos foram analisados sob à luz de teorias sobre planejamento e controle em ambientes incertos e nas indústrias culturais. Os resultados indicam que o orçamento e controle dos filmes é feito de forma rigorosa. Todas as produtoras efetuam revisões orçamentárias durante a produção dos filmes. A maior incerteza relatada por todas as empresas foi a estimativa da receita e para isso, duas produtoras indicaram o uso de cenários para auxiliá-los nesta tarefa. Além disso, duas produtoras relataram a elaboração de carteiras de projetos a fim de reduzir o risco das produções. Por fim, um caso especificamente trouxe um elemento novo em relação aos demais casos ao incluir sócio em busca de investimento de risco na composição acionária do filme. Este modelo de negócio acarretou orçamentos em patamares menores do que nos demais casos.
119

Análise comportamental de consumidores brasileiros: fatos estilizados por estratificação social e aplicações em modelos de projeção macro

Velho, Vitor Vidal Costa 05 December 2016 (has links)
Submitted by Vitor Vidal Costa Velho (vitorvidal89@gmail.com) on 2017-02-03T20:23:30Z No. of bitstreams: 1 Dissertação - Vitor Vidal Velho - Mestrado Profissional EPGE.pdf: 1181575 bytes, checksum: 9c27f989399f9ce81252d04fb4be9fe6 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2017-02-06T11:30:32Z (GMT) No. of bitstreams: 1 Dissertação - Vitor Vidal Velho - Mestrado Profissional EPGE.pdf: 1181575 bytes, checksum: 9c27f989399f9ce81252d04fb4be9fe6 (MD5) / Made available in DSpace on 2017-02-06T16:50:01Z (GMT). No. of bitstreams: 1 Dissertação - Vitor Vidal Velho - Mestrado Profissional EPGE.pdf: 1181575 bytes, checksum: 9c27f989399f9ce81252d04fb4be9fe6 (MD5) Previous issue date: 2016-12-05 / Survey indicators produced by FGV are economic information published relatively quickly and used as a 'thermometer' of the Brazilian level of activity in the short term. The use of the Consumer Confidence Index (CCI), as well as other indicators within the survey, are taken as a antecedent or coincident in household consumption forecasting models and other official quantitative variables. However, the work seeks to show evidence that information at the aggregate level has not always the best predictive power. The work seeks to analyze the behavior of consumers under a more disaggregated view of the research in order to obtain greater correlation and robustness with the target variables. There is evidence that some consumer groups are able to provide better assessments on one topic than others. Using the Principal Component Analysis (PCA), we reduce the dimensionality of these better indicators to obtain robustness in the forecasting scenarios. To complement these predictions, we will use the indicator of dispersion of responses as an uncertainty proxy, in an attempt to understand subjectivity of survey data. The conclusion of the article is given through the analysis of the stylized facts of the behavior of these groups selected for each case. / Indicadores de sondagens produzidas pela FGV são informações econômicas divulgadas de forma relativamente rápida e utilizadas como 'termômetro' do nível de atividade brasileira no curto prazo. A utilização do ICC (Índice de Confiança do Consumidor), assim como outros indicadores por dentro da sondagem, são tidas como antecedente ou coincidente em modelos de previsão do consumo das famílias e para as demais variáveis quantitativas oficiais. No entanto, o trabalho procura mostrar evidências de que nem sempre as informações ao nível agregado, possuem o melhor poder preditivo. O trabalho busca analisar o comportamento dos consumidores sob uma ótica mais desagregada da pesquisa a fim de obter maior correlação e robustez com as variáveis target. Existem evidências de que alguns grupos de consumidores conseguem fornecer melhores avaliações sobre determinado tema do que outros. Utilizando a técnica de componentes principais, extraímos o núcleo destes melhores indicadores desagregados para obter robustez nos cenários de previsão. Para complementar estas previsões, utilizaremos o indicador de dispersão das respostas como uma proxy de incerteza, na tentativa de compreender o lado subjetivo intrínseco às pesquisas de sondagem. A conclusão do artigo se dá através da análise dos fatos estilizados do comportamento destes grupos selecionados para cada caso.
120

[en] PRE-FOMC ANNOUNCEMENT RELIEF / [pt] ALÍVIO PRÉ-ANÚNCIO DO FOMC

VITOR GABRIEL RIVAS MARTELLO 26 December 2018 (has links)
[pt] Mostramos que o movimento do retorno de ações horas antes do anúncio do FOMC ocorre principalmente em períodos de alta incerteza de mercado. Especificamente, esse retorno anormal é explicado por uma redução significativa do prêmio de risco (volatilidade implícita e prêmio de variância) antes do anúncio, mas apenas quando o prêmio de risco do mercado é alto (quando está acima da sua mediana). As medidas de incerteza de mercado que são relevantes são persistentes e não são relacionadas à incerteza ou expectativa com relação à política. O mercado não fica estressado dias antes do anúncio, e a resolução de incerteza não é revertida dias após a reunião. Além disso, nós explicamos o porquê do movimento de antecipação não ser observado na última década, uma vez que a ausência de evidência advém da variação no tempo que também estava presente em dados passados. Adicionalmente, o CAPM funciona em datas de FOMC apenas quando o prêmio de risco é alto, ou seja, quando a volatilidade implícita está acima da mediana histórica até o momento. Os resultados são robustos a diferentes amostras e medidas alternativas de prêmio de risco e incerteza. / [en] We show that the pre-FOMC announcement drift in equity returns occurs mostly in periods of high market uncertainty. Specifically, this abnormal return is explained by a significant reduction in the risk premium (implied volatility and variance risk premium) prior to the announcement, but only when the risk premium is high, e.g., when it is above its median. The relevant measures of market uncertainty are persistent and are not related to policy uncertainty or expectations. Markets do not become stressed in the days prior to the announcement, and the resolution of uncertainty is not reversed in the days after the meeting. Moreover, we explain why recent studies suggest that the pre-FOMC drift might have disappeared in the past decade, as this decline in the effect is due to time variation that was also present in older data. Additionally, CAPM only works on FOMC dates when the risk premium is high, e.g., implied volatility above its prior median level. The results are robust to different samples and to alternative risk premium and uncertainty measures.

Page generated in 0.038 seconds