• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 174
  • 174
  • 174
  • 57
  • 37
  • 29
  • 27
  • 27
  • 19
  • 18
  • 16
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

The influence of the DNA conformation on the radiation-induced DNA damage probabilities = A influência da conformação do DNA nas probabilidades de dano induzido por radiações / A influência da conformação do DNA nas probabilidades de dano induzido por radiações

Tello Cajiao, John James, 1990- 30 August 2018 (has links)
Orientador: Mario Antonio Bernal Rodriguez / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Física Gleb Wataghin / Made available in DSpace on 2018-08-30T22:42:12Z (GMT). No. of bitstreams: 1 TelloCajiao_JohnJames_M.pdf: 2614936 bytes, checksum: e5bdfc91b42434b003cad0b5fa850afb (MD5) Previous issue date: 2016 / Resumo: O objetivo deste trabalho é estudar a influência da conformação do DNA na probabilidade de dano direto produzido por partículas ionizantes. Além disso, os fundamentos mecanicísticos do modelo Linear-Quadrático são investigadas através de um modelo biofísico desenvolvido neste trabalho, baseado na TADR (Teoria da Ação Dual da Radiação). Para este fim, três modelos geométricos do material genético foram construídos. Os modelos têm resolução atomística e levam em conta ? 10^9 pares de base (bps) nas configurações A,B e Z do DNA. A partir de um único bp, os diferentes níveis organizacionais no interior do núcleo da célula foram criados por meio de transformações lineares. Em seguida, o código Monte Carlo (MC) GEANT4-DNA foi usado para simular o transporte de prótons de 0.5, 1, 5, 7 e 10 MeV assim como de partículas alfa de 2, 5, 7 e 10M eV . O número de partículas em cada caso é de tal modo que as doses absorvidas estão entre 0.5 ? 16Gy. Os três modelos foram consistentes com as dimensões das estruturas reais. Em particular, os modelos foram compatíveis com a exigência de que o diâmetro da cromatina seja de 30 nm, bem como com os volumes bp reportados em outros trabalhos. Os rendimentos tanto das quebras totais quanto das quebras duplas (TSBY e DSBY) foram obtidos para cada qualidade de radiação. Além disso, a probabilidade de impacto (SHP) definida como a razão entre o volume do DNA e o volume núcleo, foi calculada teoricamente e a partir das simulações. O modelo biofísico em conjunto com as simulações MC forneceu o número de lesões letais (N_LL) em função da dose, para prótons de 0,5 e 10 MeV, e para partículas alfa de 2 e 10 MeV . Os N_LL puderam ser divididos em aqueles criados por uma única trajetória e aqueles originados pela interacção de duas trajetórias. Concluiu-se que o TSBY é praticamente determinada pela SHP e depende fracamente da qualidade de radiação incidente. No entanto, o DSBY mostrou forte dependência tanto da conformação do DNA quanto da qualidade de radiação. Isto é devido à relação entre a capacidade de agrupamento das deposições de energia para uma radiação dada e o empacotamento do DNA. Por outro lado, a análise dos mecanismos de produção de dano, baseada na TADR e testada com o modelo biofísico desenvolvido, mostraram que os efeitos de uma única trajetória (de primeira ordem) dependem linearmente com a dose. Além disso, os efeitos inter-trajetórias seguem um comportamento quadrático com a dose, com um termo linear que influencia o mecanismo de primeira ordem. Isto significa que o comportamento linear-quadrático do N_LL com a dose, tem fundamentos mecanicistas, pelo menos, na primeira fase do dano / Abstract: The aim of this work is to study the influence of the DNA conformation on the probability of direct damage induction by ionizing particles. Also, the mechanistic grounds of the Linear-Quadratic radiobiological model are investigated through the eyes of a home-made biophysical model based on the DRAT (Dual Radiation Action Theory). To this end, three geometrical models of the genetic material were constructed. The models have atomistic resolution and account for ? 10^9 base pairs (bps) in the A-, B- and Z-DNA configurations. Starting from a single bp, the different organizational levels inside the cell nucleus were created by means of linear transformations. Next, the Monte Carlo (MC) code GEANT4-DNA was used to simulate the transport of protons of 0.5, 1, 5, 7 and 10 MeV , and alpha particles of 2, 5, 7 and 10 MeV. The number of particles in each case is such that the absorbed doses range between 0.5 Gy and 16 Gy. The three models proved to be consistent with the dimensions of the real structures. In particular, the models were compatible with the 30 nm chromatin fiber diameter requirement as well as with the bp volumes reported in other works. The Total and Double Strand Break Yields (TSBY and DSBY) were obtained for every radiation quality. Also, the Site-Hit Probability (SHP) defined as the total target to the nucleus volume ratio, was computed theoretically and from the simulations. The biophysical model in conjunction with the MC simulations furnished the number of lethal lesions (N_LL) as a function of dose, for protons of 0.5 and 10 MeV , and for alpha particles of 2 and 10 MeV . The N_LL could be split into those created by a single track and those originated by interaction of two tracks. It is concluded that the TSBY is practically determined by the SHP and depends weakly on the incident radiation quality. Nevertheless, the DSBY showed strong dependence on both the DNA conformation and the radiation quality. This is due to the interplay between the energy deposition clustering capacity of a given radiation and the DNA spatial packing. On the other hand, the analysis of the mechanisms of damage production based on the DRAT and tested with the biophysical model developed, showed that single-track (first order) effects depend linearly on the dose. Moreover, inter-track effects follows a quadratic behavior with the dose, having a linear term that influences the first order mechanism. This means that the Linear-Quadratic behavior of the N_LL with the dose, has mechanistic groundings at least at the first stage of the damage / Mestrado / Física / Mestre em Física / 1370449/2014 / CAPES
112

Custo anual uniforme equivalente de máquinas de colheita florestal : uma abordagem estocástica /

Bassoli, Hilda Maria. January 2019 (has links)
Orientador: Paulo Torres Fenner / Coorientador: Daninlo Simões / Banca: Gislaine Cristina Batistela / Banca: Rogerio Antonio de Oliveira / Resumo: O sistema de colheita de árvores inteiras é realizado por um conjunto de máquinas autopropelidas que demanda importante aporte de capital, o qual implica diretamente no custo da colheita florestal mecanizada. Nesta perspectiva, torna-se fundamental a determinação da vida econômica, ou melhor, o momento em que a máquina executou suas funções, com o menor custo operacional, conseguinte, com menor custo de produção. Destarte, objetivou-se determinar a vida econômica de máquinas autopropelidas que compõe um modal de colheita florestal mecanizada sob condições de incertezas, utilizando o método de simulação de Monte Carlo para determinar as probabilidades dos valores do custo anual uniforme equivalente. Como premissa foram considerados dados históricos dos custos operacionais de máquinas autopropelidas, com vistas à construção de modelos matemáticos que associou os intervalos de incertezas e permitiu atribuir distribuições de probabilidades. Posteriormente, foram gerados números pseudoaleatórios por meio da simulação de Monte Carlo para mensurar os valores econômicos estocásticos. Os resultados evidenciaram que, o momento ótimo para a substituição do conjunto de máquinas que compõe o modal de colheita florestal mecanizada ocorreu no ano 4 da vida útil. No sistema de árvores inteiras, o feller-buncher foi o implemento que apresentou o maior custo médio nas operações e o grapple skidder o menor custo médio. Os elementos de custos que mais impactaram as operações das máquinas autopro... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The whole-tree harvesting system is carried out by a set of self-propelled machines, demanding significant capital subsidies, which directly imposes costs upon mechanized forest harvesting. Under this perspective, it is essential to determine the economic life, this is, the moment when the machine performed its functions at lowest operating cost, therefore, at lowest production cost. Thus, the objective of this study was to determine the economic life of self-propelled machines, which compose a mechanized forest harvesting mode under uncertainty conditions, applying the Monte Carlo simulation method to determine the probabilities of the equivalent annual uniform cost values. As a premise, historical data were considered, regarding operating costs of self-propelled machines, with a view to building mathematical models, which associated uncertainty intervals and allowed to assign probability distributions. Subsequently, pseudorandom numbers were generated by the Monte Carlo simulation method, in order to measure stochastic economic values. The results showed that, the optimal time to replace the set of machines composing the mechanized forest harvesting mode occurred in the 4th year of its useful life. In the whole-tree system, the feller-buncher was the implement that presented the highest average cost in operations and the grapple skidder the lowest average cost. The cost elements that most affected the self-propelled machine operations stemmed from parts replacement, as well as repair and maintenance costs. Operations during the 5th year of useful life of the evaluated mode represented an increase of 18.33% in the average EAUC in relation to the obtained year of economic life. / Mestre
113

Otimização da medida Omega de um portfolio de ações com a utilização de opções sobre IBOVESPA

Kobayashi, Andre Takashi 17 August 2015 (has links)
Submitted by ANDRE KOBAYASHI (atkobayashi@gmail.com) on 2015-09-10T14:16:31Z No. of bitstreams: 1 dissertacao-mestrado.pdf: 2295051 bytes, checksum: 493dbe4f172f9322cf8aa11f4de670b3 (MD5) / Rejected by Renata de Souza Nascimento (renata.souza@fgv.br), reason: André, boa tarde A formatação de seu trabalho não está de acordo com as normas da ABNT. Segue abaixo o que deverá ser alterado: - Título: Se não houve solicitação para alteração do mesmo, deverá deixa-lo igual consta em ATA e protocolo: OTIMIZAÇÃO DA MEDIDA OMEGA DE UM PORTFOLIO DE AÇÕES COM A UTILIZAÇÃO DE OPÇÕES SOBRE IBOVESPA. - CAPA: Retirar a formatação em negrito e observar o tamanho da fonte que deve ser tamanho 12. - FICHA CATALOGRÁFICA: Esta é a ficha que você recebeu em seu e-mail? Geralmente consta um código numérico junto à CDU e na sua ficha consta pontos de interrogação (CDU ???). - RESUMO e ABSTRACT: Justificar o texto. Não deve constar espaços entre os parágrafos. Att. on 2015-09-10T19:55:05Z (GMT) / Submitted by ANDRE KOBAYASHI (atkobayashi@gmail.com) on 2015-09-11T15:43:57Z No. of bitstreams: 1 dissertacao-mestrado.pdf: 2296089 bytes, checksum: a64acd53b9b023aec617de2098d90a84 (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2015-09-11T17:31:41Z (GMT) No. of bitstreams: 1 dissertacao-mestrado.pdf: 2296089 bytes, checksum: a64acd53b9b023aec617de2098d90a84 (MD5) / Made available in DSpace on 2015-09-11T18:09:53Z (GMT). No. of bitstreams: 1 dissertacao-mestrado.pdf: 2296089 bytes, checksum: a64acd53b9b023aec617de2098d90a84 (MD5) Previous issue date: 2015-08-17 / The use of options in the financial market has gained importance because of its non-linear payoff and the ability to change the profile of the distribution of a portfolio returns. There are several strategies that are appropriate for each scenario the investor believes to be exposed, but as a set of scenarios forms a distribution of returns, we must use an appropriate measure to work with this type of information. Thus we used the Omega measure, which is a measure capable of capturing all moments of a distribution, given a threshold of returns. This study aims to develop a methodology that allows to optimize the Omega measure of a portfolio, through the use of options of IBOVESPA. To generate the distributions’ returns we used Monte Carlo simulation, with jumps and stochastic volatility. Finally, several analyzes were made on the results obtained in order to compare the optimal strategy with several random strategies, and also, a backtest to evaluate the effectiveness of the implementation of the optimized strategy. / O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.
114

Investigação sobre a variabilidade da resposta dinamica de paineis reforçados / Investigation on the dynamic response variability of reinforced panels

Albuquerque, Elson Lima de 29 August 2005 (has links)
Orientador: Jose Roberto de França Arruda / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-09-11T21:08:25Z (GMT). No. of bitstreams: 1 Albuquerque_ElsonLimade_M.pdf: 5441408 bytes, checksum: a2117bd817e2c8a2d88bf1324af63fd6 (MD5) Previous issue date: 2005 / Resumo: Neste trabalho de mestrado são investigadas as limitações do método dos elementos finitos na análise dinâmica de painéis reforçados. O painel foi modelado usando diferentes tipos de malha, mostrando que, dependendo do tamanho do elemento (ou número de graus de liberdade) usado na modelagem, o modelo não representa de uma maneira adequada a estrutura real. Para validar o modelo experimentalmente, foi construído um painel reforçado de alumínio e, através de métodos experimentais, foi feita uma análise modal. Os limites da modelagem pelo método dos elementos finitos, no que diz respeito às médias freqüências foram testados e comparados com resultados experimentais. Com a finalidade de reduzir o custo computacional, foi realizada uma comparação entre o método de elementos finitos e o método de elementos espectrais. Devido às incertezas de alguns parâmetros de entrada dos modelos, foram consideradas variações estatísticas em alguns parâmetros usando o Método de Monte Carlo e o Método da Superfície de Resposta. Os resultados mostraram que a partir de uma certa freqüência o método dos elementos finitos torna-se inviável devido ao alto custo computacional e que em altas freqüências o modelo dinâmico é sensível a pequenas variações nos parâmetros de entrada / Abstract: In this master's thesis work, finite element method limitations are investigated in the dynamic analysis of reinforced panels. The panel was modelled using different meshes in order to show that, depending on the element length (or the number of degree of freedom) used in the model, the model does not properly stand for the real structure. In order to assess experimentally the model, an aluminum reinforced panel was built and, through experimental methods, a modal analysis was carried out. The finite element modelling limits were tested and compared to experimental results regarding mid-frequencies. A comparison between finite element and spectral element methods was carried out for computational cost reduction purposes. Due to uncertainties of some model input parameters, a statistical variation was performed using Monte Carlo and Surface Response methods. Results have shown that, at high frequencies the finite element method is not appropriete for dynamic analysis due to high computational costs in high frequency and it is highly sensitive to small variations ofthe input parameters / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
115

Reconfiguração de sistemas de distribuição utilizando metaheurísticas e critérios de confiabilidade /

Cassula, Agnelo Marotta. January 2014 (has links)
Banca: Silvio Ikuyo Nabeta / Banca: José Aquiles Baesso Grimoni / Banca: Edson da Costa Bortoni / Banca: Oscar Armando Maldonado Astorga / Banca: Guilherme Eugênio Filippo Fernandes Filho / Resumo:Em um ambiente cada vez mais competitivo, as empresas de distribuição de energia elétrica devem satisfazer dois objetivos conflitantes: minimizar os custos de investimento e atender as metas de continuidade. A reconfiguração de sistemas de distribuição é uma técnica que se adapta a esse novo ambiente, pois permite a melhora de índices de confiabilidade apenas com a abertura e o fechamento de chaves, sem o ônus da aquisição de novos equipamentos. Devido à natureza de explosão combinatória do problema, na solução são empregados métodos metaheurísticos, que convergem para soluções ótimas ou quase ótimas, mas com um elevado esforço computacional. Como o objetivo principal deste trabalho é encontrar a(s) melhor(es) configuração(ões) do sistema de distribuição que apresentem os melhores índices de confiabilidade, a função objetivo utilizada para as metaheurísticas é minimizar o LOLC - Loss Of Load Cost (Custo da Perda de Carga), que está associado tanto com o número quanto a duração das interrupções de energia. Várias técnicas metaheurísticas são testadas, sendo que a Busca Tabu se mostrou a mais adequada para resolver o problema proposto. Para caracterizar computacionalmente o problema da reconfiguração das chaves foi desenvolvido um modelo vetorial (com números inteiros) da representação das chaves, onde cada chave normalmente aberta está associada a um grupo de chaves normalmente fechadas. Neste modelo foram introduzidas simplificações, para reduzir o tempo computacional, e restrições, para excluir soluções que não fornecem energia para algum ponto do sistema. Para verificar se existe violação nos critérios de tensão e carregamento é realizado um estudo de fluxo de potência para as dez melhores soluções encontradas ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In an ever more competitive environment, power distribution companies must satisfy two conflicting objectives: minimizing investment costs and the satisfaction of reliability targets. The network reconfiguration of a distribution system is a technique that well adapts to this new deregulated environment for it allows improvement of reliability indices only opening and closing switches, without the onus involved in acquiring new equipment. Due to combinatorial explosion problem characteristic, in the solution are employed metaheuristics methods, which converge to optimal or quasi-optimal solutions, but with a high computational effort. As the main objective of this work is to find the best configuration(s) of the distribution system with the best levels of reliability, the objective function used in the metaheuristics is to minimize the LOLC - Loss Of Load Cost, which is associated with both, number and duration of electric power interruptions. Several metaheuristics techniques are tested, and the tabu search has proven to be most appropriate to solve the proposed problem. To characterize computationally the problem of the switches reconfiguring was developed a vector model (with integers) of the representation of the switches, where each normally open switch is associated with a group of normally closed switches. In this model simplifications have been introduced to reduce computational time and restrictions were made to exclude solutions that do not supply energy to any load point of the system. To check violation of the voltage and loading criteria a study of power flow for the ten best solutions is performed. Also for the ten best solutions a reliability evaluation using Monte Carlo sequential simulation is performed, where it is possible to obtain the probability distributions of the indices and thus calculate the risk of ... (Complete abstract click eletronic access below)
116

MODELAGEM DE CRONOGRAMA DE PROJETO PELA FERRAMENTA DSM COM APOIO AO GERENCIAMENTO E TOMADA DE DECISÕES PELA SIMULAÇÃO DE MONTE CARLO

Centeno, Hugo Alexandre do Carmo 04 April 2018 (has links)
Submitted by admin tede (tede@pucgoias.edu.br) on 2018-05-14T19:00:50Z No. of bitstreams: 1 HUGO ALEXANDRE DO CARMO CENTENO.pdf: 1058068 bytes, checksum: 733a3144c0c1d4e70087e3a321855b0b (MD5) / Made available in DSpace on 2018-05-14T19:00:50Z (GMT). No. of bitstreams: 1 HUGO ALEXANDRE DO CARMO CENTENO.pdf: 1058068 bytes, checksum: 733a3144c0c1d4e70087e3a321855b0b (MD5) Previous issue date: 2018-04-04 / Delays in construction projects are a recurrent fact in several countries and regions for the most varied types of works. These delays, in addition to negatively impacting the image of companies contracted in the provision of construction services, cause several financial losses to interested parties: contractor and hired. Several researches that address the factors that lead to delays in the work schedule indicate the variation in the duration of the activities and, or the lack of an inadequate estimate for the duration of the activities, among the ten major delay factors in the projects. They contribute to the inadequate estimation of production of the activities, the lack of knowledge of the complexity of the activities, and also the lack or insufficiency of historical data that allow a safe estimate of the duration of the activities. Thus, this study aims to describe the behavior of variability in the duration of activities in an environment with little activity productivity data. The productivity data analyzed were taken from three similar construction projects carried out by the same company and which were provided as case studies of this work. For the analysis of the variability and description of the behavior of the activities, after the data collection of productivity of the project activities, the non-parametric Bootstrap data resampling associated with Monte Carlo Simulation (MCS) was used as techniques. Later, in order to verify the reliability of the results of variation in the duration of the activities, the schedule of the case studies was modeled using the Critical Path Method (CPM) and the Dependency Structure Matrix (DSM); and submitted to MCS. The simulated results of the total duration of the projects were adequate for the actual completion period of the projects studied, leading to the conclusion that the results of variation in the duration of the activities obtained by the cited technique are reliable. / Os atrasos em projetos de construção civil são um fato recorrente em diversos países e regiões para os mais variados tipos de obras. Esses atrasos, além de impactar negativamente a imagem das empresas contratadas na prestação de serviços de construção, acarretam diversos prejuízos financeiros às partes interessadas: contratante e contratado. Diversas pesquisas que abordam os fatores que acarretam em atrasos no cronograma de obras elencam a variação na duração das atividades e, ou, a falta de estimativa inadequada para duração das atividades, dentre os dez maiores fatores de atraso nos projetos. Contribuem para a inadequada estimativa de produção das atividades o desconhecimento da complexidade das mesmas e, também, a falta ou insuficiência de dados históricos que permitam estimar com segurança a duração das atividades. Assim, este trabalho visa descrever o comportamento de variabilidade na duração das atividades em um ambiente com poucos dados de produtividade das atividades. Os dados de produtividade analisados foram tomados de três projetos de construção civil semelhantes executados pela mesma empresa e que se prestaram como estudos de caso deste trabalho. Para análise da variabilidade e descrição do comportamento das atividades, após a coleta de dados de produtividade das atividades dos projetos, foram utilizadas como técnicas a reamostragem Bootstrap não paramétrica dos dados associada a Simulação de Monte Carlo (SMC). Posteriormente, para verificar a confiabilidade dos resultados de variação na duração das atividades, o cronograma dos estudos de caso foi modelado utilizando o Método do Caminho Crítico (CPM) e a Matriz de Estrutura de Dependência (DSM); e submetido a SMC. Os resultados simulados de duração total dos projetos mostraram-se adequados ao prazo real de conclusão dos projetos estudados, conduzindo à conclusão de que os resultados de variação na duração das atividades, obtidos pela técnica citada, são confiáveis.
117

Modelo multiobjetivo de análise envoltória de dados combinado com desenvolvimento de funções empíricas e otimização via simulação Monte Carlo /

Figueiredo, Marcelo Vilela. January 2017 (has links)
Orientador: Aneirson Francisco da Silva / Banca: Fernando Augusto Silva Marins / Banca: Rafael de Carvalho Miranda / Resumo: O controle de qualidade é um dos principais pilares para um bom rendimento de uma linha produtiva, visando garantir maior eficiência, eficácia e redução de custos de produção. A identificação de causas de defeitos e o controle das mesmas é uma atividade relativamente complexa, devido à infinidade de variáveis presentes em determinados processos. Na produção de itens à base de aço fundido, objetiva-se reduzir defeitos de fundição (rechupes, trincas, problemas dimensionais, entre outros), os quais podem ser ocasionados por diversas variáveis de processo, tais como: composição química do aço, temperatura de vazamento e propriedades mecânicas. Em virtude disso, o presente trabalho foi desenvolvido em uma indústria siderúrgica de grande porte, a qual atua na produção de componentes ferroviários e industriais. Por meio de sua extensa base de dados, foram avaliadas as eficiências dos produtos produzidos, sendo os mesmos denominados DMU (Decision Making Units). Para tal foi aplicada a BiO-MCDEA (Bi Objective Data Envelopment Analysis) em sete DMUs produzidas à base de aço fundido em função de 38 variáveis de processos. Nesta aplicação foram evidenciadas as variáveis de processos (input/output) influentes na determinação da eficiência das DMUs. Uma vez obtidos tais resultados, foram desenvolvidas funções empíricas para as variáveis respostas em função das variáveis de processos influentes por meio de regressão não-linear múltipla. Por fim foi realizada a Otimização via Simulação ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Quality control is one of the pillars to guaranty a good yield on a production line, aiming to reach better efficiency, effectiveness and reduction of production costs. The identification of defects causes and its control is an activity relatively complex, due to the infinity of variables on some process. One of the most important objectives on a Steel Castings Parts production is to reduce castings defects (shrinkage, cracks, dimensional problems, etc.), that can be caused by several process variables, such asChemical Composition, Pouring Temperature and Mechanical Properties. Due to the mentioned explanations, this study was developed at a large steel industry, which produces rail and industrial parts. The efficiency of the produced parts, called DMU (Decision Making Units), was analyzed through an extensive data base. It was done by using BiO-MCDEA (Bi Objective Data Envelopment Analysis) on seven DMUs, which are steel casting parts, in function of 38 process variables. Additionally, the process variables influents on the DMU's efficiency determination were evidenced through the mentioned implementation. Once those results were obtained, empirical functions were developed for the response variables in function of the influents process variables through multiple non-linear regression. Finally an optimization via Monte Carlo Simulation was implemented in order to determine the inputs values necessary to optimize the empirical functions. The achieved results were satisfactory... (Complete abstract click electronic access below) / Mestre
118

The effect of default risk on trading book capital requirements for public equities: an irc application for the Brazilian market

Rodrigues, Matheus Pimentel 17 August 2015 (has links)
Submitted by Matheus Pimentel Rodrigues (mth3u5@gmail.com) on 2015-09-14T12:04:09Z No. of bitstreams: 1 Dissertação_Matheus_Pimentel_Rodrigues.pdf: 17000006 bytes, checksum: e2e4830bacdedb9b50b9f80a8638df3f (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2015-09-14T16:30:12Z (GMT) No. of bitstreams: 1 Dissertação_Matheus_Pimentel_Rodrigues.pdf: 17000006 bytes, checksum: e2e4830bacdedb9b50b9f80a8638df3f (MD5) / Made available in DSpace on 2015-09-14T19:08:49Z (GMT). No. of bitstreams: 1 Dissertação_Matheus_Pimentel_Rodrigues.pdf: 17000006 bytes, checksum: e2e4830bacdedb9b50b9f80a8638df3f (MD5) Previous issue date: 2015-08-17 / This is one of the first works to address the issue of evaluating the effect of default for capital allocation in the trading book, in the case of public equities. And more specifically, in the Brazilian Market. This problem emerged because of recent crisis, which increased the need for regulators to impose more allocation in banking operations. For this reason, the BIS committee, recently introduce a new measure of risk, the Incremental Risk Charge. This measure of risk, is basically a one year value-at-risk, with a 99.9% confidence level. The IRC intends to measure the effects of credit rating migrations and default, which may occur with instruments in the trading book. In this dissertation, the IRC was adapted for the equities case, by not considering the effect of credit rating migrations. For that reason, the more adequate choice of model to evaluate credit risk was the Moody’s KMV, which is based in the Merton model. This model was used to calculate the PD for the issuers used as case tests. After, calculating the issuer’s PD, I simulated the returns with a Monte Carlo after using a PCA. This approach permitted to obtain the correlated returns for simulating the portfolio loss. In our case, since we are dealing with stocks, the LGD was held constant and its value based in the BIS documentation. The obtained results for the adapted IRC were compared with a 252-day VaR, with a 99% confidence level. This permitted to conclude the relevance of the IRC measure, which was in the same scale of a 252-day VaR. Additionally, the adapted IRC was capable to anticipate default events. All result were based in portfolios composed by Ibovespa index stocks. / Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.
119

The equity premium puzzle: um estudo de viés de seleção dos ativos

Kira, Guilherme 15 March 2016 (has links)
Submitted by Guilherme Kira (guilhermekira@gmail.com) on 2016-04-19T16:30:44Z No. of bitstreams: 1 projeto.pdf: 1158587 bytes, checksum: b952667990d1a0e3dd53069e408c1769 (MD5) / Approved for entry into archive by BRUNA BARROS (bruna.barros@fgv.br) on 2016-04-26T13:25:13Z (GMT) No. of bitstreams: 1 projeto.pdf: 1158587 bytes, checksum: b952667990d1a0e3dd53069e408c1769 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2016-04-27T18:01:53Z (GMT) No. of bitstreams: 1 projeto.pdf: 1158587 bytes, checksum: b952667990d1a0e3dd53069e408c1769 (MD5) / Made available in DSpace on 2016-04-27T18:06:34Z (GMT). No. of bitstreams: 1 projeto.pdf: 1158587 bytes, checksum: b952667990d1a0e3dd53069e408c1769 (MD5) Previous issue date: 2016-03-15 / As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.
120

Estudo conformacional de polianfóteros fracos utilizando simulações de Monte Carlo /

Valle, Rafael Musa Lyrio do. January 2012 (has links)
Orientador: Sidney Jurado de Carvalho / Banca: Antonio Caliri / Banca: Jorge Chahine / Resumo: Neste trabalho utilizamos simulações de Monte Carlo para estudar as propriedades elétricas e conformacionais de polianfóteros fracos, investigando o efeito da estrutura primária, do pH da solução da valência dos contraíons. O polímero foi representado por um conjunto de esferas rígidas conectadas por um potencial harmônico (modelo bead-spring ) e os contraíons da solução, de valência 1, 2 e 3, foram tratados de maneira explícita segundo o modelo primitivo restrito. Todo o sistema foi confinado em uma célula esférica com o polímero fixado em seu centro. Dentre as análises de propriedades elétricas do polianfótero, foi observado que a fração de grupos básicos protonados se aproxima do caso ideal com o aumento da valência dos contraíons, para todas as sequências primárias estudadas. Diferentemente do que ocorre para homopolímeros carregados, nos quais os efeitos de correlação entre contraíons multivalentes provocam alta compactação da cadeia, o raio de giração de polienfóteros com contra ons trivalentes se mostrou muito próximo de cadeias (self-avoiding walk ). Em relação ao efeito da sequência primária, cadeias com baixa carga líquida apresentaram maior compactação nos casos de distribuição de monômero com menor número de blocos, assim como já previsto na literatura utilizando eletrólito implícito através da teoria de Debye-Hückel. A medida que aumentamos o valor de pH, o polinafótero ca carregado e conformações globulares não são mais observadas. Nestas condições, verificamos a formação de estruturas conhecidas como tadpoles apenas utilizando contraíons monovalente. Em nossa análise de Scaling, os valores conhecidos na literatura para o índice v da relação Rg ~ N vm foram obtidos para os casos Alternado (caso SAW) e Dibloco (caso globular) em regimes de pH nos quais a macromolécula está neutra apenas considerando diluição infinita / Abstract: In this work we use the Monte Carlo simulations to study conformational and electrical properties of weak Polyampholytes and investigate the e ect of the primary structure, pH and the valency of the counterion on these conformations. The polymer was represented by a set of rigid spheres connected by a harmonic potential (bead-spring model) and the counterions of the solution of valency 1, 2 and 3 were treated explicitly according to the restricted primitive model. The system was enclosed in a spherical cell with the polymer set at its center. Among the analysis of electrical properties of the polyampholyte, it was observed that the fraction of protonated basic groups approaches the ideal case with the increase in valency of the counterion for all the primary sequence studied. Di erently from what occurs for homopolymers, in which the e ects of correlation between multivalent counterions cause high compression of the chain, the radius of gyration of polyampholytes considering trivalent counterions is very close to those obtained for Gaussian chains with excluded volume interaction (Self-Avoiding Walk ). Regarding the e ect of primary sequence, chains with low net charge showed higher compression in cases of fewer blocks monomers distribution, as already provided in previous work using implicit counterions by the Debye-Huckel theory. As the pH increased, the polyampholyte has a net charge and globular conformations are no longer observed. Accordingly, we observed the formation of structures known as tadpoles using monovalent counterions. In our analysis of Scaling, the known values for the index (in Rg N m) were obtained for Alternating case (SAW) and Diblock case (globular) in pH regimes in which the macromolecule has no net charge and only considering in nite dilution / Mestre

Page generated in 0.0538 seconds