211 |
Análise dinâmica elasto-plástica de estruturas metálicas sob excitação aleatória de vento. / Elastic-plastic dynamic analysis of steel structures under random vibrations excited by the wind.Estevão Carcioffi Lazanha 30 January 2003 (has links)
Este trabalho de pesquisa apresenta um modelo numérico para a análise de estruturas planas sob excitação aleatória induzida pelo vento. O comportamento não-linear da estrutura é considerado adotando-se um modelo constitutivo elasto-plástico para o material, aço estrutural. Os elementos das estruturas estudadas estão sujeitos ao surgimento e desaparecimento de rótulas plásticas, levando a um dimensionamento mais econômico. O conhecimento a respeito de vibrações aleatórias de estruturas lineares encontra-se estabelecido. Por outro lado, poucos resultados encontram-se disponíveis para o caso não linear considerado. Para a simulação de vibrações aleatórias uma análise de Monte Carlo é utilizada. Uma função de densidade espectral de potência das velocidades do vento é usada para gerar um certo número de funções harmônicas de carregamento. Os ângulos de fases destes harmônicos são gerados por um algoritmo pseudo-aleatório. Para cada função de carregamento realiza-se uma integração direta no tempo pelo método de Newmark. A grande quantidade de dados de resposta é tratada estatisticamente de modo a permitir a obtenção de conclusões, a respeito da possibilidade de ocorrência de eventos desfavoráveis, do ponto de vista da engenharia. / This work presents a numerical model to analyze structures under random dynamic excitation induced by the wind. The structure is considered to have nonlinear behavior due to the elastic-plastic constitutive law adopted for the material, structural steel. The members of the studied structures may experience formation or disappearance of plastic hinges, leading to a more economic design. Random vibrations of linear structures is a well established subject. On the other hand, very few results are available for the nonlinear case as the one considered. To simulate random vibrations a Monte Carlo type analysis is used. A power spectral density function for wind velocity is used to generate a large number of harmonic input functions. Their phase angles are generated via a pseudo-random algorithm. Numerical time integration using Newmarks method is performed for each input function. The large amount of response data obtained is statistically treated to allow for useful engineering conclusions on the probability of occurrence of unfavorable events.
|
212 |
Algoritmo de tomografia por impedância elétrica baseado em Simulated Annealing. / Electrical impedance tomography algorithm using Simulated Annealing as a search method.Claudia Natalia Lara Herrera 14 November 2007 (has links)
A Tomografia por Impedância Elétrica (TIE) é uma técnica não invasiva usada para produzir imagens que representam a distribuição de resistividade, ou condutividade, de uma seção transversal dentro de um domínio, por vezes o tórax humano, a partir do conhecimento de medidas elétricas feitas através de eletrodos distribuídos na sua fronteira. Correntes injetam-se e medem-se voltagens ou vice-versa. Distribuição de variação de resistividade ou distribuição de valor absoluto de resistividade podem ser estimadas, gerando algoritmos ditos de diferenças ou absolutos. O presente trabalho avalia o desempenho de um algoritmo probabilístico baseado no método Simulated Annealing (SA) para obter distribuições absolutas de resistividade em duas dimensões (2D). O SA difere dos métodos tradicionais de busca, tem a capacidade de escapar de mínimos locais graças ao emprego do critério de Metropolis para a aceitação dos novos pontos no espaço de busca e não precisa da avaliação de derivadas da função objetivo. O algoritmo desenvolvido soluciona o problema inverso da TIE ao resolver iterativamente um problema direto, utilizando distribuições de resistividade obtidas por sorteio aleatório. O sorteio é realizado pelo algoritmo de Metropolis. Na ausência de regularizações, assume-se que a imagem sorteada que minimiza a diferença entre as voltagens medidas na fronteira do domínio e as calculadas é a que mais se aproxima da distribuição de resistividade real. Neste sentido, a imagem final maximiza a verossemelhança. Este trabalho contribui com o desenvolvimento de algoritmos para estimação de imagem aplicados para monitorar a ventilação mecânica dos pulmões. Uma vez que se pretende resolver um problema inverso, não-linear e mal-posto é necessário introduzir informação a priori, na forma de restrições do espaço solução ou de regularizações. São realizados ensaios com dados simulados por meio de um fantoma numérico, dados de bancada experimental e dados provenientes de um tórax humano. Os resultados mostram que a localização, o tamanho e a resistividade do objeto estão dentro da precisão da TIE obtida por métodos clássicos, mas o esforço computacional é grande. Verificam-se, assim, as vantagens e a viabilidade do algoritmo proposto. / The Electrical Impedance Tomography (EIT) is a non-invasive technique used to produce images that represent the cross-sectional electrical resistivity distribution, or conductivity, within a domain, for instance the human thorax, from electrical measurements made through electrodes distributed on its boundary. Currents are injected and voltages measured, or vice-versa. Distributions of resistivity variations or distributions of absolute resistivity can be estimated, producing difference or absolute algorithms. The present work develops and evaluates the performance of a probabilistic algorithm based on the Simulated Annealing method (SA) to obtain absolute resistivity distributions in two dimensions (2D). The SA differs from the traditional search methods, no evaluation of objective function derivatives is required and it is possible to escape from local minima through the use of the Metropolis criterion for acceptance of new points in the search space. The developed algorithm solves the inverse problem of EIT by solving iteratively a direct problem, using random resistivity distributions. The random search is accomplished by the Metropolis algorithm. In the absence of regularizations, it is assumed that the resistivity distribution, an image, that minimizes the difference between the measured electrical potentials on the boundary and computed electrical potentials is the closest to the real resistivity distribution. In this sense, the algorithm maximizes the likelihood. This work contributes to the development of image estimation algorithms applied to lung monitoring, for instance, during mechanical ventilation. To solve this non-linear ill-posed inverse problem it is necessary to introduce prior information in the form of restrictions of the solution space or regularization techniques. The tests are carried out using simulated data obtained from a numerical phantom, an experimental phantom and human thorax data. The results show that the localization of an object, the size of an object and the resistivity of an object are within the accuracy of EIT obtained by classical methods, but the computational effort is large. The advantages and feasibility of the proposed algorithm were investigated.
|
213 |
Um modelo integrado de simulação-otimização para suporte ao planejamento e à análise de um negócio de aeronaves de propriedade compartilhada. / An integrated simulation-optimization model for supporting planning and analisys of a fractional aircraft ownership business.Juliana da Serra Costa Lopes 05 May 2011 (has links)
Esta pesquisa aborda o problema de alocação de jatos executivos compartilhados para casos em que a demanda diária é variável. É proposta uma ferramenta auxiliar de planejamento de uma empresa de operação de jatos compartilhados. São apresentadas as características principais do tipo de negócio que formam o problema estudado neste trabalho. Consideram-se os aspectos de uma empresa que administra jatos de propriedade compartilhada. O cliente adquire uma cota de uma aeronave e quando solicita uma viagem, com poucas horas de antecedência, a empresa deve garantir a realização do voo em uma aeronave da categoria adquirida. Também é de responsabilidade da empresa a gestão da tripulação, o reposicionamento da frota e a manutenção das aeronaves Este trabalho apresenta o desenvolvimento de uma ferramenta para auxiliar na tomada de decisões estratégicas que envolvem a escolha dos locais de base de operação e o dimensionamento da frota. A metodologia de solução é composta de um modelo de simulação e um de otimização. O modelo de simulação utiliza o método de Monte Carlo para obtenção da demanda de voos dia a dia que gera uma programação de clientes a atender. Os dados da simulação são então estruturados como um problema de fluxo em rede de mínimo custo e é realizada a alocação ótima das aeronaves. A ferramenta foi construída em ambiente de planilha eletrônica Microsoft Excel e aplicada em um caso prático de jatos executivos compartilhados com múltiplas bases. Foram testadas diversas configurações de bases e políticas operacionais como frota homogênea, frota heterogênea e frota alugada. Os resultados da ferramenta permitem determinar o impacto que a escolha das bases de operação tem no tamanho da frota e no reposicionamento de aeronaves. A metodologia mostrou-se robusta e, em tempo adequado, a ferramenta encontrou a solução ótima para cada configuração testada. / This research deals with the problem of scheduling jets with fractional ownership in cases where the demand varies daily. It has been devised a tool to support the planning phase of a company that operates shared jets. The main characteristics of the fractional shared market are presented in this manuscript and the research was developed under the point of view of a provider of fractional ownership. A client becomes a partial owner of an aircraft of a specific model and is entitled to a certain amount of flight hours. When the client requests a flight, usually only a few hours ahead, the fractional provider must guarantee that an aircraft of the requested model is available to the owner at the requested time and place. The provider is responsible for all the operational considerations, including managing the crew and having a well-maintained fleet. This work presents the development of a tool to help making decisions involving the choice of the operational bases and the size of the fleet. The solution methodology is composed of a simulation and a optimization model. Monte Carlo simulation is the method used to obtain the daily flight demand. The results of the simulation are structured as a minimum cost network flow problem to solve optimally the fleet allocation. This tool has been built in a Microsoft Excel spreadsheet environment and applied to a case of fractional jets with multiple bases. Several configurations and operational policies have been tested, such as operations with homogenous fleet, with heterogeneous fleet and with rented fleet. The results provided by the tool allow the user to evaluate the impact that the choice of the operational bases has on the size of the fleet and on the redeployment of the aircrafts. The methodology presented itself as adequate and the developed tool was able to solve optimally, in acceptable time, the problem for each case.
|
214 |
Comparação de modelos com censura intervalar em análise de sobrevivência / Comparison of interval-censored models in survival analysisElizabeth Strapasson 20 April 2007 (has links)
Censura intervalar resulta quando os tempos de sobrevivência não são exatamente conhecidos, sabe-se apenas que eles ocorreram dentro de um intervalo. Dados de sobrevivência agrupados são casos particulares de censura intervalar quando os indivíduos são avaliados nos mesmos intervalos de tempo, ocasionando um grande número de empates. Um procedimento comum para a análise desse tipo de dados é ignorar a natureza de censura intervalar dos dados, ou seja, tratar a variável aleatória tempo como contínua e assumir que o evento ocorreu no início, no ponto médio ou no final do intervalo e, então, usar um método padrão de análise de sobrevivência. Neste estudo, simulações de Monte Carlo, com o modelo de Weibull, foram realizadas para comparar esses três procedimentos e um método novo proposto que é uma combinação desses três métodos e é orientado pela observação do histograma do tempo versus a freqüência de cada intervalo para a decisão de qual valor a ser usado. Considera-se também a análise dos dados como censura intervalar. Os resultados mostram que analisar os dados exatamente como censura intervalar é a forma correta. Entretanto, quando a taxa de falha aumenta o ponto médio poderia ser usado. A natureza discreta dos tempos de falha deve ser reconhecida quando existe um grande número de empates. Métodos de regressão para tratar dados agrupados são apresentados por Lawless (2003) e Collett (2003), cuja estrutura é especificada em termos da probabilidade de um indivíduo falhar em um intervalo, condicionada à sua sobrevivência ao intervalo anterior. Os modelos considerados na literatura são o de riscos proporcionais de Cox ou o logístico. O modelo de Weibull é proposto, neste trabalho, como uma alternativa ao modelo de Cox para ajustar dados de sobrevivência com censura intervalar no contexto de modelos discretos. Através de simulações foram construídas as estatísticas da razão de verossimilhança e do teste escore para a discriminação entre esses dois modelos. Para ilustrar as simulações duas aplicações em dados agronômicos foram utilizadas. / Interval-censored results when survival times are not exactly known, knowing only that they occur in an interval. Grouped survival data are particular cases of intervalcensored when individuals are evaluated in the same time-intervals, causing a great number of ties. A common procedure for the analysis this type of data is to ignore the nature of interval-censored data, or rather, treat the random variable time as continuous, and assume that the event occurred in the beginning, midpoint or interval end, and then use a standard method of survival analysis. In this study, Monte Carlo simulations according to Weibull model, were performed in order to compare these three procedures and a new method proposed which is a combination of the three, and is directed by the observation of time histogram versus each interval frequency in order to decide which value be used. Interval-censored data is also considered. The results show that to analyse the data exactly as interval-censored is the correct form. However, when the failure rate increase the midpoint could be used. The discrete nature of failure time must be recognized when there are a great number of ties. Regression methods to treat grouped data are presented by Lawless (2003) and Collett (2003), whose structure is specified in terms of the probability of an individual failing in an interval, conditioned to his survival to previous interval. The models considered in literature are either those of Cox proportional hazards or the logistic one. Weibull model is proposed in this study as an alternative to Cox model in order to adjust survival data with interval-censored in the context of discrete models. Through simulations were built the statistics of ratio likelihood and score test to distinguish between these two models. To illustrate the simulations two applications in agronomy data were used.
|
215 |
Confiabilidade estrutural de pontes laminadas protendidas de madeira / Structural reliability of stress laminated timber bridgesMalton Lindquist 11 December 2006 (has links)
O conceito de tabuleiros laminados de madeira protendidos transversalmente foi usado inicialmente no Canadá na década de 70. Desde então, foi largamente utilizado em um número crescente de países. No Brasil, esse sistema foi utilizado pela primeira vez com a construção da ponte sobre o rio Monjolinho, na região metropolitana de São Carlos, estado de São Paulo. A importância deste sistema estrutural requer um maior conhecimento de sua segurança estrutural. Assim, este trabalho teve como objetivo estudar a confiabilidade estrutural de pontes protendidas de madeira, com enfoque na resistência da estrutura à flexão transversal. As pontes foram dimensionadas através de três métodos, o de Ritter, Eurocode e OTB, sendo os dois primeiros conhecidos na literatura e o último baseado na solicitação encontrada através de um software de análise de placas ortotrópicas, OTB. Para obter índices de confiabilidade foi utilizado o método FORM, e o método de Monte Carlo para simular a utilização das fórmulas de obtenção de resistências características sugeridas na NBR 7190:1997 e DIN 68364. Os resultados indicaram que o sistema estrutural é confiável dentro do modo de falha estudado. / Stress laminated timber bridges were first built in Canadá in the seventies. Since then, this kind of structure has been increasingly used in many countries. In Brazil, this structure was first designed in the bridge over Monjolinho stream, in São Carlos, São Paulo state. The importance of this system requires a better knowledge about its structural safety. Therefore, the aim of this work is to research the structural reliability of stress laminated timber bridges, with special focus on transversal bending strength. Bridges were designed by three methods: Ritter, Eurocode and OTB. Ritter and Eurocode are well known design methods. OTB is based on an ortotropic timber bridges analysis software. In order to obtain reliability results, FORM method was used. Monte Carlo method was also considered to simulate characteristic values outputs by brazilian code, NBR 7190:1997, and german code, DIN 68364. Results indicate that the structure os reliable for the limit state studied.
|
216 |
Aplicação do método de simulação monte carlo ao estudo dos mecanismos de cura co-reativa de resinas epóxi com anidridos dicarboxilicos em presença de amina terciáriaFerrão, Marco Flôres January 1992 (has links)
O sistema aqui estudado é modelado para uma rede quadrada bidimensional com condições de contorno periódicas, e as moléculas , após serem aleatoriamente distribuídas nesta rede são movimentadas por translação/redefinição sendo o processo reticulação similar a agregação de clusters. Como tema deste trabalho tem-se o estudo da influência na dinâmica da agregação através dos mecanismos de cura aqui modelados. Para sua efetivação foram desenvolvidos quatro modelos através de diferentes mecanismos com os quais alguns aspectos de estrutura da cinética e dinâmica da agregação e dos agregados formados são comparados. Os resultados nos permitem inferir sobre o comportamento dos próprios mecanismo a coerência interna a cada um deles, bem como da especifidade da agregação em duas dimensões. / The aim Df this work is to use the Monte Carlo method in order to simulate a network formation processo Here we focus on the curing Df 1,4 - butanedioldiglicidyl ether with cis- 1,2-cyclohexanedicarboxylic anhydride in presence Df the tertiary amine. The system is modeled in two dimensional square lattice with periodic boundary conditions, and the molecules, after the randon placement, are moved cluster-cluster aggregation. The aim Df this work aspects Df the aggregation acording is to in a way similar to a to study the dynamical the reaction mechanisms used in this simulation. Four differents simulations models are developed and studied with respect to structural, kinetic and dynamical aspects of the aggregation process and the behavior Df the aggregates.
|
217 |
Análise do impacto corporativo de riscos a partir de um modelo de gestão de riscos orientado a ambientes inovadoresEtges, Ana Paula Beck da Silva January 2015 (has links)
Empresas orientadas à inovação são submetidas a inúmeras incertezas e riscos. Porém, modelos de Gestão de Riscos que mensurem resultados econômicos e financeiros em ambientes inovadores ainda são escassos na literatura e no âmbito prático. Influenciada por esse contexto, esta dissertação propõe, testa e valida um modelo de Gestão de Riscos em processos de inovação que permite mensurar indicadores econômicos de impacto de riscos. A partir destes, discute-se o efeito dos riscos identificados a partir do processo de inovação na gestão corporativa da empresa. Para isso, estruturou-se a pesquisa em três etapas: (i) identificação dos principais eventos de risco inerentes ao ambiente inovativo, através de uma Revisão Sistemática da literatura, seguida de uma pesquisa empírica com empresas de Parques Tecnológicos brasileiros; (ii) proposição de modelo protótipo de Gestão de Riscos orientado a processos inovadores elaborado a partir das principais técnicas de análise e identificação de risco utilizadas em processos de inovação, identificadas através de Revisão Sistemática da literatura; e (iii) teste e validação do modelo protótipo em um ambiente real através da realização de um Estudo de Caso em uma empresa com estratégia inovadora instalada em um Parque Tecnológico brasileiro, permitindo a discussão do impacto corporativo dos riscos analisados a partir do processo de inovação. Entre as ferramentas que embasam o modelo, destaca-se o uso da análise probabilística de riscos, através da Simulação de Monte Carlo, relacionada ao custo do processo de inovação, calculado a partir do método ABC de custeio. Entre as principais contribuições acadêmicas deste trabalho tem-se: a sugestão de um indicador econômico, traduzido através do Value at Risk, para o processo de inovação em uma empresa, o que ainda é escasso na literatura; e a consolidação dos principais eventos de risco inerentes ao ambiente inovativo. No que diz respeito à contribuição ao meio prático, o modelo proposto indica ferramentas modulares e sequenciais para que empresários possam replicá-lo em diferentes situações. / Companies with innovation-oriented strategy are subject to uncertainties and risks, which lack the management practices for the use of quantitative indicators and especially in currency format. In this sense, risk management models that measure economic and financial results in innovative environments are still scarce in the literature and the practical field. Influenced by this context, this work proposes, tests and validates a risk management model oriented to innovation processes that allows us to measure economic indicators of risk impact. From these, is discussed the effect that the risks identified from the innovation process refer to the corporate management of the company. To achieve this result, structured the analysis in three steps: (i) identification of major risk events that are tangent innovative environment through a systematic literature review, followed by a survey of Brazilian Technology Parks companies; (ii) search for the main techniques of analysis and identification of risk used in innovation processes, from a systematic literature review and prototype model proposition risk management oriented innovative processes; and (iii) testing and validation of the prototype model in a real environment with innovative strategy -company installed in a Brazilian-Technology Park, by conducting a Case Study, allowing discussion of the business impact that the risks analyzed from the process innovation refer. Among the tools that support the model, there is the use of probabilistic risk analysis through Monte Carlo simulation related to the cost of the innovation process, calculated from the implementation of Activity-based Costing method. Contributes academically by the suggestion of an economic indicator, translated through the Value at Risk, to the process of innovation in a company, which is still scarce in the literature. With regard to the contribution to the practical environment, the model indicates sequential modules and tools for businesses it can replicate in different environments.
|
218 |
A técnica de análise de risco econômico aplicada a diferentes cenários de investimentos : minas de elementos terras raras : reciclagem de rejeitos de material de demolição e construção civilPetter, Renato Aurelio January 2015 (has links)
As incertezas nos campos da política, economia e meio ambiente, bem como a rápida evolução social e tecnológica que afetam a humanidade levam a construção de modelos de previsão teóricos cada vez mais complexos. Entre as técnicas mais necessárias encontra-se a de análise de riscos. Dificilmente modelos determinísticos podem atender as necessidades estratégicas e técnicas de governos, organizações não governamentais e empresas. As distintas áreas do conhecimento desenvolveram ferramentas que permitem gerenciar melhor os riscos intrínsecos de suas atividades. São desde planilhas que quantificam consequências e frequência de perder-se algo de valor (risco), até sofisticados modelos de simulação que se baseiam em amostragem aleatórias massivas nas distribuições que melhor representem os fenômenos estudados. Esta dissertação aplica técnicas de análise de riscos a dois casos de interesse das áreas de metalurgia extrativa e tecnologia mineral, que são a avaliação técnico econômica de jazidas de elementos terras raras (ETRs) e a reciclagem de materiais de construção civil e demolição (RC&D). Para o primeiro caso de análise de investimentos, jazidas de terras raras, tentou-se respeitar ao máximo as informações técnicas publicadas pelos detentores dos direitos minerais. Adicionalmente inclui-se o valor agregado por avançar na cadeia produtiva dos ETR, através da análise da fabricação dos imãs permanentes (Um exemplo para um depósito). Via simulações de Monte Carlo foram obtidos os intervalos de valores que as jazidas podem alcançar (valor presente líquido do ativo), suas probabilidades de perda e os montantes máximos e mínimos de lucro ou prejuízo. Fica claro que a minas que tem operação constituída e podem ter os elementos terras raras como subprodutos, irão partir com uma grande vantagem competitiva sobre as que deverão investir pesadamente na abertura de novas minas. Para o segundo caso de análise, a reciclagem de materiais de construção e demolição (RC&D), foram comparados diferentes tamanhos de planta e opções tecnológicas, através do uso de modelagem econômica e de análise de riscos. Como resultado observa-se que as plantas tecnologicamente mais avançadas perdem por pouco em termos de rentabilidade e risco para as convencionais, entretanto o tamanho da planta, como de usual, é a variável que mais influência na rentabilidade e redução de riscos da ventura. / Uncertainties in the fields of politics, economic, environmental and the fast social and technological developments that affect humanity lead to construction of theoretical prevision models increasingly complex. Among the most necessary techniques is the risk analysis. It is difficult for deterministic models to meet the strategic and technical needs of governments, NGOs and companies. Different areas of knowledge-developed tools that enable better manage the risks inherent in its activities. They are from spreadsheets that quantify impact and frequency of getting lost something of value (risk), to sophisticated simulation models based on random sampling in massive distributions that best represent the studied phenomena. This dissertation applies risk analysis techniques to two cases of interest extractive metallurgy and mineral technology areas, which are the economic technical evaluation deposits of rare earth elements (REE) and the recycling of construction and demolition materials. (C&DW). For the first case of investment, analysis for rare earth deposits tried to respect the most of the technical information published by holders of mineral rights. Additionally was included the benefit for advancing the productive chain of the REE, by analyzing the production of permanent magnets (example for one deposit). Via Monte Carlo, simulations was obtained ranges of values that the deposits can reach (asset net present value), its probability of losses and the maximum and minimum amounts of profit or losses. It is clear that a mine currently in operation that will produce ETRs as by-products will have competitive advantage over those who need to invest heavily to open new mines. For the second case analysis recycling construction and demolition materials (C&DW), the options compared for different plant sizes and technological choices, by using economic modeling and risk analysis. As result, it was shown that the technologically most advanced plants lose narrowly in terms of profitability and risk for conventional, size of the plant, as usual, is the variable that most influences venture´s profitabilities and risk reduction.
|
219 |
Modelo econômico-probabilístico para seleção e priorização de projetos / Economic-probabilistic model for projects selection and priorizationDutra, Camila Costa January 2012 (has links)
O presente trabalho tem como objetivo principal o desenvolvimento e apresentação de um modelo econômico-probabilístico para seleção e priorização de projetos. O modelo proposto utiliza 38 critérios, contempla interdependências entre projetos e permite quantificar os investimentos, benefícios e incertezas associadas, fornecendo uma análise abrangente dos retornos esperados para os projetos. O trabalho realizado envolveu cinco etapas principais: (i) identificar e selecionar os principais critérios de avaliação e seleção de projetos; (ii) identificar os principais métodos utilizados na seleção e priorização de projetos; (iii) integrar os critérios selecionados com um método de seleção e priorização de projetos em um modelo capaz de avaliar o retorno econômico e o impacto das incertezas envolvidas no resultado de cada projeto; (iv) aprimorar o modelo validado para que seja capaz de identificar interdependência entre os projetos do portfólio; e (v) testar e validar parcialmente o modelo ampliado através da aplicação na realidade de empresas. A principal contribuição desta tese é a proposição de um modelo que combina métodos econômicos e probabilísticos, seguindo procedimentos relativamente simples, mas capazes de considerar incertezas e interdependências entre projetos. O modelo proposto avalia aspectos qualitativos e quantitativos e utiliza simulação de Monte Carlo e Programação Matemática. Do ponto de vista prático, a importância desta tese reside no fato de métodos econômicos serem considerados mais amigáveis aos tomadores de decisão, uma vez que o seu procedimento é transparente e o resultado financeiro é claro para todos os envolvidos. Paralelamente, o procedimento probabilístico permite qualificar a informação disponibilizada aos tomadores de decisão uma vez que é possível entender a extensão da incerteza associada aos critérios utilizados na tomada de decisão. / This study's main objective is to develop and present an economic-probabilistic model for projects selection and prioritization. The proposed model uses 38 criteria, contemplates the interdependencies among projects and allows the quantification of benefits, investments and associated uncertainties, providing a comprehensive analysis of expected returns for the projects. The work was conducted comprising five main stages: (i) identify and select the main criteria for projects selection and evaluation; (ii) identify the main methods used in projects selection and prioritization; (iii) integrating the selected criteria to a project selection and prioritization method in a model capable of evaluating the economic returns and the impact of the uncertainties involved in the outcome of each project; (iv) improve the model to be able to identify interdependencies among projects in the portfolio, and (v) test and partially validate the extended model by application to the reality of companies. The main contribution of this thesis is the proposition of a model that combines economic and probabilistic methods, following relatively simple procedures, but able to account for interdependencies and uncertainty among projects. The proposed model evaluates qualitative and quantitative aspects and uses Monte Carlo simulation and Linear Programming. From a practical standpoint, the importance of this thesis lies in the fact that economic methods are considered more friendly to decision makers, since its procedure is transparent and the bottom line is clear to all involved. Moreover, the probabilistic procedure allows to qualify the information available to decision makers since it is possible to understand the extent of uncertainty associated with the criteria used in decision making.
|
220 |
Vórtices e partículas de Yukawa em um potencial de confinamentoGirotto, Matheus January 2014 (has links)
O objetivo da presente dissertação é, primeiramente, desenvolver uma teoria de campo médio para vórtices em um filme supercondutor do tipo II submetidos a um potencial de confinamento harmônico. Desse modo se obtém o perfil de densidade do sistema. Os resultados teóricos são comparados com simulações de Dinâmica Molecular. Se verifica que no regime de acoplamento fraco - altas temperaturas - a teoria descreve perfeitamente a distribuição de partículas do sistema. No regime de acoplamento forte - baixas temperaturas - a teoria falha progressivamente, pois as correlações entre as partículas começam a ter importância na descrição do sistema. No entanto, isso não acarreta em uma falha da mecânica estatística de Boltzmann-Gibbs, ao contrário do que recentes trabalhos sugerem. Em regimes de acoplamento forte são feitas simulações de Monte Carlo baseadas na distribuição de energias de Boltzmann e no algoritmo de Metropolis e simulações de Dinâmica Molecular. Ambas resultam nos mesmos perfis de densidade. Estes resultados claramente demonstram que os sistemas de vórtices confinados são perfeitamente descritos pela estatística de Boltzmann-Gibbs. Também se desenvolve uma teoria para partículas que interagem pelo potencial de Yukawa e submetidas a um potencial de confinamento harmônico. Essa teoria ´e fortemente embebida nos paradigmas da Teoria dos Líquidos, onde são utilizadas a Aproximação de Densidade Local e a equação de Hypernetted chain. Todos resultados são novamente comparados com simulações numéricas. Tal teoria permite calcular acuradamente os perfis de densidade para os regimes de acoplamento forte, onde a teoria de campo médio falha. Esta teoria não usa nenhum parâmetro de ajuste. / We develop a theory to describe the density distribution of vortices in a superconducting film of type II, confined by an external trap potential. The theory allows us to calculate the vortex density profiles. The theoretical results are compared with Molecular Dynamics simulations. In the weak coupling limit - high temperatures - the theory predicts a correct particle distribution. In the strong coupling limit - low temperatures - the theory progressively starts to fail - correlations between the particles begin to play an important role. Nevertheless, contrary to recent suggestions, this does not imply a failure of the Blotzmann-Gibbs statistical mechanics. To show this, we perform Monte Carlo simulations based on the Boltzmann energy distribution and the Metropolis algorithm and compare them with the Molecular Dynamics simulations. Both show identical density profiles. This clearly demonstrates that the system of confined vortices is perfectly well described by the usual Boltzmann-Gibbs statistical mechanics. We next develop a theory for particles interacting through the Yukawa potential inside an external trap. The theory is based on statistical mechanics of liquids and uses a Local Density Approximation and the Hypernetted chain equation. The results are again compared with the numerical simulations. This theory enables us to accurately calculate the density profiles of Yukawa particles in a trap, even in a strong coupling limit, when the mean field theory fails, without any adjustable parameters.
|
Page generated in 0.0517 seconds