Spelling suggestions: "subject:"fonte carlo, _método dde -"" "subject:"fonte carlo, _método dee -""
141 |
Avaliação do uso de detectores finos para a produção de imagem com feixes de prótonsSilva, Rita de Cássia de Lima 12 April 2012 (has links)
CAPES / Desde os primeiros trabalhos propondo o uso dos prótons para a construção da imagem, a principal vantagem, sobre os raios X, foi esperada como um resultado da propriedade específica do fluxo de próton em diminuir acentuadamente no fim do alcance da partícula. Esta ideia foi declarada, porém não foi checada. No presente trabalho, esta hipótese foi investigada usando simulação Monte Carlo, com o auxílio do software SRIM-2008, para o caso de um detector que registra pequena parte da energia de saída do próton (detector fino). Primeiramente, foi determinada a espessura do detector para a investigação da perda de energia dos prótons em um objeto de água com 20 cm. Foi estudada a dose absorvida necessária para distinguir dois objetos de água com espessura de 20 cm e 20,1 cm, como função da energia inicial. O resultado foi comparado com os dados obtidos por um detector grosso, que registra energia total de saída. A investigação realizada mostrou que a ideia principal de se trabalhar no fim de alcance dos prótons para a construção da imagem, não é correta quando se utiliza detector fino bem como detector grosso. Em geral, os sistemas de detecção, baseados em medidas de energia total de saída, são preferíveis àqueles que se baseiam em detectores finos. / Since the earliest works proposing the use of protons for imaging, the main advantage of protons over X-rays was expected to be a result of the specific property of the proton flux dropping off very steeply at the end of the particle range. This idea was declared but was not checked. In the present work, this assumption was investigated using the Monte Carlo simulation, with the help of SRIM-2008 software, for the case of a detector that registers only a small part of the proton exit energy (thin detector). First, a thickness of such detector was determined for the investigated water object of 20 cm. Then, it was studied the minimum dose absorbed by an object that is necessary to distinguish two water objects with the thicknesses of 20 cm and 20.1 cm as a function of the initial energy. The results were compared with the case of thick detector that registers the total exit energy. The carried out investigation shows that the principal idea of proton imaging to work near the end of the proton range is not correct in the case of thin detector as well as for thick one. In general, detector systems based on the measurement of the total exit energy are preferable to systems based on thin detectors.
|
142 |
Adaptação do código Geant4 para conversão de imagens DICOM em phantom virtualSilva, Fabrício Loreni da 01 April 2013 (has links)
CAPES / Este trabalho apresenta a adaptação do código Geant4 para conversão de imagens DICOM (Digital Imaging and Communications in Medicine) de crânio, obtidas em tomografia convencional (CT), em um phantom antropomórfico virtual. O trabalho foi baseado no exemplo médico denominado “Código Dicom”, disponibilizado pelos desenvolvedores do código Geant4. Durante a execução do trabalho foram feitas reestruturações no exemplo “Código Dicom” para a conversão direta de imagens tomográficas em um phantom virtual. Foram retirados do código todos os passos referentes aos eventos físicos nucleares. Foi reformulado o arquivo DicomHandler.cc para não realizar a compressão dos pixels da imagem de CT. Em seguida foi realizada a conversão direta de imagens tomográficas, de um phantom físico de polietileno (PEAD) com núcleo central de acrílico e de um crânio real humano, em phantoms virtuais para o código Geant4. Os resultados demonstraram que com este código é possível a reconstrução de áreas anatômicas com geometrias complexas, partindo do uso de imagens tomográficas reais. / This work presents the adaptation of the Geant4 code for converting DICOM (Digital Imaging and Communications in Medicine) images of a skull, obtained in conventional tomography (CT), into a virtual anthropomorphic phantom. The work was based on the medical example named "Dicom Code" provided by the developers of the code Geant4. During the execution, restructurings using the "Dicom Code" example were made to achieve the direct conversion of tomographic images into a virtual phantom. All the steps referring to nuclear physical events were removed. The file DicomHandler.cc was reformulated in order to avoid the pixels compression of the CT image. The CT images of a physical polyethylene (PEAD) phantom with acrylic core and a real human skull were then converted into virtual phantoms for the code Geant4. The results showed that with this code, it may be possible the reconstruction of anatomical areas with complex geometries, based on the use of real tomographic images.
|
143 |
Avaliação do uso de detectores finos para a produção de imagem com feixes de prótonsSilva, Rita de Cássia de Lima 12 April 2012 (has links)
CAPES / Desde os primeiros trabalhos propondo o uso dos prótons para a construção da imagem, a principal vantagem, sobre os raios X, foi esperada como um resultado da propriedade específica do fluxo de próton em diminuir acentuadamente no fim do alcance da partícula. Esta ideia foi declarada, porém não foi checada. No presente trabalho, esta hipótese foi investigada usando simulação Monte Carlo, com o auxílio do software SRIM-2008, para o caso de um detector que registra pequena parte da energia de saída do próton (detector fino). Primeiramente, foi determinada a espessura do detector para a investigação da perda de energia dos prótons em um objeto de água com 20 cm. Foi estudada a dose absorvida necessária para distinguir dois objetos de água com espessura de 20 cm e 20,1 cm, como função da energia inicial. O resultado foi comparado com os dados obtidos por um detector grosso, que registra energia total de saída. A investigação realizada mostrou que a ideia principal de se trabalhar no fim de alcance dos prótons para a construção da imagem, não é correta quando se utiliza detector fino bem como detector grosso. Em geral, os sistemas de detecção, baseados em medidas de energia total de saída, são preferíveis àqueles que se baseiam em detectores finos. / Since the earliest works proposing the use of protons for imaging, the main advantage of protons over X-rays was expected to be a result of the specific property of the proton flux dropping off very steeply at the end of the particle range. This idea was declared but was not checked. In the present work, this assumption was investigated using the Monte Carlo simulation, with the help of SRIM-2008 software, for the case of a detector that registers only a small part of the proton exit energy (thin detector). First, a thickness of such detector was determined for the investigated water object of 20 cm. Then, it was studied the minimum dose absorbed by an object that is necessary to distinguish two water objects with the thicknesses of 20 cm and 20.1 cm as a function of the initial energy. The results were compared with the case of thick detector that registers the total exit energy. The carried out investigation shows that the principal idea of proton imaging to work near the end of the proton range is not correct in the case of thin detector as well as for thick one. In general, detector systems based on the measurement of the total exit energy are preferable to systems based on thin detectors.
|
144 |
Desenvolvimento de um método de simulação para avaliação da durabilidade de conjuntos de embreagens para veículos comerciais / Development of a simulation method to evaluate the lifetime of clutches sets for commercial vehiclesBrazolin, Rodrigo Tadeu 16 August 2018 (has links)
Orientador: Auteliano Antunes dos Santos Júnior / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T23:23:00Z (GMT). No. of bitstreams: 1
Brazolin_RodrigoTadeu_M.pdf: 5635976 bytes, checksum: cc3a617fb92931974eff7e39f97904de (MD5)
Previous issue date: 2010 / Resumo: O mercado de veículos comerciais se caracteriza pela grande diversidade de aplicações. Isto gera uma complexa gama de requisitos para projetos de sistemas de embreagem. Um modelo preciso de simulação é uma ferramenta imprescindível, pois permite a avaliação de forma segura da durabilidade do conjunto de embreagem, otimizando o tempo de desenvolvimento e reduzindo os custos com testes de campo. Os modelos atuais de simulação para avaliação da durabilidade da embreagem foram desenvolvidos para aplicações em veículos de passeio e podem não apresentar a mesma eficácia quando utilizados na simulação de veículos comerciais. Esse trabalho tem o objetivo de desenvolver uma metodologia computacional, para estimativa da vida em serviço, que se aplique a esse mercado de veículos, utilizando simulação Monte Carlo. O modelo de simulação consiste em relacionar de maneira lógica as características de resistência do material de atrito com as características de solicitação geradas na aplicação do veículo. A simulação Monte-Carlo será utilizada para gerar as solicitações de campo. Os resultados encontrados na simulação serão validados por meio de comparação com dados reais de durabilidade encontrados em serviço / Abstract: The commercial vehicles market is characterized for the great applications diversity. This creates complex requirements for projects of clutch systems. An accurate simulation model is an essential tool, because it allows the evaluation of the clutch set durability, optimizing the development time and reducing the costs with field tests. The current simulation models for evaluation of the clutch durability had been developed for applications in passengers vehicles and can not present the same efficacy when used in the simulation of commercial vehicles. This work has the objective to develop a computational methodology, applied in this vehicle market, using the Monte Carlo simulation code. The simulation model consists of relating in logical way the friction material resistance characteristics with the use characteristics generated in the vehicle application. The Monte Carlo simulation will be used to generate the field use. The found results in the simulation will be validated through of comparison with real durability data found in field / Mestrado / Dinâmica / Mestre em Engenharia Automobilistica
|
145 |
Simulações atomísticas de eventos raros através de Transition Path Sampling / Atomistic simulation of rare events using Transition Path SamplingPoma Bernaola, Adolfo Maximo 09 October 2007 (has links)
Orientador: Maurice de Koning / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-08T20:27:57Z (GMT). No. of bitstreams: 1
PomaBernaola_AdolfoMaximo_M.pdf: 3697892 bytes, checksum: a07c1ad647a61d9862283f697732410e (MD5)
Previous issue date: 2007 / Resumo: Nesta dissertação abordamos o estudo de uma das limitações da simulação atomística denominada o evento raro, quem é responsável pela limitação temporal, exemplos de problemas que envolvem os eventos raros são, o enovelamento de proteínas, mudanças conformacionais de moléculas, reações químicas (em solução), difusão de sólidos e os processos de nucleação numa transição de fase de 1a ordem, entre outros.
Métodos convencionais como Dinâmica Molecular (MD) ou Monte Carlo (MC) são úteis para explorar a paisagem de energia potencial de sistemas muito complexos, mas em presença de eventos raros se tornam muito ineficientes, devido à falta de estatística na amostragem do evento. Estes métodos gastam muito tempo computacional amostrando as configurações irrelevantes e não as transições de interesse.
Neste sentido o método Transition Path Sampling (TPS), desenvolvido por D. Chandler e seus colaboradores, consegue explorar a paisagem de energia potencial e obter um conjunto de verdadeiras trajetórias dinâmicas que conectam os estados metaestáveis em presença de evento raros. A partir do ensemble de caminhos a constante de reação e o mecanismo de reação podem ser extraídos com muito sucesso.
Neste trabalho de mestrado implementamos com muito sucesso o método TPS e realizamos uma comparação quantitativa em relação ao método MC configuracional num problema padrão da isomerização de uma molécula diatômica imersa num líquido repulsivo tipo Weeks-Chandler-Andersen (WCA). A aplicação destes métodos mostrou como o ambiente, na forma de solvente, pode afetar a cinética de um evento raro / Abstract: In this dissertation we aproach the study of one of the limitations of the atomistic simulation called the rare event, which is responsible for the temporal limitation. Examples of problems that involve the rare event are the folding protein, conformational changes in molecules, chemical reactions (in solution), solid diffusion, and the processes of nucleation in a first-order phase transition, among other.
Conventional methods as Molecular Dynamics (MD) or Monte Carlo (MC) are useful to explore the potencial energy landscape of very complex systems, but in presence of rare events they become very inefficient, due to lack of statistics in the sampling of the event. These methods spend much computational time sampling the irrelevant configurations and not the transition of interest.
In this sense, the Transition Path Sampling (TPS) method, developed by D. Chandler and his collaborators, can explore the potential energy landscape and get a set of true dynamical trajectories that connect the metastable states in presence of the rare events. From this ensemble of trajectories the rate constant and the mechanism of reaction can be extracted with great success.
In this work we implemented the TPS method and carried out a quantitative comparison in relation to the configurational MC method in a standard problem of the isomerization of a diatomic molecule immersed in a Weeks-Chandler-Andersen (WCA) repulsive fluid. The application of these methods showed as the environment, in the form of solvent, can affect the kinetic of a rare event / Mestrado / Física Estatistica e Termodinamica / Mestre em Física
|
146 |
Modelo de juntas soldadas por FSW utilizando métodos de aprendizagem de máquina através de dados experimentais / Welded joint model by FSW using machine learning methods through experimental dataArcila Gago, Manuel Felipe, 1987- 23 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-23T16:12:48Z (GMT). No. of bitstreams: 1
ArcilaGago_ManuelFelipe_M.pdf: 7192169 bytes, checksum: 7b23a08769656a07765344e20d1f6ad4 (MD5)
Previous issue date: 2013 / Resumo: A variedade de materiais no setor aeronáutico para redução de peso e custo tem se proliferado a um grau intensivo, onde têm sido revisadas diferentes pesquisas para encontrar outros tipos de materiais de fácil maneabilidade para construção de peças que satisfazem as restrições impostas. Assim, existe uma procura constante de soluções para facilitar a produção, e ao mesmo tempo aumentar a segurança das aeronaves levando em consideração pontos importantes como a fadiga e ruptura do material. Um material frequentemente utilizado que atende a estes requisitos devido a suas propriedades de densidade e resistência é o alumínio, e é neste ambiente que existe um processo de manufatura utilizado para a soldagem conhecido como "Friction Stir Welding" (FSW). No presente momento, estudos para criação de modelos que representem características mecânicas utilizadas em projetos em função de parâmetros do processo tem sido pesquisados. Embora este processo seja de difícil modelagem devidos as suas complexidades, tem sido estudado e utilizado diferentes algoritmos que possibilitem o melhoramento da representação do modelo, tais como os relacionados com máquinas de aprendizagem (ML) e suas diferentes otimizações. Neste contexto, a presente pesquisa tem seu foco na obtenção de um modelo baseado no algoritmo de aprendizagem de Máquina de Vetores de Suporte (SVM), e também com outros algoritmos tais como Regressão Polinomial (RP) e Rede Neural Artificial (RNA), buscando encontrar modelos que representem o processo de soldagem por FSW através das propriedades mecânicas obtidas pelos ensaios de tração e por análise de variância (ANOVA), entendendo suas vantagens e, posteriormente, recomendar quais dos algoritmos de aprendizagem tem maior beneficio / Abstract: In the aerospace industry to reduce weight and cost, a great quantity of materials has been used, which has generated research to find types of materials, that have been better maneuverability and to guarantee the properties required to development of pieces for the industry. Thus, the studies look for optimize between production easiness and increase the aircraft safety, taking into consideration important issues such as fatigue and fracture of the materials. One of the most common approach used is aluminum by their mechanical properties (density and strength), although it has many problems to be welding with the traditional methods. Currently, the Friction Stir Welding (FSW) process is used in the industry, as well in the academy. However, the FSW is difficult to model by the complexities in the physical phenomenal occurred during the weld process, as result, has been studied and used different algorithms that allow enhance the model representation. The Machine Learning (ML) is a methodology studied to obtain the model optimized. In this context, the present research focus by to obtain a model-based in learning algorithm using Support Vector Machine (SVM). Although comparisons were made with other algorithms such as Polynomial Regression (PR) and Artificial Neural Network (ANN), searching to find models that represent the FSW process weld using the mechanical properties obtained by tensile tests and analysis of variance (ANOVA). Finally, conclusions to understand the advantages learning algorithms are presented / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
147 |
Simulação acelerada de baixo custo para aplicações em nanoengenharia de materiais / Low cost accelerated simulation for application in nanoengineering materialsTuratti, Luiz Gustavo, 1977- 23 August 2018 (has links)
Orientadores: Jacobus Willibrordus Swart, Stanislav Moshkalev / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T22:11:44Z (GMT). No. of bitstreams: 1
Turatti_LuizGustavo_D.pdf: 35255933 bytes, checksum: dbbe11c7c0f55012ba27274415c2494d (MD5)
Previous issue date: 2013 / Resumo: Este é um trabalho multidisciplinar que aborda questões de química, física, engenharia elétrica (nanoengenharia) e principalmente avanços obtidos com simulações por computador. Os programas comumente utilizados para simulações de fótons/íons focalizados em outro material consomem recursos computacionais por diversas horas ou até dias, para concluir os cálculos de determinado experimento, como a simulação de um processo efetuado com o equipamento FIB/SEM (Focused Ion Beam/Scanning Electron Miscroscopy), por exemplo. Através do uso de ambientes computacionais virtualizados, associados a programação paralela em CPU (Central Processing Unit) e GPGPU (General Purpose Graphics Processing Unit) é possível reduzir significativamente o tempo da simulação de horas para minutos, em situações de interação de partículas, que envolvem aproximação de colisões binárias (BCA, Binary Collision Approximation) e o Método de Monte Carlo (MMC), principalmente. O uso de placas gráficas (comumente utilizadas para jogos) potencializou o poder de processamento numérico para uso acadêmico a baixo custo, reduzindo o tempo para obtenção de resultados que foram comprovados experimentalmente. A utilização de programas análogos que empregam BCA e MMC, tais como TRIM/SRIM (Transport of Ions in Matter, atualizado para Stopping and Range of Ions in Matter), MCML (Monte Carlo for Multi Layered media) e CUDAMCML (Compute Unified Device Architecture, MCML) auxiliam a comparação de ganho de desempenho entre CPU e GPGPU evidenciando o melhor desempenho desta última arquitetura, com CUDA. Em simulações equivalentes com matrizes esparsas executadas em CPU e GPGPU, a redução do tempo de processamento variou entre três e quinze mil vezes, respectivamente. Com o Método de Monte Carlo, a redução foi de até cento e quarenta e uma vezes para melhores resultados. As simulações de alto desempenho e baixo custo computacional permitem antever algumas situações experimentais, diminuindo a necessidade de explorar todas as possibilidades práticas e, dessa forma, reduzindo o custo com laboratório / Abstract: This is a multidisciplinary work that addresses issues of chemistry, physics, electrical engineering (Nanoengineering) and especially advances obtained with computer simulations. Programs commonly used for simulations of photons/ions focused onto other materials consume computational resources for several hours or even days, to complete the simulations of a process performed with the equipment FIB/SEM (Focused Ion Beam/Scanning Electron Miscroscopy), for example. Through virtualized computing environments associated with parallel programming on CPU (Central Processing Unit) and GPGPU (General Purpose Graphics Processing Unit) is possible to significantly reduce the simulation total time from hours to minutes in the interactions of particles, involving binary collision approximation (BCA) and Monte Carlo method (MMC), mostly. The use of graphics cards (generaly used for games) enhanced the numerical processing power to be used in academia with low cost and reduced the time to obtain results experimentally verified. The use of similar software using BCA and MMC, such as TRIM/SRIM (Transport of Ions in Matter, upgraded to Stopping and Range of Ions in Matter), MCML (Monte Carlo for Multi Layered media) and CUDAMCML (Compute Unified Device Architecture, MCML) helped us to make a comparison of performance between CPU and GPGPU showing the best performance of the latter architecture, with CUDA. In equivalent simulations using sparse matrices in CPU and GPGPU, the time reduction of processing varied between three and fifteen thousand times, respectively. With the Monte Carlo method, reduction was up to one hundred forty one times for best results. Simulations of high performance and low computational cost allow us to predict some experimental situations, reducing the need to explore all practical possibilities and thus, reducing the lab costs / Doutorado / Eletrônica, Microeletrônica e Optoeletrônica / Doutor em Engenharia Elétrica
|
148 |
Implementação e testes de Métodos Monte Carlo para simulação de equilíbrio sólido-líquido / Development and tests of Monte Carlo methods for solid-liquid equilibrium simulationMartins, Tiago Dias, 1986- 07 May 2011 (has links)
Orientador: Charlles Rubber de Almeida Abreu / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-18T21:35:53Z (GMT). No. of bitstreams: 1
Martins_TiagoDias_M.pdf: 4166409 bytes, checksum: 78baf81dcc9cf9d746302c21e813f9e2 (MD5)
Previous issue date: 2011 / Resumo: O estudo a nível microscópico do Equilíbrio Sólido-Líquido (ESL) só se desenvolveu a partir do século XX e ainda existem aspectos de tal fenômeno que não são bem compreendidos, mesmo para os sistemas mais simples. Por esse motivo, é necessário que métodos eficientes para simular diretamente o ESL sejam formulados. O principal objetivo deste trabalho foi desenvolver e implementar Métodos Monte Carlo Multicanônicos para simular o ESL de sistemas de Lennard-Jones e, então, avaliar a aplicabilidade de tais métodos com base na sua eficiência. Primeiramente, buscou-se melhorar os resultados do método desenvolvido por Muguruma e Okamoto (2008), que visava amostrar a energia do sistema uniformemente e o volume com probabilidade de Boltzmann, enquanto mantinha-se fixo o número de partículas da caixa de simulação cúbica. Em seguida, uma nova abordagem foi proposta, cuja principal característica é não restringir o formato da caixa, embora a amostragem fosse realizada da mesma forma. Em ambos os métodos, a densidade de estados do sistema foi estimada usando a técnica da matriz de transições e uma abordagem de paralelização das simulações foi empregada a fim de se obter uma amostragem mais efetiva. Os resultados obtidos com o primeiro método mostraram que uma simulação como essa depende significativamente do número de partículas. Além disso, a amostragem dos estados de energia ficou presa na fase sólida. Já os resultados obtidos com a nova metodologia foram ligeiramente melhores que os obtidos com o método anterior. A amostragem para o sistema com o menor número de partículas foi equivalente para as duas fases em questão. No entanto, as simulações com sistemas maiores apresentaram o mesmo problema apontado no método anterior. A princípio, sugeriu-se a existência de uma transição polimórfica. No entanto, simulações na fase sólida com a nova metodologia apontam o contrário. Apesar dos resultados insatisfatórios, este trabalho se constitui em um passo importante no estudo de um tema complexo, que é a previsão de Equilíbrio Sólido-Líquido utilizando métodos de simulação direta / Abstract: The study at the microscopic level of Solid-Liquid Equilibrium (SLE) was only developed in the 20th century and still exist some aspects of this phenomenon that are not well understood, even for the simplest systems. Therefore, it is necessary the development of efficient methods to directly simulate the SLE. The main objective of this work was to develop and implement Multicanonical Monte Carlo methods to simulate the SLE of the Lennard-Jones system and then evaluate their applicability based on efficiency. First, we sought to improve the performance of a method used by Muguruma and Okamoto (2008), which aimed to sample the system energy uniformly and the volume with the Boltzmann probability, while keeping fixed the number of particles in a cubic simulation box. Then a new approach was proposed, whose main feature was let the shape of the box free, although the sampling was performed in the same way. In both methods, the density of states of the system was estimated using the transition matrix technique and an approach for parallelization of the simulations was employed to obtain a more effective sampling. The results obtained with the first method showed that such a simulation depends on the number of particles present in the system. Moreover, the sampling of energy states got stuck in the solid phase. The results obtained with the new method were slightly better than those obtained with the previous method. The sampling for the system with the lowest number of particles was equivalent for the two phases concerned. However, simulations with larger systems presented the same problem of the previous method. At first, it was suggested the existence of a polymorphic transition. However, simulations in the solid phase with the new methodology show the opposite. Despite the unsatisfactory results, this work constitutes na important step in studying a complex subject, which is the prediction of Solid-Liquid Equilibrium using direct simulation methods / Mestrado / Engenharia de Processos / Mestre em Engenharia Química
|
149 |
Estudo de descritores para distribuição heterogênea de dose / Descriptors study for dose heterogeneous distributionVasconcellos, Herminiane Luiza de, 1987- 26 August 2018 (has links)
Orientador: Sandro Guedes de Oliveira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Física Gleb Wataghin / Made available in DSpace on 2018-08-26T18:12:34Z (GMT). No. of bitstreams: 1
Vasconcellos_HerminianeLuizade_M.pdf: 4238996 bytes, checksum: 69965aad9e9748e349be6894c6ebf385 (MD5)
Previous issue date: 2015 / Resumo: Este trabalho baseia-se na analise de descritores de heterogeneidade de dose atraves de programas desenvolvidos em linguagem C++ com base na estatistica de Poisson e probabilidades de ocorrencia de heterogeneidade fundamentadas na teoria de percolacao. A finalidade deste trabalho e obter descritores que possam ser uteis no estudo de efeitos biologicos da radiacao caracteristicos de situacoes em que ha heterogeneidade de dose. Os suportes iniciais deste trabalho se encontram em um relatorio da International Comission on Radiation Units and Measurements, que aborda as questoes de heterogeneidade de dose. Particulas ¿¿ e reacoes envolvendo interacao com neutrons sao as radiacoes que foram focadas na dissertacao e base da aplicacao dos programas desenvolvidos, atraves de resultados obtidos de um experimento em um acelerador linear Elekta Synergy, inter-calibrado com simulacoes de calculo de Monte Carlo. A teoria de percolacao que estuda o comportamento de aglomerados em redes bidimensionais e tridimensionais e baseada em processos randomicos, e pode ser aplicada porque eventos gerados pelas reacoes nucleares ou espalhamentos com neutrons que obedecem a estatistica de Poisson. Os eventos gerados podem ser mapeados a procura de aglomerados, celulas que sao vizinhas nas quais tenham ocorrido eventos. Os aglomerados sao a base da construcao dos descritores. Os resultados encontrados demonstram que os indices de heterogeneidades utilizados fornecem informacoes importantes a respeito da formacao destes aglomerados. Foram comparados os resultados obtidos para os casos 2D e 3D de distribuicao de celulas hipoteticas e foi possivel estudar as relacoes entre os dois casos. Os descritores de heterogeneidade possibilitarao associacoes de dano biologico com a distribuicao de eventos em culturas celulares (caso 2D) e tecidos (caso 3D) / Abstract: The goal of this study is the analysis of dose heterogeneity descriptors through programs developed in C ++ language based on Poisson statistics and probabilities for the occurrence of heterogeneity based on percolation theory. The purpose of this study is to obtain descriptors that may be useful in the study of radiobiological effects characteristic of the situations in which there is dose heterogeneity. The initial support for this work is the report by the International Commission on Radiation Units and Measurements, which describes the dose heterogeneity issues. Álpha particles and reactions involving interaction with neutrons were focused on this thesis are the base of application programs developed from results of an experiment at a linear accelerator Elekta Synergy, inter-calibrated with Monte Carlo simulation. The percolation theory, a theory that studies cluster behavior in two and three-dimensional lattices, is based on random processes, can be applied because the events generated by nuclear reactions with neutrons follow the Poisson statistics. Generated events can be mapped in the search for clusters, neighbor cells in which events occurred. The clusters are the basis for construction of descriptors. The results show that the heterogeneity descriptors provide important information about clusters formation. The results for 2D and 3D cases were compared for distribution of hypothetical cells. and it was possible to study the relations between the two cases. The descriptors of heterogeneity enable biological damage associations with the distribution of events in cell culture (2D case) and tissues (3D case) / Mestrado / Física / Mestra em Física
|
150 |
Valoração probabilística de empreendimentos de geração de energia elétrica a partir de bagaço de cana-de-açúcar em leilão de energia de reserva / Probabilistic valuation model for generation projects that use sugar cane bagasse and commercialize energy in reserve energy auctionsContreras Medellin, Viviana Andrea, 1986- 07 August 2015 (has links)
Orientadores: Ieda Geriberto Hidalgo, Paulo de Barros Correia / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-27T21:54:34Z (GMT). No. of bitstreams: 1
ContrerasMedellin_VivianaAndrea_M.pdf: 2918970 bytes, checksum: d3e29b2d5269f327c32b83ecc013aa6a (MD5)
Previous issue date: 2015 / Resumo: A geração de energia elétrica a partir de fontes renováveis constitui uma alternativa interessante para a diversificação da matriz energética de um país. No Brasil, o programa de incentivo às fontes alternativas de energia elétrica (Proinfa), instituído em 2004, teve como objetivo promover a diversificação da matriz energética, buscar alternativas para aumentar a segurança no abastecimento de energia elétrica e permitir a valorização das características e potencialidades regionais e locais. Dentre as fontes renováveis de geração de energia, o destaque deste trabalho é para a biomassa, utilizando o bagaço da cana-de-açúcar. O bagaço da cana é produzido em grandes quantidades no Brasil e possui 1/3 do conteúdo energético da cana. Este recurso permite a geração de energia descentralizada. No setor elétrico brasileiro, a contratação de energia proveniente de empreendimentos de geração a partir do bagaço da cana-de-açúcar pode ser formalizada por meio dos leilões de energia de reserva. A análise de projetos para empreendimentos deste tipo envolve duas variáveis estocásticas: a geração de energia (que depende da disponibilidade do recurso ¿ período sazonal) e o valor da energia no mercado de curto prazo (que depende das condições hidrológicas). Portanto, este trabalho apresenta um modelo de valoração probabilística, para empreendimentos de geração a partir do bagaço da cana-de-açúcar, em leilão de energia de reserva. Esta valoração é feita sob a ótica do empreendedor que deve saber qual é o limite do seu lance no leilão. Deste modo, o destaque da valoração probabilística é para o valor presente líquido (VPL), que determina a medida da probabilidade de ganho ou perda para o empreendedor que participa no leilão de energia de reserva. O método de simulação de Monte Carlo e o fluxo de caixa livre descontado são utilizados para a valoração probabilística. Três estudos de casos são apresentados para uma usina de geração de energia de São Paulo. Para cada cenário simulado, a distribuição de probabilidade do VPL, o VPL médio e a taxa interna de retorno (TIR), que faz com que o VPL médio seja nulo, são calculados. Avalia-se a sensibilidade do retorno do empreendimento para diferentes valores de investimento, taxa mínima de atratividade (TMA) e lance. Os resultados deste trabalho indicam que o benefício, representado pelo VPL do empreendimento, é muito sensível ao valor do lance. Conclui-se também, que a metodologia apresentada pode ser empregada como um instrumento para que os empreendedores, que participam de leilões de contratação de energia possam avaliar o riscos de ter uma perda, decorrente do seu lance dado no leilão / Abstract: Electricity generation from renewable sources is an interesting alternative to diversify the energy matrix of a country. In Brazil, the incentive program for alternative electricity sources (Proinfa), established in 2004, had as goals, promoting the diversification of energy matrix, looking for alternatives to increase energy supply security and allowing the enhancement of the regional and local characteristics and potentials. Among the renewable sources of energy generation, the highlight of this work is to biomass, using bagasse from sugarcane. The bagasse is produced in large quantities in Brazil and it has one third of the sugarcane energy content. This source allows a decentralized power generation. In the Brazilian electricity sector, energy contracting from generation projects that use sugarcane bagasse, as a source, can be formalized through reserve energy auctions. The analysis of this type of projects involves two stochastic variables. Power generation (which depends on the resource availability - seasonal period) and energy price in the spot market (which depends on the hydrological conditions). Therefore, this work presents a probabilistic valuation model for generation projects that use sugarcane bagasse and commercialize energy in reserve energy auctions. This valuation is made from the entrepreneur perspective, who must know which is his auction bidding limit. Thus, the highlight of probabilistic valuation is for the net present value (VPL), which determines the probability measure of gain or loss, for the entrepreneur participating in the reserve energy auction. The Monte Carlo simulation method and the discounted free cash flow are used for the probabilistic valuation. Three case studies are presented for a power generation plant located in São Paulo state. For each simulated scenario, the probability distribution of VPL, the average VPL and the internal return rate (TIR), that make average VPL to be zero, are calculated. Sensitivity of the project¿s return is evaluated to different investment values, minimum acceptable rates of return (TMAs) and auction biddings. The results in this study indicate that the earns, represented by venture VPL, are highly sensitive to auction bidding value. It is also concluded that the methodology presented can be used as an instrument to assist investors, participating in reserve power auctions, in assessing the risk of loss, resulting from its auction bidding / Mestrado / Planejamento de Sistemas Energeticos / Mestra em Planejamento de Sistemas Energéticos
|
Page generated in 0.1085 seconds