Spelling suggestions: "subject:"simulação fonte carlo"" "subject:"simulação fonte sarlo""
71 |
Simulação Monte Carlo de cenários de radiologia intervencionista pediátrica no código MCNPXCavalcante, Fernanda Rocha 21 February 2017 (has links)
Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / Interventional radiology consists of minimally invasive procedures guided by
real-time X-ray imaging of a region of the patient to be diagnosed or treated. Since it is
a practice that uses ionizing radiation, performing these procedures should follow the
three basic principles of radioprotection, which are justification, optimization (medical
exposure), and dose limitation (occupational exposure). Interventional procedures in
children with congenital heart defects are justified by substituting other high-risk
procedures. However, as these procedures are responsible for high doses in the patient
and individuals occupationally exposed (IOE), it is important to evaluate the medical
exposures of pediatric individuals due to a greater susceptibility to radiation damage in
these individuals who present a rapid metabolism and closer proximity of the organs. In
addition, the longer life expectancy in children allows more time for any harmful effects
of radiation, such as cancer, to manifest. Because direct dose measurement within the
human body is difficult or impractical, the Monte Carlo simulation of radiation transport
is a useful tool in estimating dosimetric protection quantities (H T and E) in
anthropomorphic phantoms representing the anatomy of the human body. In addition, it
is possible to calculate conversion coefficients that relate protection quantities with
measurable quantities, such as the kerma-area product (PKA). In this work, we
modelled paediatric interventional cardiology scenarios using the MCNPX code and a
pair of adult and paediatric hybrid anthropomorphic phantoms (newborn, 1 year and
5 year) to evaluate medical and occupational exposures. The results obtained in this
work show conversion coefficients H T /PKA and E/PKA of 5 to 16 times higher than the
values obtained in the literature for interventional procedures performed in adult
patients. In addition, we estimate the influence of personal protective equipment (lead
apron, thyroid shield and lead glasses) on occupational exposures, which contribute to
reduction of H T doses in the physician up to 98% (gonads and thyroid), when used. / A radiologia intervencionista consiste de procedimentos minimamente invasivos
guiados por imagens de raios X em tempo real de uma região do paciente a ser
diagnosticada ou tratada. Por ser uma prática que utiliza radiação ionizante, a realização
destes procedimentos deve seguir os três princípios básicos de radioproteção, que são a
justificação, otimização (exposição do paciente) e limitação de dose (exposição do
médico). Os procedimentos intervencionistas em crianças com cardiopatias congênitas
são justificáveis por substituírem outros procedimentos de alto risco. Entretanto,
conforme estes procedimentos são responsáveis por altas doses no paciente, além dos
indivíduos ocupacionalmente expostos (IOE), é importante avaliar as exposições
médicas de indivíduos pediátricos devido uma maior susceptibilidade de ocorrência de
danos provocados pela radiação nestes indivíduos, que apresentam metabolismo rápido
e maior proximidade anatômica dos órgãos. Além disso, a maior expectativa de vida das
crianças induz uma maior probabilidade de ocorrência de efeitos estocásticos tardios
como o câncer. Devido à medição direta da dose dentro do corpo humano ser difícil ou
impraticável, a simulação Monte Carlo do transporte de radiação é uma ferramenta útil
na estimativa de grandezas dosimétricas de proteção (H T e E) em simuladores
antropomórficos que representam a anatomia do corpo humano. Além disso, é possível
calcular coeficientes de conversão que relacionam grandezas de proteção com grandezas
mensuráveis, como o produto kerma-área (PKA). Neste trabalho, modelamos cenários
de cardiologia intervencionista pediátrica utilizando o código MCNPX e uma dupla de
simuladores antropomórficos híbridos adulto e pediátrico (recém-nascido, de 1 e 5 anos)
para avaliar as exposições médicas e ocupacionais. Os resultados obtidos neste trabalho
mostram coeficientes de conversão H T /PKA e E/PKA de 5 a 16 vezes maiores que os
valores obtidos na literatura para procedimentos intervencionistas realizados em
pacientes adultos. Além disso, estimamos a influência dos equipamentos de proteção
individual (avental, óculos plumbíferos e protetor de tireoide) nas exposições
ocupacionais, que contribuem para redução das doses H T no médico em até 98%
(gônadas e tireoide), quando utilizados.
|
72 |
Estimativa da taxa de dose de radiação em tripulantes de aeronaves utilizando o método Monte CarloAlves, Matheus Carvalho 11 September 2017 (has links)
Aircraft crew members are exposed to cosmic rays of galactic and solar origin and secondary radiations produced due to interaction of primary cosmic rays with the atmosphere. Thus, it is necessary to estimate the dose that aircrew members receive and to evaluate the risks associated with their exposure. Radiation exposure scenarios were elaborated in computational scope in order to provide conversion coefficients (CCs) that relate measurable quantities (fluence) with limiting quantities (such as the effective dose). Knowing the particle fluence rate in a specific altitude, latitude and longitude, it is possible to determine the effective dose rate using these CC's. Aircraft crews are usually in sitting posture when exposed to cosmic radiation at altitudes of common flights. There are no studies in the literature using anthropomorphic phantoms in the sitting posture to calculate the effective dose rate at flight altitudes. In this study, effective dose per fluence conversion coefficients were calculated using the MCNPX code and the male and female UFH/NCI hybrid anthropomorphic phantoms in standing and sitting postures. Conversion coefficients were obtained in the isotropic irradiation geometry. CCs were calculated for neutrons, protons, photons, electrons, and positrons sources, which are the particles that most contribute to the dose at flight altitudes. The effective dose rate was calculated from the effective dose per fluence conversion coefficients and the fluence rate spectrum obtained by the EXPACS data package. The effective dose rate was also obtained using the fluence rate spectrum calculated by the MCNP6 software. The differences between the effective dose rate calculated for the phantom in the standing and sitting posture are less than 1%, showing that the posture does not contribute considerably to the dose of aircrew members. However, the dose rate calculated using the UFH/NCI phantom in the standing posture are 7 to 12 % higher than the dose rate obtained from the EXPACS package (which uses reference phantoms of ICRP 110) and are very close to experimental values of dose equivalent presented in other studies. Thus, the calculation of the effective dose rate using the UFH/NCI phantoms presents conservative results compared to those calculated using the ICRP reference phantoms and close to values obtained experimentally. The aim of this study was also estimate the dose to the fetus of pregnant crewmembers in a common flight. To estimate the dose to the fetus, CCs were calculated in the isotropic geometry for neutrons, protons, photons, electrons, positrons, and muons using a pregnant woman phantom and the MCNPX code. The dose rate was obtained from the conversion coefficients of equivalent dose per fluence and the fluence rate of cosmic radiation at an altitude of 12.3 km and under typical conditions of a flight from Vancouver to Frankfurt, whose average flight time is 9 hours. The results indicate that the equivalent dose to the fetus can exceeds the ICRP recommended fetal dose limit of 1 mSv after 6 or 7 round trips flights between Vancouver and Frankfurt. / Os tripulantes de aeronaves estão expostos a níveis elevados de radiação cósmica que tem origem galáctica, solar e de radiações secundárias produzidas devido à interação com a atmosfera. Assim, é necessário estimar a dose que estes indivíduos recebem e avaliar os riscos associados à sua exposição. Para isto, cenários de exposição à radiação foram elaborados em âmbito computacional a fim de fornecer coeficientes de conversão (CC’s) que relacionam grandezas mensuráveis (como a fluência) com grandezas limitantes (como a dose efetiva). Sabendo a taxa de fluência de partículas numa região onde um indivíduo é exposto, é possível determinar a taxa de dose efetiva usando estes CC’s. Tripulantes de aeronaves normalmente se encontram na postura sentada quando expostos à radiação cósmica em altitudes de voos convencionais. Como não foi encontrado na literatura estudos utilizando simuladores antropomórficos na postura sentada para o cálculo da taxa de dose efetiva em altitudes de voos tripulados, nesse trabalho, foram realizados cálculos de coeficientes de conversão de dose efetiva por fluência utilizando o código MCNPX e os simuladores antropomórficos híbridos UFH/NCI masculino e feminino nas posturas vertical e sentada e na geometria de irradiação isotrópica. Os CC’s foram calculados para as partículas que mais contribuem para a dose em altitude de voos tripulados, que são nêutrons, prótons, fótons, elétrons e pósitrons. A taxa de dose efetiva foi calculada a partir dos coeficientes de conversão de dose efetiva por fluência e do espectro da taxa de fluência obtidos pelo pacote de dados EXPACS. A taxa de dose efetiva também foi obtida utilizando os espectros de taxa de fluência calculados pelo software MCNP6. As diferenças entre a taxa de dose efetiva calculada para o simulador na postura vertical e sentada são menores do que 1 %, mostrando assim que a postura não influencia no cálculo da taxa de dose em tripulantes de aeronaves. Contudo, os valores da taxa de dose calculados utilizando o simulador UFH/NCI na postura vertical são de 7 a 12 % maiores do que os obtidos do pacote EXPACS (que utiliza os simuladores de referência da ICRP 110) e muito próximo a valores experimentais de equivalente de dose apresentados em outros trabalhos. Assim, o cálculo da taxa de dose efetiva a partir de CC’s usando os simuladores UFH/NCI apresenta resultados conservadores em relação aos calculados utilizando o simulador de referência da ICRP e próximo de valores obtidos experimentalmente. Outro objetivo desse trabalho foi estimar a dose no feto de tripulantes gestantes, considerando parâmetros de um voo real. Para estimar a dose no feto, foram calculados CC’s na geometria isotrópica para nêutrons, prótons, fótons, elétron, pósitrons e múons utilizando o simulador de mulher grávida e o código MCNPX. A taxa de dose foi obtida a partir dos coeficientes de conversão de dose equivalente por fluência e da taxa de fluência da radiação cósmica a uma altitude de 12,3 km e nas condições típicas de um voo de Vancouver a Frankfurt, que tem duração média de 9 horas. Os resultados mostram que a dose equivalente no feto ultrapassam o limite de 1 mSv, que é o limite de dose no feto durante a gestação considerado aceitável de acordo com a publicação 103 da ICRP, em até 7 voos de ida e volta entre Vancouver e Frankfurt. / São Cristóvão, SE
|
73 |
Estudos sobre o modelo O(N) na rede quadrada e dinâmica de bolhas na célula de Hele-ShawSILVA, Antônio Márcio Pereira 26 August 2013 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-06-29T13:52:59Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese_final.pdf: 5635071 bytes, checksum: b300efb627e9ece412ad5936ab67e8e2 (MD5) / Made available in DSpace on 2016-06-29T13:52:59Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese_final.pdf: 5635071 bytes, checksum: b300efb627e9ece412ad5936ab67e8e2 (MD5)
Previous issue date: 2013-08-26 / CNPq / No presente trabalho duas classes de problemas são abordadas. Primeiramente, são apresentados
estudos computacionais sobre o modelo O(n) de spins na rede quadrada, e em seguida
apresentamos novas soluções exatas para a dinâmica de bolhas na célula de Hele-Shaw. O estudo
do modelo O(n) é feito utilizando sua representação em laços (cadeias fechadas), a qual
é obtida a partir de uma expansão para altas temperaturas. Nesse representação, a função de
partição do modelo possui uma expansão diagramática em que cada termo depende do número
e comprimento total de laços e do número de (auto)interseções entre esses laços. Propriedades
críticas do modelo de laços O(n) são obtidas através de conceitos oriundos da teoria de percolação.
Para executar as simulações Monte Carlo, usamos o eficiente algoritmo WORM, o qual
realiza atualizações locais através do movimento da extremidade de uma cadeia aberta denominada
de verme e não sofre com o problema de "critical slowing down". Para implementar
esse algoritmo de forma eficiente para o modelo O(n) na rede quadrada, fazemos uso de um
nova estrutura de dados conhecida como listas satélites. Apresentamos estimativas para o ponto
crítico do modelo para vários valores de n no intervalo de 0 < n ≤ 2. Usamos as estatísticas de
laços e vermes para extrair, respectivamente, os expoentes críticos térmicos e magnéticos do
modelo. No estudo de dinâmica de interfaces, apresentamos uma solução exata bastante geral
para um arranjo periódico de bolhas movendo-se com velocidade constante ao longo de uma
célula de Hele-Shaw. Usando a periodicidade da solução, o domínio relevante do problema
pode ser reduzido a uma célula unitária que contém uma única bolha. Nenhuma imposição de
simetria sobre forma da bolha é feita, de modo que a solução é capaz de produzir bolhas completamente
assimétricas. Nossa solução é obtida por métodos de transformações conformes
entre domínios duplamente conexos, onde utilizamos a transformação de Schwarz-Christoffel
generalizada para essa classe de domínios. / In this thesis two classes of problems are discussed. First, we present computational studies of
the O(n) spin model on the square lattice and determine its critical properties, whereas in the
second part of the thesis we present new exact solutions for bubble dynamics in a Hele-Shaw
cell. The O(n) model is investigated by using its loop representation which is obtained from a
high-temperature expansion of the original model. In this representation, the partition function
admits an diagrammatic expansion in which each term depends on the number and total length
of loops (closed graphs) as well as on the number of intersections between these loops. Critical
properties of the O(n) model are obtained by employing concepts from percolation theory. To
perform Monte Carlo simulations of the model, we use the WORM algorithm, which is an
efficient algorithm that performs local updates through the motion of one of the ends (called
head) of an open chain (called worm) and hence does not suffer from “critical slowing down”.
To implement this algorithm efficiently for the O(n) model on the square lattice, we make
use of a new data structure known as a satellite list. We present estimates for the critical
point of the model for various values of n in the range 0 < n ≤ 2. We use the statistics about
the loops and the worm to extract the thermal and magnetic critical exponents of the model,
respectively. In our study about interface dynamics, we present a rather general exact solution
for a periodic array of bubbles moving with constant velocity in a Hele-Shaw cell. Using the
periodicity of the solution, the relevant domain of the problem can be reduced to a unit cell
containing a single bubble. No symmetry requirement is imposed on the bubble shape, so
that the solution is capable of generating completely asymmetrical bubbles. Our solution is
obtained by using conformal mappings between doubly-connected domains and employing the
generalized Schwarz-Christoffel formula for this class of domains.
|
74 |
Alocação de Medidores para a Estimação de Estado em Redes Elétricas InteligentesRaposo, Antonio Adolpho Martins 26 February 2016 (has links)
Made available in DSpace on 2016-08-17T14:52:40Z (GMT). No. of bitstreams: 1
Dissertacao-AntonioAdolphoMartinsRaposo.pdf: 6219934 bytes, checksum: 92f0e1fb7c3d703fcf27aae305b549f2 (MD5)
Previous issue date: 2016-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / To plan and operate properly a Smart Grid (SG), many new technical considerations in the context of distribution systems, must be considered, for example: stability (due to installation of Distributed Generation (DG), the load and generation dispatch, management of energy storage devices and the assessment of the impact of electric vehicle connection on the distribution system. The main prerequisite for many of these new functions in the distribution system control center is to determine the electrical network state (magnitude and angle of nodal voltages) in real time from measurement devices installed in it. In the transmission system control centers, this task is performed by the state estimation tool. Thus, the Distribution System State Estimation (DSSE) is one of the cornerstones for the implementation of a SG. The presence of a small number of measurements can make the grid unobservable in the context of the DSSE. That is, the state variables (magnitude and angle of the node voltages of all bus) can not be determined from a set of measurements by a state estimator. Due to this, it is usually added a large number of pseudo measurements to the existing measurement plan to ensure observability and to enable the DSSE. A drawback with this strategy is that the accuracy of the estimated state is compromised due to the fact that the errors associated with the pseudo measurements are considerably higher than those relating to real measurements. Consequently, it is necessary to allocate meters (voltage magnitude, active and reactive power flows, current magnitudes, etc.) to guarantee the accuracy of the DSEE. The meter placement problem for the state estimation in the transmission networks is usually carried out with the objective of assuring the observability. On the other hand, the meter placement for the EERD aims to minimize probabilistic index associated with the errors between the true and estimated state vectors. An important component of the method used to solve the meters placement problem is a probabilistic technique used to estimate the objective function. Due to the nonlinear nature of DSSE problem, the best option has been to use the Monte Carlo Simulation (MCS). A disadvantage of the MCS to estimate the objective function of the allocation problem is its high computational cost due to the need to solve a nonlinear state estimation problem for each sample element. The main objective of this dissertation is to propose a probabilistic techniques to improve the computational performance of existing methodologies for meter placement without reducing the accuracy of the estimated ix state. This compromise has been established using two strategies. In the first one, a linear model is used to estimate the state and the MCS is applied to determine the risks of the objective function. In the second one, a closed analytical formula is used to determine the risks based on the linearized model. Furthermore, the improved versions of the meter placement algorithms proposed in this dissertation consider the effect of the correlation among the measurements. The proposed meter placement algorithms were tested in the British distribution system of 95 bus. The tests results demonstrate that the introduction of the proposed strategies in a meter placement algorithm significantly reduced its computational cost. Moreover, it can be observed that there were improvements in accuracy in some cases, because the risk estimates provided by MCS are not accurate with small samples. / Para planejar e operar adequadamente uma Rede Elétrica Inteligente (REI), muitas novas considerações técnicas, no âmbito de sistemas de distribuição, devem ser apreciadas, por exemplo: a estabilidade devido a instalação de Geração Distribuída (GD), o despacho de carga e geração, o gerenciamento de dispositivos de armazenamento de energia e a avaliação do impacto da conexão de veículos elétricos na rede de distribuição. O principal pré-requisito para muitas destas novas funções do centro de controle do sistema de distribuição é a determinação do estado da rede elétrica (módulo e a fase das tensões nodais) em tempo real a partir de dispositivos de medição nela instalados. Em centros de controle de sistemas de transmissão esta tarefa é realizada por ferramentas de estimação de estado. Desta forma, a Estimação de Estado em Redes de Distribuição (EERD) é um dos alicerces para a implantação de uma REI. A presença de um número reduzido de medições pode tornar a rede elétrica não observável no âmbito da EERD. Isto é, as variáveis de estado (módulo e fase das tensões nodais em todas as barras) não podem ser determinadas a partir de um conjunto de medições por um estimador de estado. Devido a isto, geralmente adiciona-se um grande número de pseudo-medições ao plano de medição existente para assegurar a observabilidade e viabilizar a EERD. Um problema com esta estratégia é que a precisão do estado estimado é comprometida devido ao fato de que os erros associados com as pseudo-medições são consideravelmente maiores do que aqueles referentes às medições reais. Consequentemente é necessário alocar medidores (magnitude das tensões, fluxos de potência ativa e reativa, magnitude das correntes, etc.) para garantir a precisão do EERD. O problema de alocação de medidores para a estimação de estado em redes de transmissão é, geralmente, realizado com o objetivo de assegurar a observabilidade. Por outro lado, a alocação de medidores para EERD é realizada visando minimizar índices probabilísticos associados com os erros entre os vetores de estado estimado e verdadeiro. Um componente importante do método usado para resolver o problema de alocação de medidores é a técnica probabilística usada para estimar a função objetivo. Devido à natureza não-linear do problema de EERD, a melhor opção tem sido utilizar a Simulação Monte Carlo (SMC). Uma desvantagem da SMC para estimar a função objetivo do problema de alocação é o seu alto custo computacional devido a necessidade de resolver um problema de estimação de estado não-linear para cada vii elemento da amostra. O principal objetivo desta dissertação é propor técnicas probabilísticas para melhorar o desempenho computacional de metodologias existentes para alocação de medidores sem sacrificar a precisão do estado estimado. Este compromisso foi estabelecido usando-se duas estratégias. Na primeira, um modelo linearizado é usado para estimar o estado e a SMC para determinar os riscos da função objetivo. Na segunda, uma fórmula analítica fechada é usada para determinar os riscos com base no modelo linearizado. Além disso, as versões melhoradas dos algoritmos de alocação propostos nesta dissertação consideram o efeito da correlação entre as medições. As metodologias de alocação propostas foram testadas no sistema de distribuição britânico de 95 barras. Os resultados dos testes demonstraram que a introdução das estratégias propostas em um algoritmo de alocação de medidores reduziu significativamente o seu custo computacional. Além disso, pode-se observar que ocorreram melhorias na precisão em alguns casos, pois as estimativas dos riscos fornecidas pela SMC não são precisas com pequenas amostras.
|
75 |
Comparações de populações discretas / Comparison of discrete populationsAlexandre Hiroshi Watanabe 19 April 2013 (has links)
Um dos principais problemas em testes de hipóteses para a homogeneidade de curvas de sobrevivência ocorre quando as taxas de falha (ou funções de intensidade) não são proporcionais. Apesar do teste de Log-rank ser o teste não paramétrico mais utilizado para se comparar duas ou mais populações sujeitas a dados censurados, este teste apresentada duas restrições. Primeiro, toda a teoria assintótica envolvida com o teste de Log-rank, tem como hipótese o fato das populações envolvidas terem distribuições contínuas ou no máximo mistas. Segundo, o teste de Log-rank não apresenta bom comportamento quando as funções intensidade cruzam. O ponto inicial para análise consiste em assumir que os dados são contínuos e neste caso processos Gaussianos apropriados podem ser utilizados para testar a hipótese de homogeneidade. Aqui, citamos o teste de Renyi e Cramér-von Mises para dados contínuos (CCVM), ver Klein e Moeschberger (1997) [15]. Apesar destes testes não paramétricos apresentar bons resultados para dados contínuos, esses podem ter problemas para dados discretos ou arredondados. Neste trabalho, fazemos um estudo simulação da estatística de Cramér von-Mises (CVM) proposto por Leão e Ohashi [16], que nos permite detectar taxas de falha não proporcionais (cruzamento das taxas de falha) sujeitas a censuras arbitrárias para dados discretos ou arredondados. Propomos também, uma modificação no teste de Log-rank clássico para dados dispostos em uma tabela de contingência. Ao aplicarmos as estatísticas propostas neste trabalho para dados discretos ou arredondados, o teste desenvolvido apresenta uma função poder melhor do que os testes usuais / One of the main problems in hypothesis testing for homogeneity of survival curves occurs when the failure rate (or intensity functions) are nonproportional. Although the Log-rank test is a nonparametric test most commonly used to compare two or more populations subject to censored data, this test presented two constraints. First, all the asymptotic theory involved with the Log-rank test, is the hypothesis that individuals and populations involved have continuous distributions or at best mixed. Second, the log-rank test does not show well when the intensity functions intersect. The starting point for the analysis is to assume that the data is continuous and in this case suitable Gaussian processes may be used to test the assumption of homogeneity. Here, we cite the Renyi test and Cramér-von Mises for continuous data (CCVM), and Moeschberger see Klein (1997) [15]. Despite these non-parametric tests show good results for continuous data, these may have trouble discrete data or rounded. In this work, we perform a simulation study of statistic Cramér-von Mises (CVM) proposed by Leão and Ohashi [16], which allows us to detect failure rates are nonproportional (crossing of failure rates) subject to censure for arbitrary data discrete or rounded. We also propose a modification of the test log-rank classic data arranged in a contingency table. By applying the statistics proposed in this paper for discrete or rounded data, developed the test shows a power function better than the usual testing
|
76 |
ESTIMAÇÃO PROBABILÍSTICA DO NÍVEL DE DISTORÇÃO HARMÔNICA TOTAL DE TENSÃO EM REDES DE DISTRIBUIÇÃO SECUNDÁRIAS COM GERAÇÃO DISTRIBUÍDA FOTOVOLTAICA / PROBABILISTIC ESTIMATION OF THE LEVEL OF DISTORTION TOTAL HARMONIC VOLTAGE IN DISTRIBUTION NETWORKS SECONDARY WITH PHOTOVOLTAIC DISTRIBUTED GENERATIONSILVA, Elson Natanael Moreira 10 February 2017 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-04-17T13:14:17Z
No. of bitstreams: 1
Elson Moreira.pdf: 7883984 bytes, checksum: cf59b3b0b24a249a7fd9e2390b7f16de (MD5) / Made available in DSpace on 2017-04-17T13:14:17Z (GMT). No. of bitstreams: 1
Elson Moreira.pdf: 7883984 bytes, checksum: cf59b3b0b24a249a7fd9e2390b7f16de (MD5)
Previous issue date: 2017-02-10 / CNPQ / A problem of electric power quality that always affects the consumers of the distribution
network are the harmonic distortions. Harmonic distortions arise from the presence of socalled harmonic sources, which are nonlinear equipment, i.e., equipment in which the voltage
waveform differs from the current. Such equipment injects harmonic currents in the network
generating distortions in the voltage waveform. Nowadays, the number of these equipment in
the electrical network has increased considerably. However, the increasing use of such
equipment over the network makes systems more vulnerable and prone to quality problems in
the supply of electricity to consumers. In addition, it is important to note that in the current
scenario, the generation of electricity from renewable sources, connected in the secondary
distribution network, is increasing rapidly. This is mainly due to shortage and high costs of
fossil fuels. In this context, the Photovoltaic Distributed Generation (PVDG), that uses the sun
as a primary source for electric energy generation, is the main technology of renewable
generation installed in distribution network. However, the PVDG is a potential source of
harmonics, because the interface of the PVDG with the CA network is carried out by a
CC/CA inverter, that is a highly nonlinear equipment. Thus, the electrical power quality
problems associated with harmonic distortion in distribution networks tend to increase and be
very frequent. One of the main indicators of harmonic distortion is the total harmonic
distortion of voltage ( ) used by distribution utilities to limit the levels of harmonic
distortion present in the electrical network. In the literature there are several deterministic
techniques to estimate . These techniques have the disadvantage of not considering the
uncertainties present in the electric network, such as: change in the network configuration,
load variation, intermittence of the power injected by renewable distributed generation.
Therefore, in order to provide a more accurate assessment of the harmonic distortions, this
dissertation has as main objective to develop a probabilistic methodology to estimate the level
of in secondary distribution networks considering the uncertainties present in the
network and PVDG connected along the network. The methodology proposed in this
dissertation is based on the combination of the following techniques: three-phase harmonic
power flow in phase coordinate via method sum of admittance, point estimate method and
series expansion of Gram-Charlier. The validation of the methodology was performed using
the Monte Carlo Simulation. The methodology was tested in European secondary distribution
network with 906 nodes of 416 V. The results were obtained by performing two case studies:
without the presence of PVDG and with the PVDG connection. For the case studies, the following statistics for nodal were estimated: mean value, standard deviation and the
95% percentile. The results showed that the probabilistic estimation of is more
complete, since it shows the variation of due to the uncertainties associated with
harmonic sources and electric network. In addition, they show that the connection of PV-DG
in the electric network significantly affects the levels of of the electric network. / Um problema de qualidade de energia elétrica que afeta os consumidores da rede de
distribuição secundária são as distorções harmônicas. As distorções harmônicas são
provenientes da presença das chamadas fontes de harmônicas que são equipamentos de
características não-lineares, ou seja, equipamentos em que a forma de onda da tensão difere
da de corrente. Tais equipamentos injetam correntes harmônicas na rede produzindo, portanto
distorções na forma de onda da tensão. Nos dias atuais, a quantidade desses equipamentos na
rede elétrica tem aumentado consideravelmente. Porém, o uso crescente desse tipo de
equipamento ao longo da rede torna os sistemas mais vulneráveis e propensos a apresentarem
problemas de qualidade no fornecimento de energia elétrica aos consumidores. Além disso, é
importante destacar que no cenário atual, a geração de energia elétrica a partir de fontes
renováveis, conectada na rede de distribuição secundária, está aumentando rapidamente. Isso
se deve principalmente devido a escassez e altos custos dos combustíveis fosseis. Neste
contexto, a Geração Distribuída Fotovoltaica (GDFV), que utiliza o sol como fonte primária
para geração de energia elétrica, é a principal tecnologia de geração renovável instalada na
rede de distribuição no Brasil. Contudo, a GDFV é uma potencial fonte de harmônica, pois a
interface da GDFV com a rede CA é realizada por um inversor CC/CA, que é um
equipamento altamente não-linear. Desde modo, os problemas de qualidade de energia
elétrica associados à distorção harmônica nas redes de distribuição tendem a aumentar e a
serem bem frequentes nos consumidores da rede de distribuição secundárias. Um dos
principais indicadores de distorção harmônica é a distorção harmônica total de tensão (
do inglês “Total Harmonic Distortion of Voltage”) utilizada pelas concessionárias de energia
elétrica para quantificar os níveis de distorção harmônica presentes na rede elétrica. Na
literatura técnica existem várias técnicas determinísticas para estimar a . Essas técnicas
possuem a desvantagem de não considerar as incertezas presentes na rede elétrica, tais como:
mudança na configuração da rede, variação de carga e intermitência da potência injetada pela
geração distribuída renovável. Portanto, a fim de fornecer uma avaliação mais precisa das
distorções harmônicas, este trabalho tem como principal objetivo desenvolver uma
metodologia probabilística para estimar o nível de em redes de distribuição secundária
considerando as incertezas presentes na rede e na GDFV conectada ao longo da rede. A
metodologia proposta nesta dissertação se baseia na combinação das seguintes técnicas: fluxo
de potência harmônico trifásico em coordenadas de fase via método de soma de admitância,
método de estimação por pontos e expansão em série de Gram-Charlier. Além disso, a validação da metodologia foi realizada utilizando a Simulação Monte Carlo. A metodologia
desenvolvida foi testada na rede de distribuição secundária europeia com 906 nós de 416 V.
Os resultados foram obtidos realizando dois casos de estudos: sem a presença de GDFV e
com a conexão de GDFV. Para ambos os casos de estudo as seguintes estatísticas do
nodal foram estimadas: valor médio, desvio padrão e o percentil de 95%. Os resultados
demonstraram que a estimação probabilística da é mais completa, pois mostra a
variação da devido às incertezas associadas com as fontes de harmônicas e as da rede
elétrica. Os resultados também mostram que a conexão da GDFV afeta significativamente os
níveis de da rede elétrica
|
77 |
O papel do código estereoquímico e das flutuações térmicas locais no processo de folding de proteínas / The role of stereochemical code and local thermal fluctuation in the protein folding processMolin, João Paulo Dal 25 February 2011 (has links)
O problema do folding de proteínas tem sido investigado intensamente há mais de sessenta anos. Entretanto ainda não é encontrado na literatura um modelo que seja capaz de explicar plenamente qual é o mecanismo responsável pelo processo de folding. Neste contexto, a presente tese de doutorado é uma proposta minimalista para investigar o papel de um código estereoquímico, que é centrado no efeito hidrofóbico e nos vínculos estéricos dos aminoácidos (o modelo estereoquímico), no processo em pauta. Esse modelo quando combinado com um método para incluir a flutuação térmica local no sistema cadeia protéica-solvente, possibilita a investigação de um dos aspectos mais extraordinários do problema, a saber, a rapidez do processo de folding, considerado aqui por meio da correlação entre a complexidade da estrutura nativa (alvo) e a taxa de folding. Esse método é motivado por argumentos físico-químicos e biológicos, e é fundamentado na Mecânica Estatística Não Extensiva, via o uso do peso de Tsallis em simulações Monte Carlo (MC). O tempo característico de folding (obtido daquelas simulações e utilizado aqui como um parâmetro analítico do problema), cobre várias ordens de grandeza para cadeias com o mesmo tamanho. Dois conjuntos principais de simulações foram considerados com a finalidade de análise: (i) alguns alvos foram especialmente selecionados e submetidos a simulações MC a várias temperaturas T do reservatório térmico (o meio solvente); e (ii) um total de duzentos alvos com topologias diversas foram submetidos a simulações à mesma temperatura T = 1 (unidades arbitrárias). Com essas simulações foi possível verificar comparativamente o efeito dos dois pesos estatísticos, o de Boltzmann e o de Tsallis, sobre a cinética do processo de folding, e assim revelar comportamentos intrigantes, porém consistentes com o fenômeno focado, como a robustez do processo de folding e , este último emergindo como uma grandeza que depende da complexidade da estrutura nativa. Para estruturas distintas, cobre quatro ordens de grandeza. Os resultados da investigação da correlação entre e parâmetros globais destinados a avaliar a complexidade da topologia da estrutura nativa, como a ordem de contato e a cooperatividade estrutural, corroboram com a noção de que a rapidez do processo de folding é determinada fundamentalmente pela complexidade da topologia da estrutura nativa. / The protein folding problem has been investigated for more than sixty years. However is not yet found in literature a model that is able to fully explain the mechanism behind the folding process. In this context, the present doctoral thesis is a speculative and minimalist proposal to investigate the role of a stereochemical code -grounded in the hydrophobic effect and steric constraints of amino acids (the stereochemical model), in the discussed process. This model, when combined with a method to include local thermal fluctuations in the protein chain-solvent system, enables the investigation of one of the most extraordinary aspects of the problem, namely, the fastness of the folding process, which is studied here by means of the correlation between the complexity of the native structure (target) and the folding process rate. This method is motivated by physical chemistry and biological arguments, and is based on the Nonextensive Statistical Mechanics, by the use of the Tsallis weight in Monte Carlo simulations (MC), where the entropic index q is adjusted at each new conformation of the protein chain. For chains with the same length, the characteristic folding time (estimated from those simulations and used here as an analytical parameter of the problem) span several order of magnitude. Two main sets of simulations were performed for analysis purposes. First, some targets were specially selected and submitted to MC simulations with several temperatures of the thermal reservoir (the solvent), and then a total of two hundred targets with diverse topologies were submitted to simulations with the same reservoir temperature T = 1 (arbitrary units). With such set of simulations, we could compare the effect of two statistical weights, namely the Boltzmann and the Tsallis weight, on the kinetics of the folding process. Intriguing but consistent behavior with respect to the folding phenomenon was reveled, such as the robustness of the process, and about the characteristic folding time , which emerges as an amount that depends on the complexity of the native structure. For distinct structures, covers four orders of magnitude. Our results about the correlation between and global parameters to assess the complexity of the topology of the native structure, such as contact order and structural cooperativity, support the notion that the fastness of the folding process is essentially determined by the complexity of the topology of native structure.
|
78 |
Otimização estocástica na programação de bombas em redes de abastecimento urbano / Stochastic optimization in the pump scheduling in urban supply networksMartinez, Jonathan Justen de La Vega 14 March 2014 (has links)
Made available in DSpace on 2016-06-02T19:53:32Z (GMT). No. of bitstreams: 1
MARTINEZ_Jonathan_2014.pdf: 11989383 bytes, checksum: 96fb53d9544014ea55b1e53ee779c134 (MD5)
Previous issue date: 2014-03-14 / Financiadora de Estudos e Projetos / This study presents a pump scheduling problem for the capture, transfer and storage of water supply systems in urban networks, whose objective is to minimize the electricity cost associated to the pumping operations. To deal with the dynamic and random nature of the water-demand, we propose two-stage stochastic programming with recourse models, where the random variables are represented by a finite and discrete set of realizations or scenarios. The developed mathematical models are extensions of previous deterministic models of the literature and they reflect the basic assumption that a fixed cost could be incurred by the turn on/ turn off activities of the hydraulic pumps. In order to control violations of the water-demand constraints in the presence of multiple different scenarios, we also consider a robustness technique in an attempt to obtain almost feasible solutions. Last, but not least, we adopt a risk-aversion criteria so-called mean absolute deviation to obtain second-stage costs less dependent on the realizations of the scenarios. The scenarios were generated according to a Monte-Carlo simulation procedure that may use any probability distributions to produce the empirical probabilities of the random variables. As the proposed pump scheduling problem with fixed cost is a two-stage stochastic mixed 0 − 1 program, we develop a efficient hybrid heuristic to obtain good-quality solutions of practical instances in a plausible running time. Overall results evidence the stability of the scenario generation method, the sensitivity of the solution according to the key parameters of the mathematical model, and the efficiency of the heuristic in solving large instances. Finally, we show that is possible to save resources by solving the stochastic programming model instead of adopting simpler approaches based on the expected value. / Esse estudo apresenta um problema de programação de bombas para a captação, armazenamento e transferência de água em sistemas de abastecimentos de água em redes urbanas, cujo objetivo é minimizar o custo de energia elétrica associado às operações de bombeamento. Para lidar com a natureza dinâmica e aleatória da demanda por água, foram propostos modelos de programação estocástica de dois estágios com recurso, em que a variável aleatória é representada por um conjunto finito de realizações ou cenários. Os modelos matemáticos desenvolvidos são extensões de modelos determinísticos da literatura e refletem a suposição básica de que é possível se incorrer em um custo fixo pelas atividades de liga/desliga das bombas hidráulicas. Para controlar as violações das restrições de demanda por água na presença de múltiplos cenários diferentes, considerou-se também uma técnica de robustez na tentativa de gerar soluções quase factíveis. Por último, mas não menos importante, adotou-se um critério de aversão ao risco denominado desvio médio absoluto para obter custos de segundo estágio menos dependentes das realizações dos cenários. Os cenários foram gerados de acordo com um procedimento baseado em simulação Monte-Carlo que pode utilizar qualquer distribuição de probabilidade para produzir as probabilidades empíricas das variáveis aleatórias. Como o problema de programação de bombas com custo fixo proposto é um programa inteiro misto 0−1 estocástico, desenvolve-se uma heurística híbrida eficiente para obter soluções de boa qualidade de instâncias práticas em um tempo computacional plausível. Os resultados evidenciam a estabilidade do método de geração de cenários, a sensibilidade da solução de acordo com parâmetros-chave do modelo matemático, e a eficiência da heurística na resolução de instâncias de grande porte. Finalmente, foi demonstrado que é possível poupar recursos pela resolução do modelo de programação estocástica, em vez de adotar abordagens mais simples baseadas no valor esperado.
|
79 |
O papel do código estereoquímico e das flutuações térmicas locais no processo de folding de proteínas / The role of stereochemical code and local thermal fluctuation in the protein folding processJoão Paulo Dal Molin 25 February 2011 (has links)
O problema do folding de proteínas tem sido investigado intensamente há mais de sessenta anos. Entretanto ainda não é encontrado na literatura um modelo que seja capaz de explicar plenamente qual é o mecanismo responsável pelo processo de folding. Neste contexto, a presente tese de doutorado é uma proposta minimalista para investigar o papel de um código estereoquímico, que é centrado no efeito hidrofóbico e nos vínculos estéricos dos aminoácidos (o modelo estereoquímico), no processo em pauta. Esse modelo quando combinado com um método para incluir a flutuação térmica local no sistema cadeia protéica-solvente, possibilita a investigação de um dos aspectos mais extraordinários do problema, a saber, a rapidez do processo de folding, considerado aqui por meio da correlação entre a complexidade da estrutura nativa (alvo) e a taxa de folding. Esse método é motivado por argumentos físico-químicos e biológicos, e é fundamentado na Mecânica Estatística Não Extensiva, via o uso do peso de Tsallis em simulações Monte Carlo (MC). O tempo característico de folding (obtido daquelas simulações e utilizado aqui como um parâmetro analítico do problema), cobre várias ordens de grandeza para cadeias com o mesmo tamanho. Dois conjuntos principais de simulações foram considerados com a finalidade de análise: (i) alguns alvos foram especialmente selecionados e submetidos a simulações MC a várias temperaturas T do reservatório térmico (o meio solvente); e (ii) um total de duzentos alvos com topologias diversas foram submetidos a simulações à mesma temperatura T = 1 (unidades arbitrárias). Com essas simulações foi possível verificar comparativamente o efeito dos dois pesos estatísticos, o de Boltzmann e o de Tsallis, sobre a cinética do processo de folding, e assim revelar comportamentos intrigantes, porém consistentes com o fenômeno focado, como a robustez do processo de folding e , este último emergindo como uma grandeza que depende da complexidade da estrutura nativa. Para estruturas distintas, cobre quatro ordens de grandeza. Os resultados da investigação da correlação entre e parâmetros globais destinados a avaliar a complexidade da topologia da estrutura nativa, como a ordem de contato e a cooperatividade estrutural, corroboram com a noção de que a rapidez do processo de folding é determinada fundamentalmente pela complexidade da topologia da estrutura nativa. / The protein folding problem has been investigated for more than sixty years. However is not yet found in literature a model that is able to fully explain the mechanism behind the folding process. In this context, the present doctoral thesis is a speculative and minimalist proposal to investigate the role of a stereochemical code -grounded in the hydrophobic effect and steric constraints of amino acids (the stereochemical model), in the discussed process. This model, when combined with a method to include local thermal fluctuations in the protein chain-solvent system, enables the investigation of one of the most extraordinary aspects of the problem, namely, the fastness of the folding process, which is studied here by means of the correlation between the complexity of the native structure (target) and the folding process rate. This method is motivated by physical chemistry and biological arguments, and is based on the Nonextensive Statistical Mechanics, by the use of the Tsallis weight in Monte Carlo simulations (MC), where the entropic index q is adjusted at each new conformation of the protein chain. For chains with the same length, the characteristic folding time (estimated from those simulations and used here as an analytical parameter of the problem) span several order of magnitude. Two main sets of simulations were performed for analysis purposes. First, some targets were specially selected and submitted to MC simulations with several temperatures of the thermal reservoir (the solvent), and then a total of two hundred targets with diverse topologies were submitted to simulations with the same reservoir temperature T = 1 (arbitrary units). With such set of simulations, we could compare the effect of two statistical weights, namely the Boltzmann and the Tsallis weight, on the kinetics of the folding process. Intriguing but consistent behavior with respect to the folding phenomenon was reveled, such as the robustness of the process, and about the characteristic folding time , which emerges as an amount that depends on the complexity of the native structure. For distinct structures, covers four orders of magnitude. Our results about the correlation between and global parameters to assess the complexity of the topology of the native structure, such as contact order and structural cooperativity, support the notion that the fastness of the folding process is essentially determined by the complexity of the topology of native structure.
|
Page generated in 0.0533 seconds