281 |
[en] DISTRIBUTION GRID PLANNING WITH LINES INVESTMENT AND TOPOLOGY RECONFIGURATION FOR WILDFIRE RESILIENCE UNDER DECISION-DEPENDENT UNCERTAINTY / [pt] PLANEJAMENTO DE SISTEMAS DE DISTRIBUIÇÃO COM INVESTIMENTO EM LINHAS E RECONFIGURAÇÃO DE TOPOLOGIA PARA RESILIÊNCIA A INCÊNDIOS FLORESTAIS SOB INCERTEZA-DEPENDENTE DE DECISÃOFELIPE NEVES PIANCÓ 05 March 2024 (has links)
[pt] Os incêndios florestais podem ser uma fonte de vulnerabilidade para sistemas de potência. Esses eventos podem afetar especialmente a operação de sistemas de distribuição, interrompendo o fornecimento de energia, aumentando
os custos, e diminuindo a confiabilidade. Nesta dissertação, é considerada a
relação entre as decisões operativas e a probabilidade de falha nas linhas sob o
contexto de queimadas. Este tipo de estudo ainda não foi devidamente avaliado pelo meio acadêmico. Ao não reconhecer este aspecto, o funcionamento dos
sistemas de potência pode estar sendo prejudicado. A modelagem adequada
dessa dependência poderia reduzir a incidência de queimadas e perda de carga.
Considerando este aspecto, um problema de otimização distributivamente robusto de dois estágios com incerteza endógena foi desenvolvido para considerar
a operação multiperíodo de sistemas de distribuição. O primeiro estágio determina a topologia da rede e os investimentos nas linhas, e o segundo estágio
avalia o custo operacional esperado no pior caso. Nessa estrutura, a incerteza
é modelada de forma dependente das decisões do modelo, onde as probabilidades de falha da linha são em função do fluxo de potência das próprias linhas.
Um método iterativo é proposto para resolver este modelo e uma análise fora
da amostra é desenvolvida para validação através de diferentes estudos. Os
resultados mostraram que, ao negligenciar a dependência da incerteza, uma
maior perda de carga e um maior custo operacional são esperados. Ao considerar esta nova abordagem, a confiabilidade da rede pode ser melhorada e as
consequências dos incêndios podem ser mitigadas com ações mais econômicas. / [en] Wildfires can be a source of vulnerability for power systems operations.
These events can especially affect the operation of distribution systems. They
can interrupt energy supply, increase costs, and decrease grid resilience. Numerous approaches can be executed to prevent them. In this dissertation, it
is considered the relationship between operative actions and the probability
of wildfire disruption. This type of study has not been properly evaluated in
technical and scientific literature. By not recognizing this aspect, the operation
of power systems may be impaired. Properly modeling this dependency could
lower wildfire disruption and loss of load. Considering this, a two-stage distributionally robust optimization problem with decision-dependent uncertainty
is developed to consider distribution system multiperiod operation. The first
stage determines the optimal switching actions and line investments, and the
second stage evaluates the worst-case expected operation cost. It is designed
a decision-dependent uncertainty framework where the line failure probabilities are a function (dependent) of its power flow levels. An iterative method
is proposed to solve this model and an out-of-sample analysis is developed to
validate it through different case studies. Results showed that, by neglecting
the uncertainty dependency on operative decisions, there could be a higher
expected loss of load and a higher operational cost. By considering this new
approach when operating power lines, the grid s resilience could be improved
and wildfire consequences can be mitigated with less costly actions.
|
282 |
[pt] MONITORAMENTO SEMIAUTOMÁTICO DO DESMATAMENTO NOS BIOMAS BRASILEIROS AMAZÔNIA E CERRADO: ESTIMATIVA DE INCERTEZA E CARACTERIZAÇÃO DE ÁREAS DE ALTA INCERTEZA / [en] SEMI-AUTOMATIC MONITORING OF DEFORESTATION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES: UNCERTAINTY ESTIMATION AND CHARACTERIZATION OF HIGH UNCERTAINTY AREASJORGE ANDRES CHAMORRO MARTINEZ 19 February 2024 (has links)
[pt] O monitoramento oficial do desmatamento na Amazônia brasileira tem dependido tradicionalmente de especialistas humanos que avaliam visualmenteas imagens de sensoriamento remoto e rotulam cada pixel individual comodesmatamento ou não desmatamento. Essa metodologia é obviamente carae demorada devido à vasta área monitorada. A razão para não utilizar métodos totalmente automáticos para a tarefa é a necessidade da maior precisãopossível nos números oficiais de desmatamento. Neste trabalho é propostauma alternativa semi-automática baseada em aprendizagem profunda, naqual uma rede neural profunda é primeiro treinada com imagens existentes e referências de anos anteriores, e empregada para realizar detecção dedesmatamento em imagens recentes. Após a inferência, a incerteza nos resultados em nível de pixel da rede é estimada e assume-se que os resultadosda classificação com baixa incerteza podem ser confiáveis. As demais regiõesde alta incerteza, que correspondem a uma pequena porcentagem da áreade teste, são então submetidas à pós-classificação, por exemplo, um procedimento de auditoria realizado visualmente por um especialista humano.Desta forma, o esforço de etiquetagem manual é bastante reduzido.Investigamos várias estratégias de estimativa de incerteza, incluindo abordagens baseadas em confiança, Monte Carlo Dropout (MCD), conjuntosprofundos e aprendizagem evidencial, e avaliamos diferentes métricas de incerteza. Além disso, conduzimos uma análise abrangente para identificar ascaracterísticas das áreas florestais que contribuem para a elevada incerteza.Ilustramos as principais conclusões da análise em 25 polígonos selecionados em quatro locais-alvo, que exemplificam causas comuns de incerteza.Os sítios-alvo estão localizados em áreas de estudo desafiadoras nos biomasbrasileiros da Amazônia e do Cerrado. Através da avaliação experimental nesses locais, demonstramos que a metodologia semi-automática proposta atinge valores impressionantes de pontuação F1 que excedem 97 por cento, aomesmo tempo que reduz a carga de trabalho de auditoria visual para apenas 3 por cento da área alvo. O código desenvolvido para este estudo está disponível emhttps://github.com/DiMorten/deforestation_uncertainty. / [en] Official monitoring of deforestation in the Brazilian Amazon has relied traditionally on human experts who visually evaluate remote sensing images
and label each individual pixel as deforestation or no deforestation. That
methodology is obviously costly and time-consuming due to the vast monitored area. The reason for not using fully automatic methods for the task is
the need for the highest possible accuracies in the authoritative deforestation figures. In this work, a semi-automatic, deep learning-based alternative
is proposed, in which a deep neural network is first trained with existing images and references from previous years, and employed to perform
deforestation detection on recent images. After inference, the uncertainty
in the network s pixel-level results is estimated, and it is assumed that
low-uncertainty classification results can be trusted. The remaining high-uncertainty regions, which correspond to a small percentage of the test
area, are then submitted to post classification, e.g., an auditing procedure
carried out visually by a human specialist. In this way, the manual labeling
effort is greatly reduced.
We investigate various uncertainty estimation strategies, including
confidence-based approaches, Monte Carlo Dropout (MCD), deep ensembles and evidential learning, and evaluate different uncertainty metrics.
Furthermore, we conduct a comprehensive analysis to identify the characteristics of forest areas that contribute to high uncertainty. We illustrate the main conclusions of the analysis upon 25 selected polygons on
four target sites, which exemplify common causes of uncertainty. The target sites are located in challenging study areas in the Brazilian Amazon
and Cerrado biomes. Through experimental evaluation on those sites, we
demonstrate that the proposed semi-automated methodology achieves impressive F1-score values which exceeds 97 percent, while reducing the visual auditing workload to just 3 percent of the target area. The current code is available
at https://github.com/DiMorten/deforestation_uncertainty.
|
283 |
[en] A STOCHASTIC PROGRAMMING MODEL FOR THE STRATEGIC PLANNING OF THE OIL SUPPLY CHAIN / [pt] MODELO DE PROGRAMAÇÃO ESTOCÁSTICA PARA O PLANEJAMENTO ESTRATÉGICO DA CADEIA INTEGRADA DE PETRÓLEOGABRIELA PINTO RIBAS 06 October 2008 (has links)
[pt] A indústria do petróleo é uma das mais importantes e
dinâmicas do Brasil. Em uma indústria naturalmente
integrada como a petrolífera, é necessário um
adequado planejamento estratégico da cadeia integrada de
petróleo que contemple todos os seus processos, como a
produção de petróleo, refino, distribuição e
comercialização de derivados. Além disso, a indústria de
petróleo está suscetível a diversas incertezas relacionadas
a preço de petróleo e derivados, oferta de óleo
bruto e demanda de produtos. Em face destas oportunidades e
desafios, foi desenvolvido no âmbito desta dissertação um
modelo de programação estocástica para o planejamento
estratégico da cadeia de petróleo brasileira. O modelo
contempla as refinarias e suas unidades de processos, as
propriedades dos petróleos e derivados, a logística
nacional e decisões de comercialização de petróleo e
derivados, incluindo incertezas associadas a preço de
mercado, produção de petróleo nacional e demanda interna de
derivados. A partir do modelo estocástico foram formulados
um modelo robusto e um modelo MinMax no intuito de comparar
o desempenho e a qualidade da solução estocástica. Os
modelos propostos foram aplicados a um exemplo real, com 17
refinarias e 3 centrais petroquímicas que processam 50
produtos intermediários, destinados a produção de 10
derivados associados à demanda nacional, 8 campos de
exploração de petróleo, 14 produtores gás natural, 1
produtor de óleo vegetal, 13 terminais, 4 bases de
distribuição e 278 arcos de transporte. Na análise de
resultados foram utilizadas medidas como Valor Esperado da
Informação Perfeita (EVPI) e Valor da Solução Estocástica
(VSS). / [en] The oil industry is one of the most important and dynamic
in Brazil. As the oil industry naturally integrated, we
need an appropriate strategic planning to the oil supply
chain that consider all its processes, such as oil
production, refining, distribution and refined products
marketing. Moreover, the oil industry is
susceptible to various uncertainties regarding the oil and
products price, crude oil supply and products demand. In
light of these opportunities and challenges, it
was developed in this dissertation a stochastic programming
model for the strategic planning of the Brazilian oil
supply chain. The model includes refineries and process
units, oils and their products properties, logistics and
national marketing decisions of oil and products, including
uncertainties associated with market price, oil domestic
production and refined products domestic demand.
Based on the stochastic model a robust model and a MinMax
model were formulated in order to compare the performance
and quality of the stochastic solution. The proposed models
were applied to a real example, with 17 refineries
and 3 petrochemical power plants that process 50
intermediate products, intended to production of 10 final
products associated to national demand, 8 oil fields, 14
natural gas producers, 1 vegetal oil producer, 13
terminals, 4 delivery points and 278 arches of transport.
In the results analysis was used as measures the Expected
Value of Perfect Information (EVPI) and the Value of the
Stochastic Solution (VSS).
|
284 |
Axiomatic choice under uncertainty: a history of von Neumann and Morgenster\'s theory of games / Escolha sob incerteza axiomática: uma história do theory of games de Von Neumann e MorgensternGraciani, Marcos Thiago 17 June 2019 (has links)
This dissertation studies the immediate reception of von Neumann and Morgenstern\'s Theory of Games and Economic Behavior. It focuses on how economists (and other scientists, such as mathematicians) reacted to von Neumann and Morgenstern\'s axiomatization of expected utility theory. Such study employs book reviews the Theory of Games received, articles authored by mathematically-proficient readers who followed von Neumann and Morgenstern\'s lead of axiomatizing choice under uncertainty, and articles that cited the later. The main conclusions are threefold. First, to understand the history of the Theory of Games\' reception it is unavoidable to consider how secondary sources acted as disseminators of its premises, results, and method. Second, many skilled authors reflected on von Neumann and Morgenstern\'s book. Most economists who used that literature in an axiomatic framework cited such contributions to borrow and adapt assumptions. Those who applied results directly generally used less-sophisticated mathematical tools and were not proof-driven. Third, while the independence axiom is a necessary condition for expected utility theory, economists struggled to understand how von Neumann and Morgenstern used it. It was not clear where the Theory of Games hid that assumption. After economists discovered the independence axiom, they did not find an immediate use for it / Esta dissertação estuda a recepção imediata do Theory of Games and Economic Behavior, de von Neumann e Morgenstern. Seu foco reside em como economistas (e outros cientistas, tais como matemáticos) reagiram à axiomatização da teoria de utilidade esperada composta por von Neumann e Morgenstern. Tal estudo se vale de resenhas do Theory of Games, artigos autorados por leitores proficientes em matemática que seguiram a deixa dos autores de axiomatizar teoria de escolha sob incerteza e, por fim, artigos cujas citações incluem trabalhos destes leitores habilidosos. Há três conclusões principais. Primeiro, para entender a história de recepção do Theory of Games, é importante considerar que fontes secundárias agiram como disseminadores de premissas, resultados e o próprio método do Theory of Games. Segundo, muitos leitores capazes refletiram sobre o livro de von Neumann e Morgenstern. A maioria dos que usaram tal literatura a fizeram de acordo com o método axiomático, citanto aqueles artigos para reproduzir ou adaptar hipóteses. Dentre os que os citaram para aplicar seus resultados diretamente usaram ferramentas matemáticas menos sofisticadas e não tinham como objetivo a produção de demonstrações formais, em geral. Terceiro, enquanto o axioma de independência é uma condição necessária para a teoria de utilidade esperada, economistas tiveram dificuldades em compreender como von Neumann e Morgenstern usaram-no. Não estava claro para eles onde o Theory of Games o havia escondido. Uma vez que os economistas descobriram o axioma, não encontraram uso imediato para ele
|
285 |
[en] METHODOLOGY FOR DETERMINING THE POTENTIAL MARKET OF A MICROTURBINE BASED COGENERATION SYSTEM FOR ELECTRIC ENERGY AND HOT WATER PRODUCTION / [pt] METODOLOGIA PARA DETERMINAÇÃO DO MERCADO POTENCIAL DE UM SISTEMA DE COGERAÇÃO COM MICROTURBINA PARA PRODUÇÃO DE ENERGIA ELÉTRICA E ÁGUA QUENTEJOAO VIEIRA DE ARAUJO 11 October 2007 (has links)
[pt] O uso seqüencial de energia elétrica e energia térmica a
partir da energia química
do mesmo combustível tem sido estudado para melhorar o
custo benefício de uma
geração distribuída. O objetivo deste estudo é determinar
o mercado potencial desta
tecnologia na região de influência da concessionária local
de energia elétrica. Para
alcançar este objetivo, foi necessário avaliar o
desempenho de um sistema de cogeração
com uma microturbina fornecendo potência elétrica e
energia térmica através dos gases
de exaustão que aquecem água para o ginásio esportivo da
PUC-Rio. O sistema está
configurado por uma microturbina, uma caldeira de
recuperação, um reservatório térmico
(boiler) e uma caixa para alimentação de água fria.
Resultados obtidos de testes de curta
duração, através de uma metodologia desenvolvida, para a
avaliação do desempenho do
sistema de cogeração na produção de energia elétrica e
térmica, são apresentados. Os
testes foram realizados para potências elétricas de 100,
75, 50 e 25 % da carga máxima da
microturbina. Em adição, testes para avaliação do
desempenho ao longo do tempo em
função das variações da carga e das condições ambientais
foram estudados. Além disso,
através de uma metodologia desenvolvida, mostram-se os
resultados nos cálculos de
incerteza dos parâmetros analisados. Dados de consumo de
energia elétrica em janeiro de
2003, de cerca de 8000 consumidores na área de concessão
da LIGHT SESA, em
diferentes classes tarifárias, atualizadas para 2007,
foram utilizados com a metodologia
desenvolvida para estimar o mercado potencial de energia
elétrica na região de influência
da concessionária local de energia elétrica em 384,5 MW e
20415 MWh/mês,
considerando uma taxa interna de retorno mínimo de 15%
a.a. Foi mostrado que o
elevado custo da microturbina é uma barreira para sua
introdução no mercado. Entretanto,
a cogeração pode colaborar substancialmente para melhorar
o custo benefício. Estas
conclusões foram obtidas a partir do tempo de retorno do
investimento no sistema pelos
consumidores analisados. / [en] The sequential use of electric energy and thermal energy
from the chemical energy
of the same fuel has been studied to improve the cost
benefit of a distributed generation.
The objective of this study is to evaluate the potential
market of this technology in the
region of influence of the local utility of electric
energy.utility company (LIGHT). In
order to attain this objective, it was necessary to
evaluate the performance of a micro
turbine based cogeneration system used for supplying
electrical and thermal energy to
PUC-RIO´S Gymnasium. The system consists of a
microturbine, a heat recovery boiler,
and a cold water feeding reservoir. The short duration
test results are presented for the
evaluation of the cogeneration system performance for the
production of electric and
thermal energy. The tests were carried on for 100, 75, 50
and 25% micro turbine electric
energy generation loads. Time performance of the micro
turbine was also studied.
Moreover, a methodology was shown to calculate the
uncertainty of measurements of
several performance parameters. The micoturbine marked
potential was estimated by
analyzing the consumption of about 8000 clients in January
2003, updating the tariffs to
2007, resulting in 384,5 MW and 20415 MWh/month,
considering a minimum internal
rate of return of investiment of 15% per year, during a 15
year period. It was concluded
that the microturbine cost is still a barrier to its
market penetration. Cogeneration can be
used to improve the cost benefit of the system.
|
286 |
[en] CONTRIBUTIONS FOR THE STRENGTHENING OF THE BRAZILIAN NATIONAL LABORATORY OF TIME AND FREQUENCY / [pt] CONTRIBUIÇÕES PARA O FORTALECIMENTO DO LABORATÓRIO NACIONAL BRASILEIRO DE METROLOGIA DE TEMPO E FREQÜÊNCIAJOSE LUIZ MACHADO KRONENBERG 13 December 2007 (has links)
[pt] Objetivos: três são os objetivos centrais da presente
pesquisa de mestrado em
metrologia: (i) no âmbito da missão institucional da
Divisão Serviço da Hora (DSHO)
do Observatório Nacional (ON), desenvolver um diagnóstico
da melhor capacidade de
medição e do sistema da qualidade do Laboratório Primário
de Tempo e Freqüência
(LPTF); (ii) à luz das práticas internacionais, calcular e
expressar as incertezas de
medição associadas à realização e disseminação das
unidades de tempo e freqüência em
âmbito nacional; (iii) em atendimento às exigências do
Acordo de Reconhecimento
Mútuo celebrado pelo Brasil no âmbito da Convenção do
Metro, preparar e
disponibilizar a declaração da melhor capacidade de
medição (CMC) do LPTF, na base
de dados do Bureau International des Poids et Mesures
(BIPM).
Motivação: a presente pesquisa de mestrado foi motivada
pela necessidade de
se: (i) formalizar a melhor capacidade de medição na base
internacional de dados Key
Comparison Data Base (KCDB) do Bureau International des
Poids et Mesures (BIPM);
(ii) adequar a nova estrutura do DSHO/ON às instalações da
recém-construída infraestrutura
laboratorial; (iii) estabelecer a rastreabilidade nacional
em TF para atender à
nova formulação introduzida pelo BIPM (método AV); (iv)
implementar o Plano de
Ações para melhoria do Sistema da Qualidade da DSHO, pré-
condição ao
reconhecimento nacional e internacional da metrologia
brasileira em TF.
Contextualização: em Metrologia, as comparações
interlaboratoriais
constituem-se em prática e exigências para se garantir
padronização e a confiança mútua
nos processos de desenvolvimento e aprimoramento de
métodos e processos de
medição. A medição e difusão da grandeza tempo (data-hora)
necessitam rastreabilidade
permanente e contínua ao padrão mundial, impondo aos
laboratórios que participam da
cadeia de rastreabilidade uma responsabilidade e
dificuldade operacional para
manutenção ininterrupta deste serviço. A melhoria e
manutenção do Sistema da
Qualidade, a caracterização das incertezas de medição e a
divulgação desses dados junto aos foros internacionais por
meio do BIPM constituem responsabilidades da missão
institucional do Laboratório Primário de Tempo e
Freqüência.
Metodologia: o trabalho desenvolveu-se em conformidade aos
seguintes
preceitos metodológicos: (i) diagnóstico e caracterização
dos padrões (primários e
secundários), equipamentos e sistemas de medição
disponíveis; (ii) identificação das
variáveis críticas dos sistemas de medição, com vistas à
determinação das incertezas a
elas associadas, tendo como referência o Guide to the
Expression of Uncertainty in
Measurement (GUM) e a Variância de Allan (avaliação da
estabilidade de osciladores);
(iii) caracterização da estrutura da rastreabilidade
brasileira em tempo e freqüência e
definição do seu status junto ao BIPM (formalizado
mensalmente pela sua Circular-T);
(iv) caracterização da melhor capacidade de medição do
LPTF, para torná-la disponível
na base de dados KCDB do BIPM.
Resultados: à luz das práticas internacionais, os
seguintes resultados foram
consolidados: (i) expressão das incertezas de medição
associadas à realização e
disseminação das unidades de Tempo e Freqüência do LPTF do
Brasil; (ii) expressão e
padronização da melhor capacidade de medição em TF do LPTF
para inclusão na base
de dados internacional KCDB do BIPM; (iii) caracterização
e equacionamento de
questões críticas dos processos de calibração que afetam a
melhor capacidade de
medição e do Sistema da Qualidade da DSHO.
Conclusões: com base numa avaliação crítica do sistema
instalado, o presente
trabalho contribuiu para a consolidação de um sistema de
metrologia primária de TF
mais robusto no Brasil, viabilizando a implementação
operacional de novos padrões e
equipamentos, rotinas de monitorament / [en] Objectives: the three main objectives of the present
research project are as
follows: (i) to develop a diagnosis of the best
calibration and measuring capability and
the quality system of the Brazilian National Time and
Frequency Primary Laboratory (
LPTF ) of the Time Service Division ( DSHO ) of the
National Observatory (ON) ; (ii)
to calculate and express, in accordance with international
practices, the measuring
uncertainties associated with the achievement and
dissemination of the time and
frequency units within the country and (iii) to prepare
and make available the
declaration of the best calibration and measurement
capability (CMC) of the LPTF
according to the database of the Bureau International des
Poids et Measures (BIPM) as
required by the Mutual Recognition Agreement (signed by
Brazil within the scope of
the Convention of the Metre).
Motivation: several factors motivated this master´s degree
research project: (i)
the necessity of making available the best calibration and
measurement capability
according with the international Key Comparison Data Base
(KCDB ) of the Bureau
International de Poids et Measures (BIPM); (ii) the need
to adapt the new structure of
the Time Service Division (DSHO) of the National
Observatory (ON) to the recently
built laboratory infrastructure; (iii) the necessity of
establishing a national traceability of
TF according to the new format introduced by the BIPM (AV
method) and (iv) the
urgent need to implement the Action Plan to improve the
Quality System of the
DSHO, a pre-established condition to both, national and
international recognition.
Context: In metrology, interlaboratory comparisons are
common practice. This
is the recommended procedure to guarantee standardization
and mutual recognition in
the development and improvement of methods of measurement.
Measurement and
dissemination of time (date-hour), in particular, requires
continuous and permanent
traceability to international standards as they impose to
time and frequency laboratories
an uninterrupted provision of this service. The
improvement and surveillance of the
Quality System, the characterization of the measuring
uncertainties and dissemination of time and frequency data
to the relevant international fora to meet BIPM
requirements
constitute responsibilities of the institutional mission
of any Primary Time and
Frequency Laboratory.
Methodology: the present work was developed in accordance
with the
following methodological principles: (i) diagnosis and
characterization of the standards
(primary and secondary), equipment and measuring systems
available at the LPTF; (ii)
identification of the critical variables of the measuring
systems to determine the
uncertainties associated with the measuring of time and
frequency, having the Guide to
the Expression of Uncertainty in Measurement (GUM) and the
Allan Variance
(oscillators stability evaluation) as reference; (iii)
characterization of the Brazilian time
and frequency traceability structure and its formalization
in accordance with the
monthly formalized BIPM Circular-T; (iv) characterization
of the CMC of the LPTF to
make it available at the KCDB of the BIPM.
Results: according to international practices, the
following results were
consolidated: (i) expression of the measuring
uncertainties associated to the realization
and dissemination of time and frequency; (ii) expression
and standardization of the best
calibration and measuring capability in time and frequency
of the LPTF to be included
in the BIPM Key Comparison Data Base; (iii)
characterization and understanding of
critical issues inherent to calibration processes which
directly affect the best
measurement capability and the Quality System of the DSHO.
Conclusion: based on a critical evaluation of the
metrological system in place,
the present work has contributed to the consolidation of a
more robust primary system
of time and frequency in Brazil. Such system allows for
the
|
287 |
Processos de decisão Markovianos fatorados com probabilidades imprecisas / Factored Markov decision processes with Imprecise Transition ProbabilitiesDelgado, Karina Valdivia 19 January 2010 (has links)
Em geral, quando modelamos problemas de planejamento probabilístico do mundo real, usando o arcabouço de Processos de Decisão Markovianos (MDPs), é difícil obter uma estimativa exata das probabilidades de transição. A incerteza surge naturalmente na especificação de um domínio, por exemplo, durante a aquisição das probabilidades de transição a partir de um especialista ou de dados observados através de técnicas de amostragem, ou ainda de distribuições de transição não estacionárias decorrentes do conhecimento insuficiente do domínio. Com o objetivo de se determinar uma política robusta, dada a incerteza nas transições de estado, Processos de Decisão Markovianos com Probabilidades Imprecisas (MDP-IPs) têm sido usados para modelar esses cenários. Infelizmente, apesar de existirem diversos algoritmos de solução para MDP-IPs, muitas vezes eles exigem chamadas externas de rotinas de otimização que podem ser extremamente custosas. Para resolver esta deficiência, nesta tese, introduzimos o MDP-IP fatorado e propomos métodos eficientes de programação matemática e programação dinâmica que permitem explorar a estrutura de um domínio de aplicação. O método baseado em programação matemática propõe soluções aproximadas eficientes para MDP-IPs fatorados, estendendo abordagens anteriores de programação linear para MDPs fatorados. Essa proposta, baseada numa formulação multilinear para aproximações robustas da função valor de estados, explora a representação fatorada de um MDP-IP, reduzindo em ordens de magnitude o tempo consumido em relação às abordagens não-fatoradas previamente propostas. O segundo método proposto, baseado em programação dinâmica, resolve o gargalo computacional existente nas soluções de programação dinâmica para MDP-IPs propostas na literatura: a necessidade de resolver múltiplos problemas de otimização não-linear. Assim, mostramos como representar a função valor de maneira compacta usando uma nova estrutura de dados chamada de Diagramas de Decisão Algébrica Parametrizados, e como aplicar técnicas de aproximação para reduzir drasticamente a sobrecarga computacional das chamadas a um otimizador não-linear, produzindo soluções ótimas aproximadas com erro limitado. Nossos resultados mostram uma melhoria de tempo e até duas ordens de magnitude em comparação às abordagens tradicionais enumerativas baseadas em programação dinâmica e uma melhoria de tempo de até uma ordem de magnitude sobre a extensão de técnicas de iteração de valor aproximadas para MDPs fatorados. Além disso, produzimos o menor erro de todos os algoritmos de aproximação avaliados. / When modeling real-world decision-theoretic planning problems with the framework of Markov Decision Processes(MDPs), it is often impossible to obtain a completely accurate estimate of transition probabilities. For example, uncertainty arises in the specification of transitions due to elicitation of MDP transition models from an expert or data, or non-stationary transition distributions arising from insuficient state knowledge. In the interest of obtaining the most robust policy under transition uncertainty, Markov Decision Processes with Imprecise Transition Probabilities (MDP-IPs) have been introduced. Unfortunately, while various solutions exist for MDP-IPs, they often require external calls to optimization routines and thus can be extremely time-consuming in practice. To address this deficiency, we introduce the factored MDP-IP and propose eficient mathematical programming and dynamic programming methods to exploit its structure. First, we derive eficient approximate solutions for Factored MDP-IPs based on mathematical programming resulting in a multilinear formulation for robust maximin linear-value approximations in Factored MDP-IPs. By exploiting factored structure in MDP-IPs we are able to demonstrate orders of magnitude reduction in solution time over standard exact non-factored approaches. Second, noting that the key computational bottleneck in the dynamic programming solution of factored MDP-IPs is the need to repeatedly solve nonlinear constrained optimization problems, we show how to target approximation techniques to drastically reduce the computational overhead of the nonlinear solver while producing bounded, approximately optimal solutions. Our results show up to two orders of magnitude speedup in comparison to traditional at dynamic programming approaches and up to an order of magnitude speedup over the extension of factored MDP approximate value iteration techniques to MDP-IPs while producing the lowest error among all approximation algorithm evaluated.
|
288 |
Tomada de decisão sequencial com preferências parcialmente ordenadas. / Sequential decision making with partially ordered preferences.Kikuti, Daniel 20 August 2008 (has links)
Nesta tese, exploramos tomada de decisão com preferências parcialmente ordenadas: dadas duas ações, o indivíduo pode preferir uma ação a outra, julgá-las equivalentes, ou julgá-las incomparáveis. Tais preferências são originárias da incerteza sobre determinados estados do modelo de decisão e são reveladas pela imprecisão nos valores de probabilidade. Investigamos seis critérios de escolha de estratégias em problemas de decisão seqüenciais, representados por árvores de decisão e diagramas de influência, com probabilidades imprecisas: T-maximin, T-maximax, T-maximix, Dominação por Intervalos, Maximalidade e E-admissibilidade. Apresentamos novos algoritmos que geram estratégias para todos estes critérios. As principais contribuições deste trabalho estão na implementação dos algoritmos e na análise, sob o ponto de vista computacional, dos diversos critérios considerados como racionais em situações de incerteza representada por conjuntos de probabilidades. / In this thesis we explore situations where preferences are partially ordered: given two acts, the agent may prefer one to another, or nd them to be equivalent, or nd them to be incomparable. Such preferences stem from the uncertainty associated to some states of the decisions model and are revealed by imprecision in probability values. We investigate six criteria for strategy selection in decision trees and inuence diagrams with imprecise probabilities: -maximin, -maximax, -maximix, Interval Dominance, Maximality and E-admissibility. We present new algorithms that generate strategies for all these criteria. The main contributions of this work are twofold: the implementation of these algorithms and the analysis, under the computational point of view, of the criteria considered ratio- nal in uncertain situations represented by set of probabilities.
|
289 |
Propensão ao risco diante de contextos de imprevisibilidade: uma análise do comportamento humano pela abordagem evolucionista / Risk taking in unpredictability contexts: a human behavioral analysis within an evolutionary frameworkRodrigues, Anna Beatriz Carnielli Howat 07 February 2014 (has links)
A perspectiva evolucionista entende a propensão humana ao risco como estratégia comportamental selecionada para responder a certas dicas ambientais e individuais sobre a disponibilidade de recursos. Dentre as dicas ambientais, a imprevisibilidade é um dos aspectos mais influentes na propensão ao risco. No entanto, não há consenso sobre a importância da imprevisibilidade real do ambiente atual ou de um viés perceptivo sobre a imprevisibilidade, construído ao longo do desenvolvimento. Além disso, é importante considerar o estudo destas relações de forma multidimensional, a fim de se analisar os vários aspectos que influenciam o risco (social, cultural, individual e contextual) e a imprevisibilidade (perceptiva, objetiva e contextual). Esta tese teve como objetivos: (1) comparar diferentes instrumentos/metodologias de mensuração do risco relacionadas a diferentes formas de envolvimento do participante em situação de tomada de decisão; (2) investigar as relações da percepção de imprevisibilidade do ambiente infantil, da percepção de imprevisibilidade do ambiente atual e da imprevisibilidade objetiva do ambiente atual com as taxas de propensão ao risco; e (3) diferenciar grupos sexuais e grupos experimentais de imprevisibilidade contextual imediata manipulada quanto à variação das taxas de propensão ao risco. Esta pesquisa constou de etapa de construção de instrumento de ativação contextual (a partir de grupos focais; n=35), etapa de pré-teste (n=46) e etapa de coleta propriamente dita (n=211). Tanto no pré-teste quanto na coleta de dados foram usados os mesmos instrumentos: além de questionário sociodemográfico e questionário sobre marcos futuros, usamos instrumentos de imprevisibilidade (EIFI, dados objetivos e ativação contextual por meio de vídeos) e de propensão ao risco (EPRE, jogo driving a car e jogo de cartas). A coleta ocorreu individualmente em setting experimental, com grupos amostrais: 120 participantes eram mulheres (m=21,60 anos; dp=2,19) e 91 eram homens (m=21,46 anos; dp=2,0); 74 participantes compuseram o grupo somático, 78 o grupo reprodutivo e 59 o grupo controle. Os resultados apoiaram a hipótese da relação entre a percepção de imprevisibilidade na infância e a propensão ao risco em etapas mais maduras da vida. Entretanto, esta relação é acompanhada de outros fatores diretamente, tal como a expectativa de vida, e indiretamente, tais como a imprevisibilidade objetiva atual, a percepção de imprevisibilidade atual reprodutiva e o lócus de controle externo. Médias de risco foram diferenciadas por características sexuais, enquanto características contextuais diferenciam a estratégia de resposta ao risco, ou seja, sob ativação contextual o indivíduo recorre mais fortemente à percepção de imprevisibilidade infantil para responder à propensão ao risco do que à expectativa de vida. Além disso, este trabalho contribuiu para a construção e desenvolvimento de instrumentos válidos para o estudo da propensão ao risco voltados para população brasileira / According to the Evolutionary Theory, risk-taking is an evolved behavioral strategy to deal with individual and environmental cues about the availability of resources. Among the environmental cues, unpredictability is one of the most influential on risk-taking. However, there is no consensus whether the actual unpredictability of the current environment or a developmentally acquired perceptual bias of the unpredictability is more important. Furthermore, it is important to consider the study of these relationships in a multidimensional way in order to analyze the various aspects that influence risk (social, cultural, individual and contextual) and unpredictability (perceptive, objective and contextual). This project aimed at: (1) comparing different risk-taking instruments/measures related to different forms of participant involvement in decision-making situations; (2) investigating the relationships between perception of unpredictability in the childhood, perception of unpredictability in current life and objective unpredictability with risk-taking; and (3) differentiating gender and experimental groups with handling contextual unpredictability on risk-taking averages. This research included a phase for the development of an activation of unpredictability instrument (from focus groups, n = 35), stage of pre-test (n=46), and stage of data collection (n=211). Both for the pre-test and for data collection the same instruments were used: a sociodemographic questionnaire, a questionnaire of future milestones, instruments of unpredictability (EIFI, objective data and contextual activation through videos), and instruments of risk-taking (EPRE, game driving a car and cards game). Data collection occurred individually in experimental setting with sample groups: 120 participants were women (mean = 21.60 years, sd= 2.19) and 91 were men (m= 21.46 years, sd=2.0); 74 participants in the somatic group, 78 in the reproductive group and 59 in the control group. The results supported the hypothesized relationship between early childhood perception of unpredictability and risk-taking in mature stages of life. However, this relationship is directly accompanied by other factors, such as life expectancy, and indirectly, such as the objective unpredictability, perception of current reproductive unpredictability and external locus of control. Risk-taking means were differentiated by sex, while contextual characteristics differentiated the strategy of risk response, i.e., under contextual activation individuals use more strongly the childhood perception of unpredictability to respond to risk-taking than to life expectancy. Furthermore, this study has contributed to the construction and development of valid instruments for the study of risk-taking in the Brazilian population
|
290 |
Validação do método de análise por ativação com nêutrons para determinação de urânio em amostras ambientais / Validation of neutron activation analysis for uranium determination in environmental samplesLima, Nicole Pereira de 12 September 2018 (has links)
O urânio (U) é considerado um elemento poluente do ambiente devido à sua toxicidade química e radiológica, com propriedades cumulativas em seres humanos, podendo causar diversos tipos de doenças no organismo. Consequentemente, há um grande interesse na determinação de U em amostras ambientais devido às ações antrópicas como as emissões desse elemento na mineração, nas indústrias e em acidentes nucleares que ocasionam alterações dos seus teores no meio ambiente. Dentre as diversas metodologias analíticas para a determinação de U em amostras ambientais, destaca-se a análise por ativação com nêutrons devido à sua alta sensibilidade e rapidez na análise. O objetivo deste trabalho foi validar o método para a determinação de U em amostras de biomonitores de cascas de árvores e bromélias, por meio dos procedimentos de análise instrumental por ativação com nêutrons térmicos (INAA) e análise por ativação com nêutrons epitérmicos (ENAA) ambos com irradiações de curta e longa duração no reator nuclear IEA-R1. Para a validação dos resultados com relação à precisão e à exatidão, foram analisados 11 materiais de referência certificados (MRCs), cujos dados foram avaliados por meio dos valores de Z score e de HorRat. Os procedimentos experimentais consistiram na irradiação térmica e epitérmica de amostras e de padrões de U por períodos de curta e longa duração, seguida de espectrometria de raios gama usando detector de Ge hiperpuro de alta resolução. Os resultados obtidos para a estimativa da incerteza padrão combinada da fração mássica de U, em uma amostra de casca de árvore, mostraram que a fonte de incerteza que mais contribuiu foi a estatística de contagem e o procedimento que apresentou a menor incerteza nos resultados foi a ENAA de longa duração. Os resultados dos MRCs apresentaram, na maioria dos casos, boa precisão e exatidão e as frações mássicas de U determinadas nas cascas de árvores e bromélias apresentaram resultados reprodutíveis. Dentre os quatro procedimentos estudados, a ENAA de longa e curta duração permitiu, em geral, a quantificação de U nas amostras dos materiais analisados. A INAA de longa e de curta duração nem sempre foi efetiva na determinação de U devido ao problema de interferência espectral e do alto valor de limite de detecção. Os limites de detecção determinados pelos procedimentos estudados foram comparados e os menores valores foram obtidos pela ENAA de longa duração. Em virtude dos fatos mencionados, o procedimento mais indicado para a determinação de U nas amostras ambientais analisadas nesse trabalho foi a ENAA de longa duração devido aos seus baixos limites de detecção, boa precisão e exatidão dos resultados e redução do problema de interferência nas análises. / Uranium (U) is an element considered pollutant in the environment due to its radiological and chemical toxicity. This element may cause several kinds of diseases since it presents cumulative properties in the organism. Consequently, there is a great interest in the U determination in environmental samples that are affected by anthropic actions such as mining, industry and nuclear accidents. Among several analytical methodologies for U determination, neutron activation analysis is considered a sensitive and rapid method. The aim of this study was to validate the method of U determination using the procedures of thermal and epithermal neutron activation analysis (INAA and ENAA) with short and long period of irradiation in the IEA-R1 nuclear reactor for the analysis of biomonitor samples of tree barks and bromeliads. To validate the precision and accuracy of the results, 11 certified reference materials (CRMs) were analyzed. Experimental procedure consisted on irradiating aliquots of the samples and U synthetic standard for short and long period irradiations using thermal and epithermal neutrons, followed by gamma ray spectrometry. Results obtained on the evaluation of the sources of uncertainty showed that statistic of the counting rates was the most relevant in the combined uncertainty of the results. The ENAA using long period irradiation showed the lowest uncertainty. Results obtained in the CRMs showed good precision and accuracy for most of results. In the same way, outcomes obtained for bromeliad and tree bark samples also indicated good reproducibility. Among four procedures of neutron activation analysis, the ENAA using short and long irradiations, in general, allowed to quantify U in the samples analyzed in this study. The INAA using short and long irradiations did not always allow determining U due to the problem of spectral interference and high detection limits. The lowest detection limits for U determination were obtained by ENAA with long period of irradiation. By considering such facts, we conclude that the most appropriate method to determine U in environment sample was ENAA. This is due its low detection limits, good precision, accuracy and also because this method reduce interference in analysis.
|
Page generated in 0.0667 seconds