251 |
[en] OPERATION PLANNING OF UNBALANCED DISTRIBUTION SYSTEMS WITH DISTRIBUTED GENERATION CONSIDERING UNCERTAINTY IN LOAD MODELING / [pt] PLANEJAMENTO DA OPERAÇÃO DE SISTEMAS DE DISTRIBUIÇÃO DESEQUILIBRADOS COM GERAÇÃO DISTRIBUÍDA CONSIDERANDO INCERTEZA NA MODELAGEM DE CARGAMARIANA SIMOES NOEL DA SILVA 10 December 2020 (has links)
[pt] Os novos elementos conectados nos sistemas de distribuição de energia elétrica aumentam a complexidade do planejamento e operação destas redes. Os benefícios da implementação de técnicas clássicas, como Conservation Voltage Reduction (CVR), combinadas com uma operação coordenada dos recursos energéticos distribuídos, podem contribuir para o aumento de eficiência nos sistemas de distribuição de energia elétrica e reduzir o consumo de energia. Na técnica CVR, as tensões são reduzidas objetivando redução de picos de demanda e consumo de energia. Este trabalho propõe um modelo de otimização para o planejamento da operação do dia seguinte nos sistemas de distribuição de energia elétrica, considerando sistemas desequilibrados e com penetração de geração distribuída (GD) fotovoltaica. A técnica CVR será aplicada em uma abordagem determinística, estocástica e robusta, considerando a incerteza nos seus parâmetros e, consequente, na modelagem de carga. O modelo de otimização proposto considera a atuação de elementos de controle tradicionais, como transformador On Load Tap Changers (OLTC) na subestação e bancos de capacitores (BC), além de elementos modernos, como inversores fotovoltaicos inteligentes, para minimização do consumo de energia observado na subestação. O problema, fundamentalmente de programação não-linear inteira mista, é transformado em um problema de programação linear de natureza contínua. Os resultados são avaliados no sistema teste IEEE 123-barras para as diferentes estratégias modeladas. A economia de energia obtida foi significativa nas abordagens propostas, mas o modelo de otimização robusta se mostrou mais adequado para reduzir os riscos de violação de tensão. / [en] The new elements connected in electrical distribution systems increase the complexity of grids planning and operating. The benefits of classical techniques, such as Conservation Voltage Reduction (CVR), combined with a coordinated operation of distributed energy resources, can contribute to increasing efficiency and reducing energy consumption of the distribution systems. In the CVR technique, voltages are reduced in order to reduce peak demand and energy consumption. This paper proposes an optimization model for the day-ahead operation planning of unbalanced distribution systems with photovoltaic distributed generation (DG) penetration. The CVR technique will be applied in deterministic, stochastic and robust approach, considering the uncertainty in its parameters and consequently, in the load modeling. The proposed optimization model considers the operation of traditional control elements, such as On Load Tap Changers (OLTC) at substation and capacitor banks (CB), in addition to modern elements, such as intelligent photovoltaic inverters, to minimize the energy consumption at the substation. The problem, originally of mixed-integer nonlinear programming, is transformed into a continuous linear programming problem. The results are evaluated in the IEEE123-bus test system for the different optimization approaches. The energy savings obtained were significant in all the proposed approaches, but the robust optimization model proved to be more adequate since it reduces the risk of voltage violations.
|
252 |
[pt] ALGORITMO PRICE-AND-CUT COM 3-SRCS E ENUMERAÇÃO DE COLUNAS PARA O PROBLEMA DE ALOCAÇÃO GENERALIZADA / [en] PRICE-AND-CUT ALGORITHM WITH 3-SRCS CUTS AND COLUMN ENUMERATION FOR THE GENERALIZED ASSIGNMENT PROBLEMRAFAEL AZEVEDO MOSCOSO SILVA CRUZ 15 June 2021 (has links)
[pt] Esta dissertação estuda formulações, algoritmos e métodos exatos para resolver instâncias do Problema de Alocação Generalizada (PAG) com uma separação de desigualdades (3, 0.5)-SRC que viabilize a enumeração de colunas. Este trabalho é motivado pela perspectiva de alcançar o estado-da-arte com
resultados competitivos comparáveis às melhores soluções encontradas na literatura por Avella (2010) e Michelon (2012). A pesquisa abrange métodos exatos e heurísticas, com ênfase no estudo que aborda a decomposição de Dantzig-Wolfe, o algoritmo de geração de colunas, a estabilização de colunas
por meio da ponderação de duais proposto por Wentges (1997) e a enumeração de colunas habilitada pela minimização do gap decorrente do algoritmo de price-and-cut. O algoritmo de price-and-cut desenvolvido recorre à geração de colunas (pricing) aliada à separação de (3, 0.5)-SRCs para aumentar o lower bound gerado, assim minimizando o gap. A geração de colunas implementada é inspirada no algoritmo de Savelsbergh (1997); e a separação de (3, 0.5)-SRCs é motivada pelo trabalho de Jepsen (2008) e pelo algoritmo branch-cut-andprice proposto por Poggi e Uchoa (2016) para o CVRP. De acordo com os
experimentos computacionais, as desigualdades adotadas são capazes de reduzir o gap suficientemente para viabilizar a enumeração de colunas em diversas instâncias do PAG com até 200 tarefas e 20 máquinas. O método utilizado obteve resultados compatíveis às melhores soluções conhecidas, enumerando todas as colunas necessárias para cobrir o gap determinado pelo price-and-cut. Esse
resultado incentiva futuras pesquisas para estender a aplicação do algoritmo a instâncias maiores e mais difíceis. / [en] This dissertation deals with formulations, algorithms and exact methods for solving the well-known Generalized Assignment Problem (GAP) through a price-and-cut approach with the separation of (3, 0.5)-SRC inequalities in order to improve column enumeration feasibility and efficiency. This work is
motivated by the perspective of reaching state-of-the-art performance, attaining competitive results which are comparable with the best known solutions found in the literature by Avella (2010) and Michelon (2012). This research was build on exact methods and some heuristics with emphasis on the Dantzig-
Wolfe decomposition, the column generation algorithm, the stabilization through weighted Dantzig-Wolfe decomposition proposed byWentges (1997) and finally the column enumeration motivated by the gap minimization reached through the price-and-cut algorithm. The price-and-cut algorithm proposed here resort to column generation (pricing) combined with the separation of (3, 0.5)-SRC cuts in order to increase the generated lower bound, thus minimizing the attained gap. This column generation algorithm follows the work of Savelsbergh (1997); and the separation of (3, 0.5)-SRCs is formulated by Jepsen (2008) and motivated by the branch-cut-and-price algorithm proposed by Poggi and Uchoa (2016) for the CVRP. According to computational experiments, the adopted inequalities are capable of sufficiently reducing the gap, assuring the feasibility of column enumeration for several GAP instances with up to 200 tasks and 20 machines. This method achieved expressive results, compatible with the best known solutions, enumerating all the necessary columns to cover the gap found by the price-and-cut. Therefore, these results motivate future research towards the extension of the method s applicability to larger and more complex instances.
|
253 |
[en] METHODOLOGY FOR SIZING THE GENERAL CARGO GRID FLEET FOR APPLICATION IN A CONCESSIONAIRE IN THE RAILWAY SECTOR / [pt] METODOLOGIA PARA DIMENSIONAMENTO DE FROTA DA GRADE DE CARGA GERAL PARA APLICAÇÃO EM UMA CONCESSIONÁRIA DO SETOR FERROVIÁRIOPEDRO DUARTE GOMES TOSTES 11 February 2022 (has links)
[pt] A matriz brasileira de transporte retrata a dominância rodoviária sobre os demais modais, na movimentação de cargas no país. O aumento da eficiência operacional e redução de custos é fator que pode elevar a participação e competitividade dos trens nesse contexto. A aplicação de técnicas de otimização no processo de dimensionamento e planejamento operacional da frota de locomotivas
possui grande potencial de economia de recursos, principalmente devido aos seus elevados custos de aquisição e manutenção. O presente trabalho apresenta uma metodologia para obtenção de uma solução exata para um horizonte mensal de planejamento, aproveitando se do caráter cíclico da grade de formação dos trens de carga geral, para definir o tamanho ótimo da frota necessário ao seu adequado funcionamento. A metodologia, implementada em linguagem Python e aplicada em um cenário de uma grade conhecida, teve sua frota resultante comparada com o dimensionamento manual realizado em uma concessionária brasileira e foi capaz de indicar a redução de 2 locomotivas no planejamento de frota. Associada a esta redução, a economia de capital estimada seria entre 400 mil reais e 20 milhões de reais, para o cenário conservador de economia dos gastos de manutenção e para o cenário mais otimista evitando a aquisição de novas locomotivas. Além da redução de frota e aumento na competitividade tarifária dos trens de carga geral, a metodologia cria, por meio de critérios científicos, diretrizes objetivas para o processo de dimensionamento e planejamento da frota de locomotivas, em substituição ao processo empírico atualmente aplicado na referida concessionária. / [en] The Brazilian transport matrix presents the road dominance over other modes in the movement of cargo in the country. The increase in operational efficiency and cost reduction is a factor that can increase the participation and competitiveness of trains in this context. The application of optimi zation techniques in the
process of dimensioning and operational planning of the locomotive fleet has great potential for saving resources, mainly due to its high acquisition and maintenance costs. This work presents a methodology to obtain an exact soluti on for a monthly planning horizon, taking advantage of the cyclical character of the general freight trains timetables and defining the optimum fleet size necessary for its proper functioning. The methodology, implemented in Python language and applied in a scenario of a defined timetable had its resulting fleet compared with the manual sizing process carried out in a Brazilian dealership and was able to indicate the reduction of 2 locomotives in the fleet planning. Associated with this reduction, the est imated capital savings would be between 400 thousand reais and 20 million reais, for the conservative scenario of savings in maintenance costs and for the more optimistic scenario avoiding the acquisition of new locomotives. In addition to reducing the fleet and increasing the tariff competitiveness of general freight trains, the methodology creates, through scientific criteria, objective guidelines for the process of dimensioning and planning the locomotive fleet, replacing the empirical process currently applied in the aforementioned concessionaire.
|
254 |
[pt] PLANEJAMENTO DA EXPANSÃO DA TRANSMISSÃO COM CRITÉRIOS DE SEGURANÇA VIA ALGORITMO GENÉTICO ESPECIALIZADO / [en] TRANSMISSION EXPANSION PLANNING WITH SECURITY CRITERIA VIA SPECIALIZED GENETIC ALGORITHMIAMBERG SOUZA DA SILVA 12 January 2021 (has links)
[pt] A solução do problema de planejamento da expansão da transmissão (PET)
tem por objetivo geral identificar reforços a serem construídos na rede de forma a
garantir a adequada interligação entre carga e geração, previstos para um determinado
horizonte de estudo. No processo de solução desse problema, busca-se manter
o equilíbrio ótimo entre os custos envolvidos (investimento e operação) e os
níveis de qualidade e desempenho na operação do sistema reforçado. Nesse sentido,
é proposta nesta dissertação de mestrado uma ferramenta de otimização especializada
para solução do problema PET, a qual é baseada na técnica metaheurística
Algoritmo Genético. A ferramenta proposta, denominada Algoritmo Genético
Especializado (AGE-PET), faz uso de informações heurísticas fundamentadas em
análises atualizadas de fluxo de potência da rede realizadas durante o processo
evolutivo de solução do problema. Essas informações heurísticas são traduzidas
por meio de índices de sensibilidade, os quais são integrados aos operadores genéticos
inerentes à ferramenta, conduzindo a solução do problema na direção de planos
de expansão de boa qualidade. Para análise e validação da metodologia proposta,
é solucionado o problema PET estático de longo prazo, considerando o modelo
linearizado DC com perdas ôhmicas e atendimento do critério de segurança
N-1 para a rede de transmissão. Sistemas elétricos de transmissão com diferentes
características e dimensões, incluindo um subsistema atual da rede interligada
brasileira, são empregados nos estudos realizados. / [en] The main goal in the solution of the transmission expansion planning (TEP)
is to identify reinforcements to be built in the network in order to guarantee the
adequate interconnection between load and electric power generation, both foreseen
for a given future planning horizon. In the process of solving this problem,
the aim is to maintain the optimal balance between the costs involved (investment
and operation) and the levels of quality and performance in the operation of the
reinforced system. Thus, it is proposed in this dissertation a specialized optimization
tool for solving the TEP problem, which is based on the metaheuristic Genetic
Algorithm technique. The proposed tool, called Specialized Genetic Algorithm
(SGA-TEP), makes use of heuristic information based on updated network power
flow analyses carried out during the evolutionary process of solving the problem.
This heuristic information is translated by means of sensitivity indices, which are
integrated with the genetic operators inherent to the tool, leading to the solution of
the problem in the direction of good quality expansion plans. For analysis and
validation of the proposed methodology, the long-term static TEP problem is
solved, considering the linearized DC model with ohmic losses and the compliance
of the N-1 security criterion for the transmission network. Electric transmission
systems with different characteristics and dimensions, including a recent
subsystem of the Brazilian interconnected grid, are used in the case studies.
|
255 |
[pt] ESTIMATIVA DE PARÂMETROS DE RESERVATÓRIOS DE PETRÓLEO A PARTIR DE MODELO TRANSIENTE NÃO ISOTÉRMICO / [en] ESTIMATIVE OF PETROLEUM RESERVOIR PARAMETERS FROM NONISOTHERMAL TRANSIENT MODELWILLER PLANAS GONCALVES 19 May 2021 (has links)
[pt] Tradicionalmente, os testes de formação em poços de petróleo buscam caracterizar o campo de permeabilidades a partir da interpretação dos transientes de pressão (PTA) nos períodos de fluxo e estática baseados em modelos isotérmicos de escoamento em meios porosos. Com o avanço da instrumentação dos testes, registros mais precisos de temperatura passaram a estar disponíveis e fomentaram a pesquisa baseada em modelos não isotérmicos que possibilitaram a análise a partir dos transientes de temperatura (TTA). Além da caracterização de parâmetros do reservatório como permeabilidade e porosidade com a interpretação dos transientes de temperatura, os dados de pressão obtidos a partir de um modelo não isotérmico representa de forma mais fidedigna o fenômeno físico sobretudo quando os testes são submetidos a maiores diferenciais de pressão. Este trabalho consiste no desenvolvimento de um simulador para teste de formação que considera a modelagem não isotérmica de reservatório unidimensional radial acoplado a um poço produtor e na utilização deste simulador, associado a métodos de otimização multivariável, para resolução do problema inverso da caracterização de parâmetros do reservatório. Alguns métodos de otimização foram testados e o algoritmo do Simplex de Nelder-Mead apresentou melhor eficácia. Foram estabelecidos três tipos de problemas e utilizados em três casos hipotéticos considerando inclusive a imposição artificial de ruídos nos sinais de pressão e temperatura utilizados para resolução do problema inverso. / [en] Traditionally, oil well formation tests aim to characterize the reservoir permeability field from pressure transient analysis (PTA) of drawdown and build up based on isothermal flow models in porous media. With the advancement of well test instrumentation, more accurate temperature records became available and have encouraged researches based on non-isothermal models that made possible the temperature transient analysis (TTA). In addition to the characterization of reservoir parameters such as permeability and porosity by TTA, the pressure data obtained from a non-isothermal model represent better the physical phenomenon, especially when the tests are subjected to greater drawdowns. This work consists in the development of a simulator for formation test that considers non-isothermal modeling of a unidimensional radial reservoir coupled to a production well and in the use of this simulator, associated with multivariable optimization methods, to solve the inverse problem of reservoir parameters characterization. Some optimization methods were tested and the Nelder-Mead Simplex algorithm presented better efficiency. Three types of problems were established and used in three hypothetical cases, including artificially imposed noise in pressure and temperature signals used to solve the inverse problem.
|
256 |
[pt] CONJUNTOS ONLINE PARA APRENDIZADO POR REFORÇO PROFUNDO EM ESPAÇOS DE AÇÃO CONTÍNUA / [en] ONLINE ENSEMBLES FOR DEEP REINFORCEMENT LEARNING IN CONTINUOUS ACTION SPACESRENATA GARCIA OLIVEIRA 01 February 2022 (has links)
[pt] Este trabalho busca usar o comitê de algoritmos de aprendizado por
reforço profundo (deep reinforcement learning) sob uma nova perspectiva.
Na literatura, a técnica de comitê é utilizada para melhorar o desempenho,
mas, pela primeira vez, esta pesquisa visa utilizar comitê para minimizar a
dependência do desempenho de aprendizagem por reforço profundo no ajuste
fino de hiperparâmetros, além de tornar o aprendizado mais preciso e robusto.
Duas abordagens são pesquisadas; uma considera puramente a agregação de
ação, enquanto que a outra também leva em consideração as funções de valor.
Na primeira abordagem, é criada uma estrutura de aprendizado online com
base no histórico de escolha de ação contínua do comitê com o objetivo de
integrar de forma flexível diferentes métodos de ponderação e agregação para
as ações dos agentes. Em essência, a estrutura usa o desempenho passado para
combinar apenas as ações das melhores políticas. Na segunda abordagem, as
políticas são avaliadas usando seu desempenho esperado conforme estimado
por suas funções de valor. Especificamente, ponderamos as funções de valor do
comitê por sua acurácia esperada, calculada pelo erro da diferença temporal.
As funções de valor com menor erro têm maior peso. Para medir a influência do
esforço de ajuste do hiperparâmetro, grupos que consistem em uma mistura de
diferentes quantidades de algoritmos bem e mal parametrizados foram criados.
Para avaliar os métodos, ambientes clássicos como o pêndulo invertido, cart
pole e cart pole duplo são usados como benchmarks. Na validação, os ambientes
de simulação Half Cheetah v2, um robô bípede, e o Swimmer v2 apresentaram
resultados superiores e consistentes demonstrando a capacidade da técnica de
comitê em minimizar o esforço necessário para ajustar os hiperparâmetros dos
algoritmos. / [en] This work seeks to use ensembles of deep reinforcement learning algorithms from a new perspective. In the literature, the ensemble technique is
used to improve performance, but, for the first time, this research aims to use
ensembles to minimize the dependence of deep reinforcement learning performance on hyperparameter fine-tuning, in addition to making it more precise
and robust. Two approaches are researched; one considers pure action aggregation, while the other also takes the value functions into account. In the first
approach, an online learning framework based on the ensemble s continuous
action choice history is created, aiming to flexibly integrate different scoring
and aggregation methods for the agents actions. In essence, the framework
uses past performance to only combine the best policies actions. In the second approach, the policies are evaluated using their expected performance as
estimated by their value functions. Specifically, we weigh the ensemble s value
functions by their expected accuracy as calculated by the temporal difference
error. Value functions with lower error have higher weight. To measure the
influence on the hyperparameter tuning effort, groups consisting of a mix of
different amounts of well and poorly parameterized algorithms were created.
To evaluate the methods, classic environments such as the inverted pendulum,
cart pole and double cart pole are used as benchmarks. In validation, the Half
Cheetah v2, a biped robot, and Swimmer v2 simulation environments showed
superior and consistent results demonstrating the ability of the ensemble technique to minimize the effort needed to tune the the algorithms.
|
257 |
[en] AUTOMATED SYNTHESIS OF OPTIMAL DECISION TREES FOR SMALL COMBINATORIAL OPTIMIZATION PROBLEMS / [pt] SÍNTESE AUTOMATIZADA DE ÁRVORES DE DECISÃO ÓTIMAS PARA PEQUENOS PROBLEMAS DE OTIMIZAÇÃO COMBINATÓRIACLEBER OLIVEIRA DAMASCENO 24 August 2021 (has links)
[pt] A análise de complexidade clássica para problemas NP-difíceis é geralmente
orientada para cenários de pior caso, considerando apenas o comportamento
assintótico. No entanto, existem algoritmos práticos com execução em um tempo razoável para muitos problemas clássicos. Além disso, há evidências que apontam para algoritmos polinomiais no modelo de árvore de decisão linear para resolver esses problemas, embora não muito explorados. Neste trabalho, exploramos esses resultados teóricos anteriores. Mostramos que a solução ótima para problemas combinatórios 0-1 pode ser encontrada reduzindo esses problemas para uma Busca por Vizinho Mais Próximo sobre o conjunto de vértices de Voronoi correspondentes. Utilizamos os hiperplanos que delimitam essas regiões para gerar sistematicamente uma árvore de decisão que repetidamente divide o espaço até que possa separar todas as soluções, garantindo uma resposta ótima. Fazemos experimentos para testar os limites de tamanho para os quais podemos construir essas árvores para os casos do 0-1 knapsack, weighted minimum cut e symmetric traveling salesman. Conseguimos encontrar as árvores desses problemas com tamanhos até 10, 5 e 6, respectivamente. Obtemos também as relações de adjacência completas para os esqueletos dos politopos do knapsack
e do traveling salesman até os tamanhos 10 e 7. Nossa abordagem supera
consistentemente o método de enumeração e os métodos baseline para o weighted
minimum cut e symmetric traveling salesman, fornecendo soluções ótimas em
microssegundos. / [en] Classical complexity analysis for NP-hard problems is usually oriented to
worst-case scenarios, considering only the asymptotic behavior. However, there
are practical algorithms running in a reasonable time for many classic problems. Furthermore, there is evidence pointing towards polynomial algorithms in
the linear decision tree model to solve these problems, although not explored
much. In this work, we explore previous theoretical results. We show that the
optimal solution for 0-1 combinatorial problems can be found by reducing these
problems into a Nearest Neighbor Search over the set of corresponding Voronoi
vertices. We use the hyperplanes delimiting these regions to systematically generate a decision tree that repeatedly splits the space until it can separate all solutions, guaranteeing an optimal answer. We run experiments to test the size limits for which we can build these trees for the cases of the 0-1 knapsack, weighted minimum cut, and symmetric traveling salesman. We manage to find the trees of these problems with sizes up to 10, 5, and 6, respectively. We also obtain the complete adjacency relations for the skeletons of the knapsack and traveling salesman polytopes up to size 10 and 7. Our approach consistently outperforms the enumeration method and the baseline methods for the weighted minimum cut and symmetric traveling salesman, providing optimal solutions within microseconds.
|
258 |
[en] CONSERVATIVE-SOLUTION METHODOLOGIES FOR STOCHASTIC PROGRAMMING: A DISTRIBUTIONALLY ROBUST OPTIMIZATION APPROACH / [pt] METODOLOGIAS PARA OBTENÇÃO DE SOLUÇÕES CONSERVADORAS PARA PROGRAMAÇÃO ESTOCÁSTICA: UMA ABORDAGEM DE OTIMIZAÇÃO ROBUSTA À DISTRIBUIÇÕESCARLOS ANDRES GAMBOA RODRIGUEZ 20 July 2021 (has links)
[pt] A programação estocástica dois estágios é uma abordagem
matemática amplamente usada em aplicações da vida real, como planejamento
da operação de sistemas de energia, cadeias de suprimentos,
logística, gerenciamento de inventário e planejamento financeiro. Como
a maior parte desses problemas não pode ser resolvida analiticamente,
os tomadores de decisão utilizam métodos numéricos para obter uma
solução quase ótima. Em algumas aplicações, soluções não convergidas
e, portanto, sub-ótimas terminam sendo implementadas devido a limitações
de tempo ou esforço computacional. Nesse contexto, os métodos
existentes fornecem uma solução otimista sempre que a convergência
não é atingida. As soluções otimistas geralmente geram altos níveis
de arrependimento porque subestimam os custos reais na função objetivo
aproximada. Para resolver esse problema, temos desenvolvido duas
metodologias de solução conservadora para problemas de programação
linear estocástica dois estágios com incerteza do lado direito e suporte retangular:
Quando a verdadeira distribuição de probabilidade da incerteza
é conhecida, propomos um problema DRO (Distributionally Robust Optimization)
baseado em esperanças condicionais adaptadas à uma partição
do suporte cuja complexidade cresce exponencialmente com a dimensionalidade
da incerteza; Quando apenas observações históricas da incerteza
estão disponíveis, propomos um problema de DRO baseado na métrica
de Wasserstein a fim de incorporar ambiguidade sobre a real distribuição
de probabilidade da incerteza. Para esta última abordagem, os métodos
existentes dependem da enumeração dos vértices duais do problema de
segundo estágio, tornando o problema DRO intratável em aplicações
práticas. Nesse contexto, propomos esquemas algorítmicos para lidar
com a complexidade computacional de ambas abordagens. Experimentos
computacionais são apresentados para o problema do fazendeiro, o problema
de alocação de aviões, e o problema do planejamento da operação
do sistema elétrico (unit ommitmnet problem). / [en] Two-stage stochastic programming is a mathematical framework
widely used in real-life applications such as power system operation
planning, supply chains, logistics, inventory management, and financial
planning. Since most of these problems cannot be solved analytically,
decision-makers make use of numerical methods to obtain a near-optimal
solution. Some applications rely on the implementation of non-converged
and therefore sub-optimal solutions because of computational time or
power limitations. In this context, the existing methods provide an optimistic
solution whenever convergence is not attained. Optimistic solutions
often generate high disappointment levels because they consistently
underestimate the actual costs in the approximate objective function.
To address this issue, we have developed two conservative-solution
methodologies for two-stage stochastic linear programming problems
with right-hand-side uncertainty and rectangular support: When the actual
data-generating probability distribution is known, we propose a DRO
problem based on partition-adapted conditional expectations whose complexity
grows exponentially with the uncertainty dimensionality; When
only historical observations of the uncertainty are available, we propose
a DRO problem based on the Wasserstein metric to incorporate ambiguity
over the actual data-generating probability distribution. For this
latter approach, existing methods rely on dual vertex enumeration of the
second-stage problem rendering the DRO problem intractable in practical
applications. In this context, we propose algorithmic schemes to address
the computational complexity of both approaches. Computational experiments
are presented for the farmer problem, aircraft allocation problem,
and the stochastic unit commitment problem.
|
259 |
[en] A MODEL-BASED FRAMEWORK FOR SEMI-SUPERVISED CLUSTERING AND COMMUNITY DETECTION / [pt] UM FRAMEWORK BASEADO EM MODELO PARA CLUSTERIZAÇÃO SEMISSUPERVISIONADA E DETECÇÃO DE COMUNIDADESDANIEL LEMES GRIBEL 09 September 2021 (has links)
[pt] Em clusterização baseada em modelos, o objetivo é separar amostras de
dados em grupos significativos, otimizando a aderência dos dados observados a
um modelo matemático. A recente adoção de clusterização baseada em modelos
tem permitido a profissionais e usuários mapearem padrões complexos nos
dados e explorarem uma ampla variedade de aplicações. Esta tese investiga
abordagens orientadas a modelos para detecção de comunidades e para o estudo
de clusterização semissupervisionada, adotando uma perspectiva baseada em
máxima verossimilhança. Focamos primeiramente na exploração de técnicas
de otimização com restrições para apresentar um novo modelo de detecção de
comunidades por meio de modelos de blocos estocásticos (SBMs). Mostramos
que a formulação com restrições revela comunidades estruturalmente diferentes
daquelas obtidas com modelos clássicos. Em seguida, estudamos um cenário
onde anotações imprecisas são fornecidas na forma de relações must-link e
cannot-link, e propomos um modelo de clusterização semissupervisionado.
Nossa análise experimental mostra que a incorporação de supervisão parcial
e de conhecimento prévio melhoram significativamente os agrupamentos. Por
fim, examinamos o problema de clusterização semissupervisionada na presença
de rótulos de classe não confiáveis. Investigamos o caso em que grupos de
anotadores deliberadamente classificam incorretamente as amostras de dados
e propomos um modelo para lidar com tais anotações incorretas. / [en] In model-based clustering, we aim to separate data samples into meaningful
groups by optimizing the fit of some observed data to a mathematical model.
The recent adoption of model-based clustering has allowed practitioners to
model complex patterns in data and explore a wide range of applications. This thesis investigates model-driven approaches for community detection and semisupervised clustering by adopting a maximum-likelihood perspective. We first focus on exploiting constrained optimization techniques to present a new model for community detection with stochastic block models (SBMs). We show that the proposed constrained formulation reveals communities structurally different from those obtained with classical community detection models. We then study a setting where inaccurate annotations are provided as must-link and cannot-link relations, and propose a novel semi-supervised clustering model.
Our experimental analysis shows that incorporating partial supervision and
appropriately encoding prior user knowledge significantly enhance clustering performance. Finally, we examine the problem of semi-supervised clustering in the presence of unreliable class labels. We focus on the case where groups of untrustworthy annotators deliberately misclassify data samples and propose a model to handle such incorrect statements.
|
260 |
[en] LATTICE STRUCTURES DESIGN BASED ON TOPOLOGY OPTIMIZATION: MODELING, ADDITIVE MANUFACTURING, AND EXPERIMENTAL ANALYSIS / [pt] PROJETO DE ESTRUTURAS CELULARES FORMADAS POR REDE DE TRELIÇAS BASEADO EM OTIMIZAÇÃO TOPOLÓGICA: MODELAGEM, MANUFATURA ADITIVA E ANÁLISE EXPERIMENTALMARIANA MORAES GIOIA 13 September 2023 (has links)
[pt] Materiais feitos com microestruturas arquitetadas possuem propriedades mecânicas ajustáveis e podem ser usados na obtenção de estruturas leves e, ao mesmo tempo, com máxima rigidez. Em estruturas celulares formadas por rede de treliças, por exemplo, pode-se variar o tipo de topologia e porosidade de modo que o material seja eficientemente distribuído no domínio de projeto. Devido às geometrias complexas destas estruturas, projetá-las usando ferramentas de desenho assistido por computador é uma tarefa desafiadora. Neste trabalho, foi desenvolvida uma modelagem paramétrica no programa Rhinoceros usando a extensão Grasshopper para auxiliar na construção de modelos de sólidos celulares com estrutura interna treliçada de densidade variável. A modelagem paramétrica desenvolvida permite definir a topologia e o diâmetro das barras das treliças que simplificam em muito a geração de modelos de sólidos porosos. Modelos de microestrutura foram gerados e fabricados em poliamida 12 por meio de sinterização seletiva a laser para avaliar se é viável imprimir as treliças a partir dos parâmetros estabelecidos. O problema de uma viga biapoiada com carga concentrada no centro foi resolvido utilizando-se o método de otimização topológica e o campo de densidades foi usado para geração do modelo de densidade variável. Considerando a mesma massa final dos modelos otimizados, modelos com densidade constante foram gerados e fabricados juntamente com os modelos de densidade variável. Foram realizadas análises experimentais por meio de ensaios de flexão em três pontos e os resultados mostram que a solução usando densidade variável tem um grande aumento da rigidez quando comparadas com as soluções com densidade uniforme. / [en] Materials made with architected microstructures present tunable mechanical properties and can be used to obtain light structures and, at the same time, with maximum stiffness. In lattice structures, for example, the type of topology and porosity can be varied so that the material is efficiently distributed in the design domain. Due to the complex geometries of these structures, designing them using computer-aided design tools is a challenging task. In this work, a parametric modeling was developed in the Rhinoceros program using the Grasshopper extension to assist in the construction of models of lattice structures with varying truss diameters. The developed parametric modeling allows defining the topology and the diameter of the truss bars, which greatly simplifies the generation of models of porous solids. Microstructure models were generated and manufactured in polyamide 12 through selective laser sintering to assess whether it is feasible to print the trusses from the established parameters. The problem of a simply supported beam with a concentrated load at the center was solved using the topology optimization method and the density field was used to generate the variable density model. Considering the same final mass of the optimized models, models with constant density were generated and manufactured together with the models with variable density. Experimental analyzes were carried out using three-point bending tests and the results show that the solution using variable density has a large increase in stiffness when compared to solutions with uniform density.
|
Page generated in 0.0811 seconds