• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 215
  • 72
  • Tagged with
  • 287
  • 287
  • 277
  • 47
  • 47
  • 46
  • 40
  • 37
  • 32
  • 27
  • 27
  • 26
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

[en] OPERATION PLANNING OF UNBALANCED DISTRIBUTION SYSTEMS WITH DISTRIBUTED GENERATION CONSIDERING UNCERTAINTY IN LOAD MODELING / [pt] PLANEJAMENTO DA OPERAÇÃO DE SISTEMAS DE DISTRIBUIÇÃO DESEQUILIBRADOS COM GERAÇÃO DISTRIBUÍDA CONSIDERANDO INCERTEZA NA MODELAGEM DE CARGA

MARIANA SIMOES NOEL DA SILVA 10 December 2020 (has links)
[pt] Os novos elementos conectados nos sistemas de distribuição de energia elétrica aumentam a complexidade do planejamento e operação destas redes. Os benefícios da implementação de técnicas clássicas, como Conservation Voltage Reduction (CVR), combinadas com uma operação coordenada dos recursos energéticos distribuídos, podem contribuir para o aumento de eficiência nos sistemas de distribuição de energia elétrica e reduzir o consumo de energia. Na técnica CVR, as tensões são reduzidas objetivando redução de picos de demanda e consumo de energia. Este trabalho propõe um modelo de otimização para o planejamento da operação do dia seguinte nos sistemas de distribuição de energia elétrica, considerando sistemas desequilibrados e com penetração de geração distribuída (GD) fotovoltaica. A técnica CVR será aplicada em uma abordagem determinística, estocástica e robusta, considerando a incerteza nos seus parâmetros e, consequente, na modelagem de carga. O modelo de otimização proposto considera a atuação de elementos de controle tradicionais, como transformador On Load Tap Changers (OLTC) na subestação e bancos de capacitores (BC), além de elementos modernos, como inversores fotovoltaicos inteligentes, para minimização do consumo de energia observado na subestação. O problema, fundamentalmente de programação não-linear inteira mista, é transformado em um problema de programação linear de natureza contínua. Os resultados são avaliados no sistema teste IEEE 123-barras para as diferentes estratégias modeladas. A economia de energia obtida foi significativa nas abordagens propostas, mas o modelo de otimização robusta se mostrou mais adequado para reduzir os riscos de violação de tensão. / [en] The new elements connected in electrical distribution systems increase the complexity of grids planning and operating. The benefits of classical techniques, such as Conservation Voltage Reduction (CVR), combined with a coordinated operation of distributed energy resources, can contribute to increasing efficiency and reducing energy consumption of the distribution systems. In the CVR technique, voltages are reduced in order to reduce peak demand and energy consumption. This paper proposes an optimization model for the day-ahead operation planning of unbalanced distribution systems with photovoltaic distributed generation (DG) penetration. The CVR technique will be applied in deterministic, stochastic and robust approach, considering the uncertainty in its parameters and consequently, in the load modeling. The proposed optimization model considers the operation of traditional control elements, such as On Load Tap Changers (OLTC) at substation and capacitor banks (CB), in addition to modern elements, such as intelligent photovoltaic inverters, to minimize the energy consumption at the substation. The problem, originally of mixed-integer nonlinear programming, is transformed into a continuous linear programming problem. The results are evaluated in the IEEE123-bus test system for the different optimization approaches. The energy savings obtained were significant in all the proposed approaches, but the robust optimization model proved to be more adequate since it reduces the risk of voltage violations.
252

[pt] ALGORITMO PRICE-AND-CUT COM 3-SRCS E ENUMERAÇÃO DE COLUNAS PARA O PROBLEMA DE ALOCAÇÃO GENERALIZADA / [en] PRICE-AND-CUT ALGORITHM WITH 3-SRCS CUTS AND COLUMN ENUMERATION FOR THE GENERALIZED ASSIGNMENT PROBLEM

RAFAEL AZEVEDO MOSCOSO SILVA CRUZ 15 June 2021 (has links)
[pt] Esta dissertação estuda formulações, algoritmos e métodos exatos para resolver instâncias do Problema de Alocação Generalizada (PAG) com uma separação de desigualdades (3, 0.5)-SRC que viabilize a enumeração de colunas. Este trabalho é motivado pela perspectiva de alcançar o estado-da-arte com resultados competitivos comparáveis às melhores soluções encontradas na literatura por Avella (2010) e Michelon (2012). A pesquisa abrange métodos exatos e heurísticas, com ênfase no estudo que aborda a decomposição de Dantzig-Wolfe, o algoritmo de geração de colunas, a estabilização de colunas por meio da ponderação de duais proposto por Wentges (1997) e a enumeração de colunas habilitada pela minimização do gap decorrente do algoritmo de price-and-cut. O algoritmo de price-and-cut desenvolvido recorre à geração de colunas (pricing) aliada à separação de (3, 0.5)-SRCs para aumentar o lower bound gerado, assim minimizando o gap. A geração de colunas implementada é inspirada no algoritmo de Savelsbergh (1997); e a separação de (3, 0.5)-SRCs é motivada pelo trabalho de Jepsen (2008) e pelo algoritmo branch-cut-andprice proposto por Poggi e Uchoa (2016) para o CVRP. De acordo com os experimentos computacionais, as desigualdades adotadas são capazes de reduzir o gap suficientemente para viabilizar a enumeração de colunas em diversas instâncias do PAG com até 200 tarefas e 20 máquinas. O método utilizado obteve resultados compatíveis às melhores soluções conhecidas, enumerando todas as colunas necessárias para cobrir o gap determinado pelo price-and-cut. Esse resultado incentiva futuras pesquisas para estender a aplicação do algoritmo a instâncias maiores e mais difíceis. / [en] This dissertation deals with formulations, algorithms and exact methods for solving the well-known Generalized Assignment Problem (GAP) through a price-and-cut approach with the separation of (3, 0.5)-SRC inequalities in order to improve column enumeration feasibility and efficiency. This work is motivated by the perspective of reaching state-of-the-art performance, attaining competitive results which are comparable with the best known solutions found in the literature by Avella (2010) and Michelon (2012). This research was build on exact methods and some heuristics with emphasis on the Dantzig- Wolfe decomposition, the column generation algorithm, the stabilization through weighted Dantzig-Wolfe decomposition proposed byWentges (1997) and finally the column enumeration motivated by the gap minimization reached through the price-and-cut algorithm. The price-and-cut algorithm proposed here resort to column generation (pricing) combined with the separation of (3, 0.5)-SRC cuts in order to increase the generated lower bound, thus minimizing the attained gap. This column generation algorithm follows the work of Savelsbergh (1997); and the separation of (3, 0.5)-SRCs is formulated by Jepsen (2008) and motivated by the branch-cut-and-price algorithm proposed by Poggi and Uchoa (2016) for the CVRP. According to computational experiments, the adopted inequalities are capable of sufficiently reducing the gap, assuring the feasibility of column enumeration for several GAP instances with up to 200 tasks and 20 machines. This method achieved expressive results, compatible with the best known solutions, enumerating all the necessary columns to cover the gap found by the price-and-cut. Therefore, these results motivate future research towards the extension of the method s applicability to larger and more complex instances.
253

[en] METHODOLOGY FOR SIZING THE GENERAL CARGO GRID FLEET FOR APPLICATION IN A CONCESSIONAIRE IN THE RAILWAY SECTOR / [pt] METODOLOGIA PARA DIMENSIONAMENTO DE FROTA DA GRADE DE CARGA GERAL PARA APLICAÇÃO EM UMA CONCESSIONÁRIA DO SETOR FERROVIÁRIO

PEDRO DUARTE GOMES TOSTES 11 February 2022 (has links)
[pt] A matriz brasileira de transporte retrata a dominância rodoviária sobre os demais modais, na movimentação de cargas no país. O aumento da eficiência operacional e redução de custos é fator que pode elevar a participação e competitividade dos trens nesse contexto. A aplicação de técnicas de otimização no processo de dimensionamento e planejamento operacional da frota de locomotivas possui grande potencial de economia de recursos, principalmente devido aos seus elevados custos de aquisição e manutenção. O presente trabalho apresenta uma metodologia para obtenção de uma solução exata para um horizonte mensal de planejamento, aproveitando se do caráter cíclico da grade de formação dos trens de carga geral, para definir o tamanho ótimo da frota necessário ao seu adequado funcionamento. A metodologia, implementada em linguagem Python e aplicada em um cenário de uma grade conhecida, teve sua frota resultante comparada com o dimensionamento manual realizado em uma concessionária brasileira e foi capaz de indicar a redução de 2 locomotivas no planejamento de frota. Associada a esta redução, a economia de capital estimada seria entre 400 mil reais e 20 milhões de reais, para o cenário conservador de economia dos gastos de manutenção e para o cenário mais otimista evitando a aquisição de novas locomotivas. Além da redução de frota e aumento na competitividade tarifária dos trens de carga geral, a metodologia cria, por meio de critérios científicos, diretrizes objetivas para o processo de dimensionamento e planejamento da frota de locomotivas, em substituição ao processo empírico atualmente aplicado na referida concessionária. / [en] The Brazilian transport matrix presents the road dominance over other modes in the movement of cargo in the country. The increase in operational efficiency and cost reduction is a factor that can increase the participation and competitiveness of trains in this context. The application of optimi zation techniques in the process of dimensioning and operational planning of the locomotive fleet has great potential for saving resources, mainly due to its high acquisition and maintenance costs. This work presents a methodology to obtain an exact soluti on for a monthly planning horizon, taking advantage of the cyclical character of the general freight trains timetables and defining the optimum fleet size necessary for its proper functioning. The methodology, implemented in Python language and applied in a scenario of a defined timetable had its resulting fleet compared with the manual sizing process carried out in a Brazilian dealership and was able to indicate the reduction of 2 locomotives in the fleet planning. Associated with this reduction, the est imated capital savings would be between 400 thousand reais and 20 million reais, for the conservative scenario of savings in maintenance costs and for the more optimistic scenario avoiding the acquisition of new locomotives. In addition to reducing the fleet and increasing the tariff competitiveness of general freight trains, the methodology creates, through scientific criteria, objective guidelines for the process of dimensioning and planning the locomotive fleet, replacing the empirical process currently applied in the aforementioned concessionaire.
254

[pt] PLANEJAMENTO DA EXPANSÃO DA TRANSMISSÃO COM CRITÉRIOS DE SEGURANÇA VIA ALGORITMO GENÉTICO ESPECIALIZADO / [en] TRANSMISSION EXPANSION PLANNING WITH SECURITY CRITERIA VIA SPECIALIZED GENETIC ALGORITHM

IAMBERG SOUZA DA SILVA 12 January 2021 (has links)
[pt] A solução do problema de planejamento da expansão da transmissão (PET) tem por objetivo geral identificar reforços a serem construídos na rede de forma a garantir a adequada interligação entre carga e geração, previstos para um determinado horizonte de estudo. No processo de solução desse problema, busca-se manter o equilíbrio ótimo entre os custos envolvidos (investimento e operação) e os níveis de qualidade e desempenho na operação do sistema reforçado. Nesse sentido, é proposta nesta dissertação de mestrado uma ferramenta de otimização especializada para solução do problema PET, a qual é baseada na técnica metaheurística Algoritmo Genético. A ferramenta proposta, denominada Algoritmo Genético Especializado (AGE-PET), faz uso de informações heurísticas fundamentadas em análises atualizadas de fluxo de potência da rede realizadas durante o processo evolutivo de solução do problema. Essas informações heurísticas são traduzidas por meio de índices de sensibilidade, os quais são integrados aos operadores genéticos inerentes à ferramenta, conduzindo a solução do problema na direção de planos de expansão de boa qualidade. Para análise e validação da metodologia proposta, é solucionado o problema PET estático de longo prazo, considerando o modelo linearizado DC com perdas ôhmicas e atendimento do critério de segurança N-1 para a rede de transmissão. Sistemas elétricos de transmissão com diferentes características e dimensões, incluindo um subsistema atual da rede interligada brasileira, são empregados nos estudos realizados. / [en] The main goal in the solution of the transmission expansion planning (TEP) is to identify reinforcements to be built in the network in order to guarantee the adequate interconnection between load and electric power generation, both foreseen for a given future planning horizon. In the process of solving this problem, the aim is to maintain the optimal balance between the costs involved (investment and operation) and the levels of quality and performance in the operation of the reinforced system. Thus, it is proposed in this dissertation a specialized optimization tool for solving the TEP problem, which is based on the metaheuristic Genetic Algorithm technique. The proposed tool, called Specialized Genetic Algorithm (SGA-TEP), makes use of heuristic information based on updated network power flow analyses carried out during the evolutionary process of solving the problem. This heuristic information is translated by means of sensitivity indices, which are integrated with the genetic operators inherent to the tool, leading to the solution of the problem in the direction of good quality expansion plans. For analysis and validation of the proposed methodology, the long-term static TEP problem is solved, considering the linearized DC model with ohmic losses and the compliance of the N-1 security criterion for the transmission network. Electric transmission systems with different characteristics and dimensions, including a recent subsystem of the Brazilian interconnected grid, are used in the case studies.
255

[pt] ESTIMATIVA DE PARÂMETROS DE RESERVATÓRIOS DE PETRÓLEO A PARTIR DE MODELO TRANSIENTE NÃO ISOTÉRMICO / [en] ESTIMATIVE OF PETROLEUM RESERVOIR PARAMETERS FROM NONISOTHERMAL TRANSIENT MODEL

WILLER PLANAS GONCALVES 19 May 2021 (has links)
[pt] Tradicionalmente, os testes de formação em poços de petróleo buscam caracterizar o campo de permeabilidades a partir da interpretação dos transientes de pressão (PTA) nos períodos de fluxo e estática baseados em modelos isotérmicos de escoamento em meios porosos. Com o avanço da instrumentação dos testes, registros mais precisos de temperatura passaram a estar disponíveis e fomentaram a pesquisa baseada em modelos não isotérmicos que possibilitaram a análise a partir dos transientes de temperatura (TTA). Além da caracterização de parâmetros do reservatório como permeabilidade e porosidade com a interpretação dos transientes de temperatura, os dados de pressão obtidos a partir de um modelo não isotérmico representa de forma mais fidedigna o fenômeno físico sobretudo quando os testes são submetidos a maiores diferenciais de pressão. Este trabalho consiste no desenvolvimento de um simulador para teste de formação que considera a modelagem não isotérmica de reservatório unidimensional radial acoplado a um poço produtor e na utilização deste simulador, associado a métodos de otimização multivariável, para resolução do problema inverso da caracterização de parâmetros do reservatório. Alguns métodos de otimização foram testados e o algoritmo do Simplex de Nelder-Mead apresentou melhor eficácia. Foram estabelecidos três tipos de problemas e utilizados em três casos hipotéticos considerando inclusive a imposição artificial de ruídos nos sinais de pressão e temperatura utilizados para resolução do problema inverso. / [en] Traditionally, oil well formation tests aim to characterize the reservoir permeability field from pressure transient analysis (PTA) of drawdown and build up based on isothermal flow models in porous media. With the advancement of well test instrumentation, more accurate temperature records became available and have encouraged researches based on non-isothermal models that made possible the temperature transient analysis (TTA). In addition to the characterization of reservoir parameters such as permeability and porosity by TTA, the pressure data obtained from a non-isothermal model represent better the physical phenomenon, especially when the tests are subjected to greater drawdowns. This work consists in the development of a simulator for formation test that considers non-isothermal modeling of a unidimensional radial reservoir coupled to a production well and in the use of this simulator, associated with multivariable optimization methods, to solve the inverse problem of reservoir parameters characterization. Some optimization methods were tested and the Nelder-Mead Simplex algorithm presented better efficiency. Three types of problems were established and used in three hypothetical cases, including artificially imposed noise in pressure and temperature signals used to solve the inverse problem.
256

[pt] CONJUNTOS ONLINE PARA APRENDIZADO POR REFORÇO PROFUNDO EM ESPAÇOS DE AÇÃO CONTÍNUA / [en] ONLINE ENSEMBLES FOR DEEP REINFORCEMENT LEARNING IN CONTINUOUS ACTION SPACES

RENATA GARCIA OLIVEIRA 01 February 2022 (has links)
[pt] Este trabalho busca usar o comitê de algoritmos de aprendizado por reforço profundo (deep reinforcement learning) sob uma nova perspectiva. Na literatura, a técnica de comitê é utilizada para melhorar o desempenho, mas, pela primeira vez, esta pesquisa visa utilizar comitê para minimizar a dependência do desempenho de aprendizagem por reforço profundo no ajuste fino de hiperparâmetros, além de tornar o aprendizado mais preciso e robusto. Duas abordagens são pesquisadas; uma considera puramente a agregação de ação, enquanto que a outra também leva em consideração as funções de valor. Na primeira abordagem, é criada uma estrutura de aprendizado online com base no histórico de escolha de ação contínua do comitê com o objetivo de integrar de forma flexível diferentes métodos de ponderação e agregação para as ações dos agentes. Em essência, a estrutura usa o desempenho passado para combinar apenas as ações das melhores políticas. Na segunda abordagem, as políticas são avaliadas usando seu desempenho esperado conforme estimado por suas funções de valor. Especificamente, ponderamos as funções de valor do comitê por sua acurácia esperada, calculada pelo erro da diferença temporal. As funções de valor com menor erro têm maior peso. Para medir a influência do esforço de ajuste do hiperparâmetro, grupos que consistem em uma mistura de diferentes quantidades de algoritmos bem e mal parametrizados foram criados. Para avaliar os métodos, ambientes clássicos como o pêndulo invertido, cart pole e cart pole duplo são usados como benchmarks. Na validação, os ambientes de simulação Half Cheetah v2, um robô bípede, e o Swimmer v2 apresentaram resultados superiores e consistentes demonstrando a capacidade da técnica de comitê em minimizar o esforço necessário para ajustar os hiperparâmetros dos algoritmos. / [en] This work seeks to use ensembles of deep reinforcement learning algorithms from a new perspective. In the literature, the ensemble technique is used to improve performance, but, for the first time, this research aims to use ensembles to minimize the dependence of deep reinforcement learning performance on hyperparameter fine-tuning, in addition to making it more precise and robust. Two approaches are researched; one considers pure action aggregation, while the other also takes the value functions into account. In the first approach, an online learning framework based on the ensemble s continuous action choice history is created, aiming to flexibly integrate different scoring and aggregation methods for the agents actions. In essence, the framework uses past performance to only combine the best policies actions. In the second approach, the policies are evaluated using their expected performance as estimated by their value functions. Specifically, we weigh the ensemble s value functions by their expected accuracy as calculated by the temporal difference error. Value functions with lower error have higher weight. To measure the influence on the hyperparameter tuning effort, groups consisting of a mix of different amounts of well and poorly parameterized algorithms were created. To evaluate the methods, classic environments such as the inverted pendulum, cart pole and double cart pole are used as benchmarks. In validation, the Half Cheetah v2, a biped robot, and Swimmer v2 simulation environments showed superior and consistent results demonstrating the ability of the ensemble technique to minimize the effort needed to tune the the algorithms.
257

[en] AUTOMATED SYNTHESIS OF OPTIMAL DECISION TREES FOR SMALL COMBINATORIAL OPTIMIZATION PROBLEMS / [pt] SÍNTESE AUTOMATIZADA DE ÁRVORES DE DECISÃO ÓTIMAS PARA PEQUENOS PROBLEMAS DE OTIMIZAÇÃO COMBINATÓRIA

CLEBER OLIVEIRA DAMASCENO 24 August 2021 (has links)
[pt] A análise de complexidade clássica para problemas NP-difíceis é geralmente orientada para cenários de pior caso, considerando apenas o comportamento assintótico. No entanto, existem algoritmos práticos com execução em um tempo razoável para muitos problemas clássicos. Além disso, há evidências que apontam para algoritmos polinomiais no modelo de árvore de decisão linear para resolver esses problemas, embora não muito explorados. Neste trabalho, exploramos esses resultados teóricos anteriores. Mostramos que a solução ótima para problemas combinatórios 0-1 pode ser encontrada reduzindo esses problemas para uma Busca por Vizinho Mais Próximo sobre o conjunto de vértices de Voronoi correspondentes. Utilizamos os hiperplanos que delimitam essas regiões para gerar sistematicamente uma árvore de decisão que repetidamente divide o espaço até que possa separar todas as soluções, garantindo uma resposta ótima. Fazemos experimentos para testar os limites de tamanho para os quais podemos construir essas árvores para os casos do 0-1 knapsack, weighted minimum cut e symmetric traveling salesman. Conseguimos encontrar as árvores desses problemas com tamanhos até 10, 5 e 6, respectivamente. Obtemos também as relações de adjacência completas para os esqueletos dos politopos do knapsack e do traveling salesman até os tamanhos 10 e 7. Nossa abordagem supera consistentemente o método de enumeração e os métodos baseline para o weighted minimum cut e symmetric traveling salesman, fornecendo soluções ótimas em microssegundos. / [en] Classical complexity analysis for NP-hard problems is usually oriented to worst-case scenarios, considering only the asymptotic behavior. However, there are practical algorithms running in a reasonable time for many classic problems. Furthermore, there is evidence pointing towards polynomial algorithms in the linear decision tree model to solve these problems, although not explored much. In this work, we explore previous theoretical results. We show that the optimal solution for 0-1 combinatorial problems can be found by reducing these problems into a Nearest Neighbor Search over the set of corresponding Voronoi vertices. We use the hyperplanes delimiting these regions to systematically generate a decision tree that repeatedly splits the space until it can separate all solutions, guaranteeing an optimal answer. We run experiments to test the size limits for which we can build these trees for the cases of the 0-1 knapsack, weighted minimum cut, and symmetric traveling salesman. We manage to find the trees of these problems with sizes up to 10, 5, and 6, respectively. We also obtain the complete adjacency relations for the skeletons of the knapsack and traveling salesman polytopes up to size 10 and 7. Our approach consistently outperforms the enumeration method and the baseline methods for the weighted minimum cut and symmetric traveling salesman, providing optimal solutions within microseconds.
258

[en] CONSERVATIVE-SOLUTION METHODOLOGIES FOR STOCHASTIC PROGRAMMING: A DISTRIBUTIONALLY ROBUST OPTIMIZATION APPROACH / [pt] METODOLOGIAS PARA OBTENÇÃO DE SOLUÇÕES CONSERVADORAS PARA PROGRAMAÇÃO ESTOCÁSTICA: UMA ABORDAGEM DE OTIMIZAÇÃO ROBUSTA À DISTRIBUIÇÕES

CARLOS ANDRES GAMBOA RODRIGUEZ 20 July 2021 (has links)
[pt] A programação estocástica dois estágios é uma abordagem matemática amplamente usada em aplicações da vida real, como planejamento da operação de sistemas de energia, cadeias de suprimentos, logística, gerenciamento de inventário e planejamento financeiro. Como a maior parte desses problemas não pode ser resolvida analiticamente, os tomadores de decisão utilizam métodos numéricos para obter uma solução quase ótima. Em algumas aplicações, soluções não convergidas e, portanto, sub-ótimas terminam sendo implementadas devido a limitações de tempo ou esforço computacional. Nesse contexto, os métodos existentes fornecem uma solução otimista sempre que a convergência não é atingida. As soluções otimistas geralmente geram altos níveis de arrependimento porque subestimam os custos reais na função objetivo aproximada. Para resolver esse problema, temos desenvolvido duas metodologias de solução conservadora para problemas de programação linear estocástica dois estágios com incerteza do lado direito e suporte retangular: Quando a verdadeira distribuição de probabilidade da incerteza é conhecida, propomos um problema DRO (Distributionally Robust Optimization) baseado em esperanças condicionais adaptadas à uma partição do suporte cuja complexidade cresce exponencialmente com a dimensionalidade da incerteza; Quando apenas observações históricas da incerteza estão disponíveis, propomos um problema de DRO baseado na métrica de Wasserstein a fim de incorporar ambiguidade sobre a real distribuição de probabilidade da incerteza. Para esta última abordagem, os métodos existentes dependem da enumeração dos vértices duais do problema de segundo estágio, tornando o problema DRO intratável em aplicações práticas. Nesse contexto, propomos esquemas algorítmicos para lidar com a complexidade computacional de ambas abordagens. Experimentos computacionais são apresentados para o problema do fazendeiro, o problema de alocação de aviões, e o problema do planejamento da operação do sistema elétrico (unit ommitmnet problem). / [en] Two-stage stochastic programming is a mathematical framework widely used in real-life applications such as power system operation planning, supply chains, logistics, inventory management, and financial planning. Since most of these problems cannot be solved analytically, decision-makers make use of numerical methods to obtain a near-optimal solution. Some applications rely on the implementation of non-converged and therefore sub-optimal solutions because of computational time or power limitations. In this context, the existing methods provide an optimistic solution whenever convergence is not attained. Optimistic solutions often generate high disappointment levels because they consistently underestimate the actual costs in the approximate objective function. To address this issue, we have developed two conservative-solution methodologies for two-stage stochastic linear programming problems with right-hand-side uncertainty and rectangular support: When the actual data-generating probability distribution is known, we propose a DRO problem based on partition-adapted conditional expectations whose complexity grows exponentially with the uncertainty dimensionality; When only historical observations of the uncertainty are available, we propose a DRO problem based on the Wasserstein metric to incorporate ambiguity over the actual data-generating probability distribution. For this latter approach, existing methods rely on dual vertex enumeration of the second-stage problem rendering the DRO problem intractable in practical applications. In this context, we propose algorithmic schemes to address the computational complexity of both approaches. Computational experiments are presented for the farmer problem, aircraft allocation problem, and the stochastic unit commitment problem.
259

[en] A MODEL-BASED FRAMEWORK FOR SEMI-SUPERVISED CLUSTERING AND COMMUNITY DETECTION / [pt] UM FRAMEWORK BASEADO EM MODELO PARA CLUSTERIZAÇÃO SEMISSUPERVISIONADA E DETECÇÃO DE COMUNIDADES

DANIEL LEMES GRIBEL 09 September 2021 (has links)
[pt] Em clusterização baseada em modelos, o objetivo é separar amostras de dados em grupos significativos, otimizando a aderência dos dados observados a um modelo matemático. A recente adoção de clusterização baseada em modelos tem permitido a profissionais e usuários mapearem padrões complexos nos dados e explorarem uma ampla variedade de aplicações. Esta tese investiga abordagens orientadas a modelos para detecção de comunidades e para o estudo de clusterização semissupervisionada, adotando uma perspectiva baseada em máxima verossimilhança. Focamos primeiramente na exploração de técnicas de otimização com restrições para apresentar um novo modelo de detecção de comunidades por meio de modelos de blocos estocásticos (SBMs). Mostramos que a formulação com restrições revela comunidades estruturalmente diferentes daquelas obtidas com modelos clássicos. Em seguida, estudamos um cenário onde anotações imprecisas são fornecidas na forma de relações must-link e cannot-link, e propomos um modelo de clusterização semissupervisionado. Nossa análise experimental mostra que a incorporação de supervisão parcial e de conhecimento prévio melhoram significativamente os agrupamentos. Por fim, examinamos o problema de clusterização semissupervisionada na presença de rótulos de classe não confiáveis. Investigamos o caso em que grupos de anotadores deliberadamente classificam incorretamente as amostras de dados e propomos um modelo para lidar com tais anotações incorretas. / [en] In model-based clustering, we aim to separate data samples into meaningful groups by optimizing the fit of some observed data to a mathematical model. The recent adoption of model-based clustering has allowed practitioners to model complex patterns in data and explore a wide range of applications. This thesis investigates model-driven approaches for community detection and semisupervised clustering by adopting a maximum-likelihood perspective. We first focus on exploiting constrained optimization techniques to present a new model for community detection with stochastic block models (SBMs). We show that the proposed constrained formulation reveals communities structurally different from those obtained with classical community detection models. We then study a setting where inaccurate annotations are provided as must-link and cannot-link relations, and propose a novel semi-supervised clustering model. Our experimental analysis shows that incorporating partial supervision and appropriately encoding prior user knowledge significantly enhance clustering performance. Finally, we examine the problem of semi-supervised clustering in the presence of unreliable class labels. We focus on the case where groups of untrustworthy annotators deliberately misclassify data samples and propose a model to handle such incorrect statements.
260

[en] LATTICE STRUCTURES DESIGN BASED ON TOPOLOGY OPTIMIZATION: MODELING, ADDITIVE MANUFACTURING, AND EXPERIMENTAL ANALYSIS / [pt] PROJETO DE ESTRUTURAS CELULARES FORMADAS POR REDE DE TRELIÇAS BASEADO EM OTIMIZAÇÃO TOPOLÓGICA: MODELAGEM, MANUFATURA ADITIVA E ANÁLISE EXPERIMENTAL

MARIANA MORAES GIOIA 13 September 2023 (has links)
[pt] Materiais feitos com microestruturas arquitetadas possuem propriedades mecânicas ajustáveis e podem ser usados na obtenção de estruturas leves e, ao mesmo tempo, com máxima rigidez. Em estruturas celulares formadas por rede de treliças, por exemplo, pode-se variar o tipo de topologia e porosidade de modo que o material seja eficientemente distribuído no domínio de projeto. Devido às geometrias complexas destas estruturas, projetá-las usando ferramentas de desenho assistido por computador é uma tarefa desafiadora. Neste trabalho, foi desenvolvida uma modelagem paramétrica no programa Rhinoceros usando a extensão Grasshopper para auxiliar na construção de modelos de sólidos celulares com estrutura interna treliçada de densidade variável. A modelagem paramétrica desenvolvida permite definir a topologia e o diâmetro das barras das treliças que simplificam em muito a geração de modelos de sólidos porosos. Modelos de microestrutura foram gerados e fabricados em poliamida 12 por meio de sinterização seletiva a laser para avaliar se é viável imprimir as treliças a partir dos parâmetros estabelecidos. O problema de uma viga biapoiada com carga concentrada no centro foi resolvido utilizando-se o método de otimização topológica e o campo de densidades foi usado para geração do modelo de densidade variável. Considerando a mesma massa final dos modelos otimizados, modelos com densidade constante foram gerados e fabricados juntamente com os modelos de densidade variável. Foram realizadas análises experimentais por meio de ensaios de flexão em três pontos e os resultados mostram que a solução usando densidade variável tem um grande aumento da rigidez quando comparadas com as soluções com densidade uniforme. / [en] Materials made with architected microstructures present tunable mechanical properties and can be used to obtain light structures and, at the same time, with maximum stiffness. In lattice structures, for example, the type of topology and porosity can be varied so that the material is efficiently distributed in the design domain. Due to the complex geometries of these structures, designing them using computer-aided design tools is a challenging task. In this work, a parametric modeling was developed in the Rhinoceros program using the Grasshopper extension to assist in the construction of models of lattice structures with varying truss diameters. The developed parametric modeling allows defining the topology and the diameter of the truss bars, which greatly simplifies the generation of models of porous solids. Microstructure models were generated and manufactured in polyamide 12 through selective laser sintering to assess whether it is feasible to print the trusses from the established parameters. The problem of a simply supported beam with a concentrated load at the center was solved using the topology optimization method and the density field was used to generate the variable density model. Considering the same final mass of the optimized models, models with constant density were generated and manufactured together with the models with variable density. Experimental analyzes were carried out using three-point bending tests and the results show that the solution using variable density has a large increase in stiffness when compared to solutions with uniform density.

Page generated in 0.0811 seconds