Spelling suggestions: "subject:"otimiza""
51 |
[en] METHODOLOGY FOR THE DETERMINATION OF LEVEL GOALS FOR FUTURE OPERATING CONDITIONS OF THE NATIONAL INTERCONNECTED SYSTEM / [pt] METODOLOGIA DE DETERMINAÇÃO DOS NÍVEIS METAS PARA AS FUTURAS CONDIÇÕES DE OPERAÇÃO DO SISTEMA INTERLIGADO NACIONALCARLOS ALBERTO DE ARAUJO JUNIOR 30 April 2014 (has links)
[pt] O Sistema Interligado Nacional Brasileiro (SIN) é um sistema hidrotérmico com forte predominância de geração hidráulica, caracterizado pela existência de reservatórios de grande porte com regularização plurianual. Contudo, com a perspectiva da entrada em operação na região Amazônica de novas usinas de grande porte quanto à capacidade de geração, mas de pequena capacidade de regularização, tem-se a perspectiva de mudanças no atual perfil de operação do SIN em função da região Amazônica possuir um forte ciclo sazonal e baixa complementaridade com as demais regiões do Brasil. Com isto, a metodologia atualmente utilizada, que minimiza o valor esperado do custo total de operação, tende a elevar o risco dos reservatórios do subsistema Sudeste atingirem níveis baixos no fim do período seco, supondo que com a importação de energia da região Amazônica no período úmido o armazenamento, em média, possa ser recuperado. O deplecionamento a níveis baixos dos reservatórios do subsistema Sudeste pode significar um aumento no risco de atendimento à demanda energética, caso venha a se configurar um cenário de afluência desfavorável no período úmido. Isso requer aprimoramentos metodológicos a fim de considerar este novo perfil de operação do SIN. Neste contexto, este trabalho propõe o desenvolvimento de uma modelagem utilizando métodos de apoio multicritério à decisão, que permite a consideração de múltiplos objetivos, para definição do nível mínimo de armazenamento do subsistema Sudeste ao final do período seco de forma a minimizar o valor esperado do custo, dado que se garanta a segurança energética do SIN. O desempenho da metodologia proposta foi avaliado por meio de estudos de casos aplicados ao SIN, para a condição atual e futura, nas quais as novas usinas da região Amazônica estão totalmente motorizadas, e os resultados obtidos, assim como as vantagens observadas ao se utilizar a metodologia multicritério, são discutidos ao longo do texto. / [en] The Brazilian National Interconnected System (SIN) is a large scale hydrothermal system with a strong predominance of hydro generation, characterized by large reservoirs with multi-annual regularization
capabilities. However, with the prospect of entry in operation in the Amazon region of new large plants with high generation capacity but low inflows regularization capacity, methodological changes in the energy planning operations are expected due to Amazon’s region strong seasonal cycle and low complementarity with other regions of Brazil. This way, the current methodology, which minimizes the expected value of the total operations cost, tends to raise the risk of the drawdown of the Southeast
subsystem reservoirs reaching low levels at the end of the dry season, with the assumption that the reservoirs, on average, will be recovered by the energy imported from Amazon during the wet season. The low drawdown of Southeast subsystem reservoirs can pose a risk for dry scenarios, which may not be able to meet the energy demand. In this context, this work proposes the development of a model using multicriteria decision support methods, which allows consideration of multiple objectives, to define the minimum level of storage of the Southeast subsystem at the end of the dry season to minimize the expected value of cost, provided that it guarantees the energy security of the SIN during the next year. The performance of the proposed methodology has been evaluated by means of case studies applied to SIN, for both the current conditions and the expected future conditions. The results obtained, as well as the advantages observed when using the multicriteria methodology, are discussed throughout the text.
|
52 |
[en] ON THE IMPROVED AND THE OPTIMUM NOTCH SHAPE / [pt] ENTALHES MELHORADOS E OTIMIZADOSDANIEL DE ALBUQUERQUE SIMOES 22 March 2013 (has links)
[pt] A maioria dos componentes estruturais possui entalhes ou detalhes geométricos
de transição, tais como furos e ombros, que são necessários para montar
e/ou para operá-los. Estes entalhes aumentam localmente as tensões nominais que
atuariam em sua localização, caso eles não existissem. Efeitos da concentração de
tensão são importantes em muitos mecanismos de falha, como por exemplo, na iniciação
de trincas por fadiga. No entanto, os tradicionais raios circulares, usados
na maioria dos elementos estruturais para aliviar os efeitos da concentração de
tensão, não são os mais adequados para minimizá-los. Elementos estruturais naturais,
tais como galhos de árvores, depois de milhões de anos de evolução aprenderam
a usar raio de curvatura variável em vez do raio constante. Mas apesar deste
problema ter sido reconhecido há muito tempo, raios variáveis ainda não são muito
usados em projeto mecânico. A prática usual é especificar entalhes com os
maiores raios possíveis, uma vez que eles podem ser facilmente fabricados em
máquinas-ferramentas tradicionais. Entretanto, entalhes de raios variáveis corretamente
especificados podem ter fatores de concentração de tensão muito mais
baixos do que aqueles obtidos por raios constantes. Logo, eles podem ser uma boa
opção para aumentar a vida à fadiga, sem afetar significativamente as dimensões
globais e o peso dos componentes estruturais. Além disso, hoje em dia eles podem
ser facilmente fabricados com precisão, devido à disponibilidade de máquinasferramentas
CNC. Esta dissertação tem como objetivo quantificar a melhoria da
concentração de tensão que pode ser obtidas através de receitas tradicionais de
raios variáveis, e apresenta uma rotina numérica desenvolvida em ANSYS APDL
para otimizar geometria de entalhes tais como ombro de placas submetidas a tensão
ou flexão, placa com furo submetido a um campo biaxial de tensões e corpos
de prova de fadiga da ASTM. / [en] Most structural components have notches, or geometric transition details
such as holes and corners which are required to assemble and/or to operate them.
These notches locally increase the nominal stresses that would act in their location,
if they were not there. Stress concentration effects are very important in
many failure mechanisms, such as fatigue crack initiation. However, the usual
constant radius notch tip roots, used in most structural members to alleviate their
stress concentration effects, do not minimize them. In fact, natural structural
members, such as tree branches, after many million years of evolution have
learned to use variable tip radii instead of the fixed radius typical of engineering
notches. This problem has been recognized for a long time, but variable radii
notches optimized to minimize their deleterious influence on fatigue strength still
are not widely used in mechanical design. The usual practice is to specify notches
with as large as possible constant radius roots, since they can be easily fabricated
in traditional machine tools. However, notches with properly specified variable
radius can have much lower stress concentration factors than those obtainable by
fixed notch root radii. Therefore, such improved notches can be a good design option
to augment fatigue lives without significantly affecting structural components
global dimensions and weight. Moreover, these improved notches are certainly
more useful than ever, as nowadays they can be manufactured in many structural
components, due to the wide availability of CNC machine tools. This dissertation
aims to quantify the stress concentration improvements achievable by traditional
variable radii notches receipts, and presents a numerical routine, developed in
ANSYS APDL to optimize notch shapes of mechanical components such as
shoulders in plates subjected to tension or bending, plates with a hole subjected to
a biaxial stress field, and standard ASTM fatigue test specimens.
|
53 |
[en] APPLICATION OF MATHEMATICAL MODELING TO OPTIMIZE ASPHALT DISTRIBUTION IN BRAZIL: A CASE STUDY / [pt] APLICAÇÃO DE MODELAGEM MATEMÁTICA NA OTIMIZAÇÃO DA DISTRIBUIÇÃO DE ASFALTOS NO BRASIL: UM ESTUDO DE CASOLEONARDO NOGUEIRA FINAMORE 07 April 2015 (has links)
[pt] A demanda por asfaltos vem crescendo fortemente no Brasil por conta do
ciclo vigoroso de expansão e recuperação de obras viárias de novos
empreendimentos em rodovias, portos e aeroportos, que compõem o PAC –
Programa de Aceleração do Crescimento. Neste cenário, a otimização da
distribuição de asfaltos faz-se necessária para garantir o abastecimento do produto
no país. Diante deste contexto, foi desenvolvido um modelo de programação
linear que permite avaliar as alternativas de atendimento ao mercado de asfaltos,
considerando minimizar os custos operacionais envolvidos na entrega aos polos
de venda, a partir das refinarias produtoras. O modelo proposto foi aplicado em
um estudo de caso que considerou a necessidade da criação de um novo polo de
venda, em complemento aos polos atualmente existentes. O resultado obtido
permite fundamentar a tomada de decisão na escolha da alternativa que garanta o
atendimento ao mercado do país com o menor custo. / [en] The demand for asphalt has been growing strongly in Brazil because of the
vigorous cycle of expansion and recovery of roadworks and new projects in roads,
ports and airports which comprises the PAC - National Growth Acceleration
Program. Given this context, the optimization of asphalt distribution is needed to
ensure the supply of the product in the country. In this context, we propose a
linear programming model that allows to evaluate alternative services for the
asphalt market, considering the minimization of operational costs involved in
delivering asphalt from the refineries to the selling locations. The proposed model
was evaluated through a case study that addressed the need of creating a new
center for delivery, in addition to the currently existing poles. Results obtained
were able to support the decision making in choosing the alternative that ensures
compliance with the country s market at the lowest cost.
|
54 |
[en] RELIABILITY-BASED DESIGN OPTIMIZATION OF REINFORCED CONCRETE PLANE FRAMES / [pt] PROJETO ÓTIMO BASEADO EM CONFIABILIDADE DE PÓRTICOS PLANOS DE CONCRETO ARMADOALEX FABIANO DE ALMEIDA 28 April 2008 (has links)
[pt] Este trabalho compara o projeto ótimo determinístico (DDO)
com o projeto ótimo baseado em confiabilidade (RBDO) de
pórticos planos de concreto armado. A estrutura é modelada
por uma malha de elementos finitos usando elementos de
barras e considerando a não-linearidade geométrica e dos
materiais. Na formulação do problema de otimização proposto
as variáveis de projeto são definidas para cada elemento
finito da malha. Elas são as armaduras superior e inferior
das seções transversais de extremidade do elemento, a altura
da seção do elemento, as áreas de armadura transversal e o
parâmetro D usado para descrever os estados limites últimos
de acordo com a norma brasileira NBR 6118 (ABNT, 2004). Os
algoritmos de otimização utilizados são os de
programação quadrática seqüencial (PQS), programação linear
seqüencial (PLS) e o método das direções viáveis (MDV).
As variáveis randômicas do problema de RBDO são a
resistência à compressão do concreto, as resistências à
tração e à compressão do aço, assim como as cargas
aplicadas. As funções de comportamento são de dois tipos, a
primeira é relativa à carga crítica da estrutura e a
segunda ao controle de deslocamento para o estado limite de
utilização. Para o cálculo da probabilidade de falha de uma
função de comportamento, em cada iteração do problema de
RBDO, o método FORM (PMA) utilizará o algoritmo HMV para
obtenção do ponto de projeto. Análise de sensibilidade é
feita pelo método analítico. / [en] This work compares the Deterministic Design Optimization
(DDO) with
the Reliability-Based Design Optimization (RBDO) of
reinforced concrete plane
frames. The structure is modeled by a finite element mesh
using bar elements
and considering both geometric and material nonlinearities.
In the formulation of
the proposed optimization problem the design variables are
defined for each
element of the finite element mesh. They are the areas of
tensile and
compressive reinforcement at the element ends, the depth of
the element
rectangular cross-section, the areas of shear
reinforcement, and the parameter D
used to describe the deformation limit sates for the
element cross-sections
defined according to the Brazilian code for the design of
concrete structures
NBR 6118 (ABNT, 2004). The optimization algorithms used are
the Sequential
Linear Programming (SLP), the Sequential Quadratic
Programming (SQP) and
the Method of Feasible Direction (MFD).
The random variables of the RBDO problem are the concrete
compressive
strength, the steel compressive and tensile strength, as
well as some applied
loads. The performance functions are of two types, the
first relates to the critical
load of the structure and the second to the control of
displacements in the
serviceability state. For performing the calculation of the
probability of failure
for the associated performing function in each iteration of
the RBDO problem,
the method FORM (PMA) will be used in connection with the
HMV algorithm
for obtaining the project point. The sensitivity analyses
are carried out by the
analytical method.
|
55 |
[en] PERFORMANCE OPTIMIZATION OF A REAL ASSETS AND OPTIONS PORTFOLIO USING THE OMEGA MEASURE / [pt] OTIMIZAÇÃO DA PERFORMANCE DE UM PORTFÓLIO DE ATIVOS E OPÇÕES REAIS UTILIZANDO A MEDIDA OMEGAJAVIER GUTIERREZ CASTRO 18 August 2008 (has links)
[pt] A presente tese tem como objetivo estabelecer uma
metodologia que permita efetuar uma composição otimizada de
uma carteira de ativos reais, determinando os que serão
selecionados na carteira, de tal forma que atendam a
um conjunto de restrições características da carteira sob
análise, e levando em conta a possibilidade de exercer
opções reais. Esta otimização se realiza em
função da maximização da medida de performance Omega, a
qual se define como a relação entre o ganho médio esperada
e a perda média esperada da distribuição de retornos ou da
distribuição de Valores Presente Líquido (VPL). Esta medida
requer que seja previamente definido o nível mínimo de
retorno (ou VPL) desejado pelos investidores, que é o
limite entre a área de ganhos e a de perdas na
distribuição. A medida Omega leva em consideração todos os
momentos da distribuição de retornos futuros ou VPL, não se
restringindo ao mundo simplificado da Média-Variância. É um
fato empírico conhecido que as distribuições de muitas
variáveis financeiras não seguem uma distribuição normal
e que a maioria dos investidores não possuem funções de
utilidade quadrática, fazendo com que a modelagem clássica
de composição de carteiras proposta por Markowitz (1952)
não seja apropriada nestes casos. Omega permite lidar
satisfatoriamente com todo tipo de distribuições, sejam ou
não normais. Na presente tese, a abordagem proposta se
baseia em métodos numéricos de Simulação de Monte Carlo,
para a determinação das distribuições de VPL e o
cálculo da medida Omega. / [en] This thesis develops a methodology to determine an optimum
composition of a portfolio of real assets. It involves
selecting real assets which will be included in the
portfolio and taking into consideration all the constraints
which apply. The possibility of exercising real options is
taken into consideration. The determination of the optimum
composition is done by maximizing a performance measure
called Omega. Omega measure is defined as the relation
between the expected average gain (Expected Chance) vs. the
expected average loss (Expected Shortfall) of the returns
or Net Present Values (NPV) distribution. This measure
requires the decision maker to define previously the
minimum desirable level of return or NPV, depending on the
context it is being used, which is the border
between the gains and losses areas in the distribution.
Omega takes into account of all the moments of the
distribution of the future returns or NPV, implying it
does not restrict to the Mean-Variance world. It is a well
known empirical fact that many financial variables don´t
follow normal distributions or most investors
don´t have quadratic utility functions, which causes the
classical model of portfolio composition proposed by
Markowitz (1952) inappropriate. The Omega
measure can deal satisfactorily in all cases not having
normal distributions or even in cases which have normal
distributions. In this thesis, the numerical method of
Monte Carlo Simulation is used to determine the NPV
distribution and calculate Omega measure.
|
56 |
[en] ANALYSIS AND DEVELOPMENT OF A STAR-TREE MODEL ESTIMATION SOFTWARE / [pt] ANÁLISE E DESENVOLVIMENTO DE SISTEMA DE ESTIMAÇÃO DE MODELOS DA CLASSE STAR-TREEBERNARDO DA ROCHA SPINDEL 10 September 2009 (has links)
[pt] Na análise de séries temporais, os modelos lineares amplamente
difundidos e utilizados, como regressões lineares e modelos auto-regressivos, não
são capazes de capturar sua natureza muitas vezes não-linear,oferecendo
resultados insatisfatórios. Séries financeiras, por exemplo, apresentam este tipo de
comportamento. Ao longo dos últimos anos, houve o surgimento de muitos
modelos não lineares para análise de séries temporais, tanto estatísticos como de
inteligência computacional, baseados em redes neurais. Esta dissertação se propõe
a analisar a performance do modelo STAR-Tree sob diversos cenários de
conFiguração, parametrização e metodologias de estimação. Esta classe de
modelos subdivide os dados de uma série temporal em regiões distintas que
atendem critérios especificados em funções chamadas de pertinências. A cada
região é atribuído um modelo linear auto-regressivo. Cada dado estimado pode
estar em alguma das regiões com algum grau de pertinência determinado pelas
funções fornecidas pelo modelo principal. Fatores como a proximidade das
regiões, a suavidade das funções de pertinência e a falta de diversidade nos dados
podem dificultar a estimação dos modelos. Para avaliar a qualidade das
estimações sob os diversos cenários, foi construído um sistema capaz de gerar
séries artificiais, importar séries externas, estimá-las sob a modelagem STAR-Tree,
e gerar simulações de Monte Carlo que avaliam a qualidade da estimação de
parâmetros e a capacidade de detecção das estruturas de árvore do modelo. Ele foi
utilizado como ferramenta para realizar as análises presentes na dissertação, e
permitiu que se testassem diferentes conFigurações de métodos e parametrizações
com facilidade. / [en] In time series analysis, linear models that have been broadly used, such as
linear regressions and auto-regressive models, are not able to capture the some
times non linear nature of some data, offering poor estimation results. Financial
series, for instance, show that kind of behavior. Over the last years, a great
number of non linear models have been developed in order to analyze time series,
some of them statistical, others based on computational intelligence techniques
such as neural networks. The purpose of this dissertation is to analyze the
performance of the STAR-Tree model under distinct scenarios that differ in model
specification, parameterization and estimation methodologies. This class of
models splits time series data into individual regions which fulfill the criteria set
up by functions called pertinences. A linear model then is selected for each one of
those regions. Each estimated data point can belong to one of the mentioned
regions with some degree of pertinence, supplied by the above mentioned
pertinence functions. Aspects like the proximity between regions, the smoothness
of the pertinence functions and the lack of diversity in real data can significantly
affect the estimation of models. In order to evaluate the quality of the estimations
under the different proposed scenarios, a software was developed with the
capabilities of generating artificial time series, importing external series,
estimating them under the STAR-Tree model, and generating Monte Carlo
simulations that evaluate the quality of parameter estimation and the tree structure
detection capability of the model. The software was used as the single tool to
generate this dissertation’s analyses, and allowed that different model
specifications and methods could be tested without difficulty.
|
57 |
[en] BLACK OIL RESERVOIRS SIMULATOR PROXY USING COMPUTATIONAL INTELLIGENCE AND FRACTIONAL FACTORIAL DESIGN OF EXPERIMENTS / [pt] APROXIMADOR DE FUNÇÃO PARA SIMULADOR DE RESERVATÓRIOS PETROLÍFEROS UTILIZANDO TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL E PROJETO DE EXPERIMENTOS FATORIAIS FRACIONADOALEXANDRE DE CASTRO ALMEIDA 30 March 2009 (has links)
[pt] Em diversas etapas da cadeia de trabalho da Indústria de Óleo e Gás a atividade de Engenharia de Petróleo demanda processos que envolvem otimização. Mais especificamente, no gerenciamento de reservatórios, as metodologias para a tomada de decisão pelo uso de poços inteligentes envolvem processos de otimização. Nestes processos, normalmente, visa-se maximizar o VPL (Valor Presente Líquido), que é calculado através das curvas de produção de óleo, gás e água fornecidas por um simulador de reservatório. Estas simulações demandam alto custo computacional, muitas vezes inviabilizando processos de otimização. Neste trabalho, empregam-se técnicas de inteligência computacional - modelos de redes neurais artificiais e neuro-fuzzy - para a construção de aproximadores de função para simulador de reservatórios com o objetivo de diminuir o custo computacional de um sistema de apoio à decisão para utilização ou não de poços inteligentes em reservatórios petrolíferos. Para reduzir o número de amostras necessárias para a construção dos modelos, utiliza-se também Projeto de Experimentos Fatoriais Fracionado. Os aproximadores de função foram testados em dois reservatórios petrolíferos: um reservatório sintético, muito sensível às mudanças no controle de poços inteligentes e outro com características reais. Os resultados encontrados indicam que estes aproximadores de reservatório conseguem bom desempenho na substituição do simulador no processo de otimização - devido aos baixos erros encontrados e à substancial diminuição do custo computacional. Além disto, os testes demonstraram que a substituição total do simulador pelo aproximador se revelou uma interessante estratégia para utilização do sistema de otimização, fornecendo ao especialista uma rápida ferramenta de apoio à decisão. / [en] In many stages of the work chain of Oil & Gas Industry,
activities of petroleum engineering demand processes that
involve optimization. More specifically, in the reservoirs
management, the methodologies for decision
making by using intelligent wells involve optimization
processes. In those processes, usually, the goal is to
maximize the NVP (Net Present Value), which
is calculated through the curves of oil, gas and water
production, supplied by a reservoir simulator. Such
simulations require high computational costs, therefore
in many cases the optimization processes become unfeasible.
Techniques of computational intelligence are applied in
this study - artificial neural networks and
neuro-fuzzy models - for building proxies for reservoirs
simulators aiming at to reduce the computational cost in a
decision support system for using, or not,
intelligent wells within oil reservoirs. In order to reduce
the number of samples needed for build the models, it was
used the Fractional Factorial Design of
Experiments. The proxies have been tested in two oil
reservoirs: a synthetic one, very sensitive to changes in
the control of intelligent wells and another one with
real characteristics. The replacement of the simulator by
the reservoir proxy, in an optimization process, indicates
a good result in terms of performance - low
errors and significantly reduced computational costs.
Moreover, tests demonstrate that the total replacement of
the simulator by the proxy, turned out to be an interesting
strategy for using the optimization system, which provides
to the users a very fast tool for decision support.
|
58 |
[en] SEARCH ENGINE OPTIMIZATION OF WEBSITES AT INTERNET: A CONTRIBUTION FROM ERGODESIGN / [pt] OTIMIZAÇÃO DE WEBSITES PARA MECANISMOS DE BUSCA NA INTERNET: UMA CONTRIBUIÇÃO DO ERGODESIGNPATRICK SCRIPILLITI BAHIA DE ALMEIDA 20 August 2007 (has links)
[pt] Os mecanismos de busca vêm se tornando os principais
intermediários entre
os usuários e toda a informação que está disponível na
Internet. O bom
posicionamento de um sítio nos resultados apresentados
aos
usuários dos
mecanismos de busca é um diferencial de mercado, pois
permite aumentar
significantemente o tráfego do sítio, além de se
trabalhar
com a marca da empresa.
Esta pesquisa foi realizada com usuários e
desenvolvedores, focados em Internet,
com o objetivo de apontar recomendações para o projeto
de
otimização de sítios
para mecanismos de busca na Internet. Os métodos
utilizados foram: questionário,
análise de relatórios do Google Analytics e a realização
de um projeto de
otimização em um estudo de caso; escala de avaliação de
Likert por
desenvolvedores e análise da tarefa com os usuários. Com
os resultados obtidos é
possível afirmar que os desenvolvedores ainda não estão
trabalhando
adequadamente a otimização e os usuários, cada vez mais,
acessam mecanismos
de busca na Internet. / [en] Search engines are becoming the main tool between users
and all the
information available at Internet. The good positioning of
a website in a search
engine results is a differential of the market, for it
allows significant increase on
the traffic of the website as well as enforcement in the
brand. This research
involved users and developers, with focus on the Internet,
with the purpose of
pointing guidelines for the design of search engine
optimization related to search
mechanisms on the Internet. The methods were:
questionnaire; analysis of Google
Analytics reports, development of an optimization project
in a case study;
evaluation scale of Likert, and task analysis with users.
From the obtained data it
is possible to affirm that the developers aren't working
adequately within the
search engine optimization and the users are accessing
more and more search
engine websites.
|
59 |
A genetic algorithm for fair land allocation / um algoritmo genético para alocação justa de terrasGliesch, Alex Zoch January 2018 (has links)
O objetivo de projetos de reforma agrária é redistribuir terras de grandes latifúndios para terrenos menores, com destino à agricultura familiar. Um dos principais problemas do Instituto Nacional de Colonização e Reforma Agrária (INCRA) é subdividir uma parcela grande de terra em lotes menores que são balanceados com relação a certos atributos. Este problema é difícil por que precisa considerar diversas restrições legais e éticas. As soluções atuais são auxiliadas por computador, mas manuais, demoradas e suscetíveis a erros, tipicamente produzindo lotes retangulares de áreas similares mas que são injustos com relação a critérios como aptidão do solo ou acesso a recursos hidrográficos. Nesta dissertação, nós propomos um algoritmo genético para gerar subdivisões justas de forma automática. Nós apresentamos um algoritmo construtivo guloso randomizado baseado em locação-alocação para gerar soluções iniciais, assim como operadores de mutação e recombinação que consideram especificidades do problema. Experimentos com 5 instâncias reais e 25 instâncias geradas artificialmente confirmam a efetividade dos diferentes componentes do método proposto, e mostram que ele gera soluções mais balanceadas que as atualmente usadas na prática. / The goal of agrarian reform projects is the redistribution of farmland from large latifundia to smaller, often family farmers. One of the main problems the Brazilian National Institute of Colonization and Agrarian Reform (INCRA) has to solve is to subdivide a large parcel of land into smaller lots that are balanced with respect to certain attributes. This problem is difficult since it considers several constraints originating from legislation as well as ethical considerations. Current solutions are computer-assisted, but manual, time-consuming and error-prone, leading to rectangular lots of similar areas which are unfair with respect to soil aptitude and access to hydric resources. In this thesis, we propose a genetic algorithm to produce fair land subdivisions automatically. We present a greedy randomized constructive heuristic based on location-allocation to generate initial solutions, as well as mutation and recombination operators that consider specifics of the problem. Experiments on 5 real-world and 25 artificial instances confirm the effectiveness of the different components of our method, and show that it leads to fairer solutions than those currently applied in practice.
|
60 |
A study onshop sceduling problems / Um estudo sobre escalonamento de processosZubaran, Tadeu Knewitz January 2018 (has links)
Escalonamento de processos é um tipo de problema de otimização combinatória no qual devemos alocar máquinas à tarefas por períodos específicos de tempo. A literatura contém diversos estudos propondo técnicas para resolver modelos de escalonamento de processos como o job shop e o open shop. Esses modelos permitem que os passos no processo produtivo sejam ou completamente ordenados ou sem ordenação alguma. Com o aumento da complexidade das aplicações industriais no encontramos, mais recentemente, diversos trabalhos que propõe problemas de escalonamento de processos mais gerais para modelar mais precisamente os processos produtivos. O mixed shop, group shop e partial shop são exemplos de tais modelos. Nesse trabalho nós propomos uma busca tabu iterada para o partial shop, que é um modelo geral que inclui diversos modelos mais restritivos. Os componentes novos mais importantes da técnica são o gerador de solução inicial, a vizinhança e o limite inferior para a vizinhança. Em experimentos computacionais nós conseguimos demonstrar que a heurística genérica e única é capaz de competir, e as vezes superar, as técnicas de estado de arte desenvolvidas especificamente para partial, open, mixed e group shop. Algumas vezes uma máquina é o gargalo de um processo produtivo, e é replicada. Na literatura o caso das máquinas paralelas foi incluído em diversas extensões de problemas de escalonamento de processos. Nessa tese nós também propomos uma técnica para escalonar as máquinas paralelas, sem incluí-las explicitamente na representação do problema. Nós usamos técnicas gerais para os casos sem máquinas paralelas para produzir uma busca heurística tabu rápida, e estado da arte, para o caso do job shop com máquinas paralelas. / Shop scheduling is a combinatorial optimization type of problem in which we must allocate machines to jobs for specific periods time. A set of constraints defines which schedules are valid, and we must select one that minimizes or maximizes an objective function. In this work we use the makespan, which is the time the last job finishes. The literature contains several studies proposing techniques to solve shop problems such as the job shop and open shop. These problems allow the steps of the production processes to be either fully ordered or not ordered at all. With increasing complexity and size of industrial applications we find, more recently, several works which propose more general shop problems to model the production processes more accurately. The mixed shop, group shop and partial shop are examples of such problems In this work we propose an iterated tabu search for the partial shop, which is a general problem and includes several other more restrictive shop problems. The most important novel components of the solver are the initial solution generator, the neighbourhood, and the lower bound for the neighbourhood. In computational experiments we were able to show that the general partial shop solver is able to compete with, and sometimes surpass, the state-of-the-art solvers developed specifically for the partial, open, mixed and group shops. Sometimes a machine is a bottleneck in the production process, and is replicated. In the literature the parallel machines case has being included in several extensions of shop problems. In this thesis we also propose a technique to schedule the parallel machines heuristically, without including them explicitly in the representation of the problem. We use general techniques for the non-parallel machine cases to produce a fast tabu search heuristic results for the job shop with parallel machines.
|
Page generated in 0.1448 seconds