• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 259
  • 87
  • 1
  • Tagged with
  • 347
  • 297
  • 296
  • 47
  • 47
  • 46
  • 44
  • 41
  • 37
  • 37
  • 36
  • 35
  • 32
  • 31
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

[en] METHODOLOGY FOR THE DETERMINATION OF LEVEL GOALS FOR FUTURE OPERATING CONDITIONS OF THE NATIONAL INTERCONNECTED SYSTEM / [pt] METODOLOGIA DE DETERMINAÇÃO DOS NÍVEIS METAS PARA AS FUTURAS CONDIÇÕES DE OPERAÇÃO DO SISTEMA INTERLIGADO NACIONAL

CARLOS ALBERTO DE ARAUJO JUNIOR 30 April 2014 (has links)
[pt] O Sistema Interligado Nacional Brasileiro (SIN) é um sistema hidrotérmico com forte predominância de geração hidráulica, caracterizado pela existência de reservatórios de grande porte com regularização plurianual. Contudo, com a perspectiva da entrada em operação na região Amazônica de novas usinas de grande porte quanto à capacidade de geração, mas de pequena capacidade de regularização, tem-se a perspectiva de mudanças no atual perfil de operação do SIN em função da região Amazônica possuir um forte ciclo sazonal e baixa complementaridade com as demais regiões do Brasil. Com isto, a metodologia atualmente utilizada, que minimiza o valor esperado do custo total de operação, tende a elevar o risco dos reservatórios do subsistema Sudeste atingirem níveis baixos no fim do período seco, supondo que com a importação de energia da região Amazônica no período úmido o armazenamento, em média, possa ser recuperado. O deplecionamento a níveis baixos dos reservatórios do subsistema Sudeste pode significar um aumento no risco de atendimento à demanda energética, caso venha a se configurar um cenário de afluência desfavorável no período úmido. Isso requer aprimoramentos metodológicos a fim de considerar este novo perfil de operação do SIN. Neste contexto, este trabalho propõe o desenvolvimento de uma modelagem utilizando métodos de apoio multicritério à decisão, que permite a consideração de múltiplos objetivos, para definição do nível mínimo de armazenamento do subsistema Sudeste ao final do período seco de forma a minimizar o valor esperado do custo, dado que se garanta a segurança energética do SIN. O desempenho da metodologia proposta foi avaliado por meio de estudos de casos aplicados ao SIN, para a condição atual e futura, nas quais as novas usinas da região Amazônica estão totalmente motorizadas, e os resultados obtidos, assim como as vantagens observadas ao se utilizar a metodologia multicritério, são discutidos ao longo do texto. / [en] The Brazilian National Interconnected System (SIN) is a large scale hydrothermal system with a strong predominance of hydro generation, characterized by large reservoirs with multi-annual regularization capabilities. However, with the prospect of entry in operation in the Amazon region of new large plants with high generation capacity but low inflows regularization capacity, methodological changes in the energy planning operations are expected due to Amazon’s region strong seasonal cycle and low complementarity with other regions of Brazil. This way, the current methodology, which minimizes the expected value of the total operations cost, tends to raise the risk of the drawdown of the Southeast subsystem reservoirs reaching low levels at the end of the dry season, with the assumption that the reservoirs, on average, will be recovered by the energy imported from Amazon during the wet season. The low drawdown of Southeast subsystem reservoirs can pose a risk for dry scenarios, which may not be able to meet the energy demand. In this context, this work proposes the development of a model using multicriteria decision support methods, which allows consideration of multiple objectives, to define the minimum level of storage of the Southeast subsystem at the end of the dry season to minimize the expected value of cost, provided that it guarantees the energy security of the SIN during the next year. The performance of the proposed methodology has been evaluated by means of case studies applied to SIN, for both the current conditions and the expected future conditions. The results obtained, as well as the advantages observed when using the multicriteria methodology, are discussed throughout the text.
52

[en] ON THE IMPROVED AND THE OPTIMUM NOTCH SHAPE / [pt] ENTALHES MELHORADOS E OTIMIZADOS

DANIEL DE ALBUQUERQUE SIMOES 22 March 2013 (has links)
[pt] A maioria dos componentes estruturais possui entalhes ou detalhes geométricos de transição, tais como furos e ombros, que são necessários para montar e/ou para operá-los. Estes entalhes aumentam localmente as tensões nominais que atuariam em sua localização, caso eles não existissem. Efeitos da concentração de tensão são importantes em muitos mecanismos de falha, como por exemplo, na iniciação de trincas por fadiga. No entanto, os tradicionais raios circulares, usados na maioria dos elementos estruturais para aliviar os efeitos da concentração de tensão, não são os mais adequados para minimizá-los. Elementos estruturais naturais, tais como galhos de árvores, depois de milhões de anos de evolução aprenderam a usar raio de curvatura variável em vez do raio constante. Mas apesar deste problema ter sido reconhecido há muito tempo, raios variáveis ainda não são muito usados em projeto mecânico. A prática usual é especificar entalhes com os maiores raios possíveis, uma vez que eles podem ser facilmente fabricados em máquinas-ferramentas tradicionais. Entretanto, entalhes de raios variáveis corretamente especificados podem ter fatores de concentração de tensão muito mais baixos do que aqueles obtidos por raios constantes. Logo, eles podem ser uma boa opção para aumentar a vida à fadiga, sem afetar significativamente as dimensões globais e o peso dos componentes estruturais. Além disso, hoje em dia eles podem ser facilmente fabricados com precisão, devido à disponibilidade de máquinasferramentas CNC. Esta dissertação tem como objetivo quantificar a melhoria da concentração de tensão que pode ser obtidas através de receitas tradicionais de raios variáveis, e apresenta uma rotina numérica desenvolvida em ANSYS APDL para otimizar geometria de entalhes tais como ombro de placas submetidas a tensão ou flexão, placa com furo submetido a um campo biaxial de tensões e corpos de prova de fadiga da ASTM. / [en] Most structural components have notches, or geometric transition details such as holes and corners which are required to assemble and/or to operate them. These notches locally increase the nominal stresses that would act in their location, if they were not there. Stress concentration effects are very important in many failure mechanisms, such as fatigue crack initiation. However, the usual constant radius notch tip roots, used in most structural members to alleviate their stress concentration effects, do not minimize them. In fact, natural structural members, such as tree branches, after many million years of evolution have learned to use variable tip radii instead of the fixed radius typical of engineering notches. This problem has been recognized for a long time, but variable radii notches optimized to minimize their deleterious influence on fatigue strength still are not widely used in mechanical design. The usual practice is to specify notches with as large as possible constant radius roots, since they can be easily fabricated in traditional machine tools. However, notches with properly specified variable radius can have much lower stress concentration factors than those obtainable by fixed notch root radii. Therefore, such improved notches can be a good design option to augment fatigue lives without significantly affecting structural components global dimensions and weight. Moreover, these improved notches are certainly more useful than ever, as nowadays they can be manufactured in many structural components, due to the wide availability of CNC machine tools. This dissertation aims to quantify the stress concentration improvements achievable by traditional variable radii notches receipts, and presents a numerical routine, developed in ANSYS APDL to optimize notch shapes of mechanical components such as shoulders in plates subjected to tension or bending, plates with a hole subjected to a biaxial stress field, and standard ASTM fatigue test specimens.
53

[en] APPLICATION OF MATHEMATICAL MODELING TO OPTIMIZE ASPHALT DISTRIBUTION IN BRAZIL: A CASE STUDY / [pt] APLICAÇÃO DE MODELAGEM MATEMÁTICA NA OTIMIZAÇÃO DA DISTRIBUIÇÃO DE ASFALTOS NO BRASIL: UM ESTUDO DE CASO

LEONARDO NOGUEIRA FINAMORE 07 April 2015 (has links)
[pt] A demanda por asfaltos vem crescendo fortemente no Brasil por conta do ciclo vigoroso de expansão e recuperação de obras viárias de novos empreendimentos em rodovias, portos e aeroportos, que compõem o PAC – Programa de Aceleração do Crescimento. Neste cenário, a otimização da distribuição de asfaltos faz-se necessária para garantir o abastecimento do produto no país. Diante deste contexto, foi desenvolvido um modelo de programação linear que permite avaliar as alternativas de atendimento ao mercado de asfaltos, considerando minimizar os custos operacionais envolvidos na entrega aos polos de venda, a partir das refinarias produtoras. O modelo proposto foi aplicado em um estudo de caso que considerou a necessidade da criação de um novo polo de venda, em complemento aos polos atualmente existentes. O resultado obtido permite fundamentar a tomada de decisão na escolha da alternativa que garanta o atendimento ao mercado do país com o menor custo. / [en] The demand for asphalt has been growing strongly in Brazil because of the vigorous cycle of expansion and recovery of roadworks and new projects in roads, ports and airports which comprises the PAC - National Growth Acceleration Program. Given this context, the optimization of asphalt distribution is needed to ensure the supply of the product in the country. In this context, we propose a linear programming model that allows to evaluate alternative services for the asphalt market, considering the minimization of operational costs involved in delivering asphalt from the refineries to the selling locations. The proposed model was evaluated through a case study that addressed the need of creating a new center for delivery, in addition to the currently existing poles. Results obtained were able to support the decision making in choosing the alternative that ensures compliance with the country s market at the lowest cost.
54

[en] RELIABILITY-BASED DESIGN OPTIMIZATION OF REINFORCED CONCRETE PLANE FRAMES / [pt] PROJETO ÓTIMO BASEADO EM CONFIABILIDADE DE PÓRTICOS PLANOS DE CONCRETO ARMADO

ALEX FABIANO DE ALMEIDA 28 April 2008 (has links)
[pt] Este trabalho compara o projeto ótimo determinístico (DDO) com o projeto ótimo baseado em confiabilidade (RBDO) de pórticos planos de concreto armado. A estrutura é modelada por uma malha de elementos finitos usando elementos de barras e considerando a não-linearidade geométrica e dos materiais. Na formulação do problema de otimização proposto as variáveis de projeto são definidas para cada elemento finito da malha. Elas são as armaduras superior e inferior das seções transversais de extremidade do elemento, a altura da seção do elemento, as áreas de armadura transversal e o parâmetro D usado para descrever os estados limites últimos de acordo com a norma brasileira NBR 6118 (ABNT, 2004). Os algoritmos de otimização utilizados são os de programação quadrática seqüencial (PQS), programação linear seqüencial (PLS) e o método das direções viáveis (MDV). As variáveis randômicas do problema de RBDO são a resistência à compressão do concreto, as resistências à tração e à compressão do aço, assim como as cargas aplicadas. As funções de comportamento são de dois tipos, a primeira é relativa à carga crítica da estrutura e a segunda ao controle de deslocamento para o estado limite de utilização. Para o cálculo da probabilidade de falha de uma função de comportamento, em cada iteração do problema de RBDO, o método FORM (PMA) utilizará o algoritmo HMV para obtenção do ponto de projeto. Análise de sensibilidade é feita pelo método analítico. / [en] This work compares the Deterministic Design Optimization (DDO) with the Reliability-Based Design Optimization (RBDO) of reinforced concrete plane frames. The structure is modeled by a finite element mesh using bar elements and considering both geometric and material nonlinearities. In the formulation of the proposed optimization problem the design variables are defined for each element of the finite element mesh. They are the areas of tensile and compressive reinforcement at the element ends, the depth of the element rectangular cross-section, the areas of shear reinforcement, and the parameter D used to describe the deformation limit sates for the element cross-sections defined according to the Brazilian code for the design of concrete structures NBR 6118 (ABNT, 2004). The optimization algorithms used are the Sequential Linear Programming (SLP), the Sequential Quadratic Programming (SQP) and the Method of Feasible Direction (MFD). The random variables of the RBDO problem are the concrete compressive strength, the steel compressive and tensile strength, as well as some applied loads. The performance functions are of two types, the first relates to the critical load of the structure and the second to the control of displacements in the serviceability state. For performing the calculation of the probability of failure for the associated performing function in each iteration of the RBDO problem, the method FORM (PMA) will be used in connection with the HMV algorithm for obtaining the project point. The sensitivity analyses are carried out by the analytical method.
55

[en] PERFORMANCE OPTIMIZATION OF A REAL ASSETS AND OPTIONS PORTFOLIO USING THE OMEGA MEASURE / [pt] OTIMIZAÇÃO DA PERFORMANCE DE UM PORTFÓLIO DE ATIVOS E OPÇÕES REAIS UTILIZANDO A MEDIDA OMEGA

JAVIER GUTIERREZ CASTRO 18 August 2008 (has links)
[pt] A presente tese tem como objetivo estabelecer uma metodologia que permita efetuar uma composição otimizada de uma carteira de ativos reais, determinando os que serão selecionados na carteira, de tal forma que atendam a um conjunto de restrições características da carteira sob análise, e levando em conta a possibilidade de exercer opções reais. Esta otimização se realiza em função da maximização da medida de performance Omega, a qual se define como a relação entre o ganho médio esperada e a perda média esperada da distribuição de retornos ou da distribuição de Valores Presente Líquido (VPL). Esta medida requer que seja previamente definido o nível mínimo de retorno (ou VPL) desejado pelos investidores, que é o limite entre a área de ganhos e a de perdas na distribuição. A medida Omega leva em consideração todos os momentos da distribuição de retornos futuros ou VPL, não se restringindo ao mundo simplificado da Média-Variância. É um fato empírico conhecido que as distribuições de muitas variáveis financeiras não seguem uma distribuição normal e que a maioria dos investidores não possuem funções de utilidade quadrática, fazendo com que a modelagem clássica de composição de carteiras proposta por Markowitz (1952) não seja apropriada nestes casos. Omega permite lidar satisfatoriamente com todo tipo de distribuições, sejam ou não normais. Na presente tese, a abordagem proposta se baseia em métodos numéricos de Simulação de Monte Carlo, para a determinação das distribuições de VPL e o cálculo da medida Omega. / [en] This thesis develops a methodology to determine an optimum composition of a portfolio of real assets. It involves selecting real assets which will be included in the portfolio and taking into consideration all the constraints which apply. The possibility of exercising real options is taken into consideration. The determination of the optimum composition is done by maximizing a performance measure called Omega. Omega measure is defined as the relation between the expected average gain (Expected Chance) vs. the expected average loss (Expected Shortfall) of the returns or Net Present Values (NPV) distribution. This measure requires the decision maker to define previously the minimum desirable level of return or NPV, depending on the context it is being used, which is the border between the gains and losses areas in the distribution. Omega takes into account of all the moments of the distribution of the future returns or NPV, implying it does not restrict to the Mean-Variance world. It is a well known empirical fact that many financial variables don´t follow normal distributions or most investors don´t have quadratic utility functions, which causes the classical model of portfolio composition proposed by Markowitz (1952) inappropriate. The Omega measure can deal satisfactorily in all cases not having normal distributions or even in cases which have normal distributions. In this thesis, the numerical method of Monte Carlo Simulation is used to determine the NPV distribution and calculate Omega measure.
56

[en] ANALYSIS AND DEVELOPMENT OF A STAR-TREE MODEL ESTIMATION SOFTWARE / [pt] ANÁLISE E DESENVOLVIMENTO DE SISTEMA DE ESTIMAÇÃO DE MODELOS DA CLASSE STAR-TREE

BERNARDO DA ROCHA SPINDEL 10 September 2009 (has links)
[pt] Na análise de séries temporais, os modelos lineares amplamente difundidos e utilizados, como regressões lineares e modelos auto-regressivos, não são capazes de capturar sua natureza muitas vezes não-linear,oferecendo resultados insatisfatórios. Séries financeiras, por exemplo, apresentam este tipo de comportamento. Ao longo dos últimos anos, houve o surgimento de muitos modelos não lineares para análise de séries temporais, tanto estatísticos como de inteligência computacional, baseados em redes neurais. Esta dissertação se propõe a analisar a performance do modelo STAR-Tree sob diversos cenários de conFiguração, parametrização e metodologias de estimação. Esta classe de modelos subdivide os dados de uma série temporal em regiões distintas que atendem critérios especificados em funções chamadas de pertinências. A cada região é atribuído um modelo linear auto-regressivo. Cada dado estimado pode estar em alguma das regiões com algum grau de pertinência determinado pelas funções fornecidas pelo modelo principal. Fatores como a proximidade das regiões, a suavidade das funções de pertinência e a falta de diversidade nos dados podem dificultar a estimação dos modelos. Para avaliar a qualidade das estimações sob os diversos cenários, foi construído um sistema capaz de gerar séries artificiais, importar séries externas, estimá-las sob a modelagem STAR-Tree, e gerar simulações de Monte Carlo que avaliam a qualidade da estimação de parâmetros e a capacidade de detecção das estruturas de árvore do modelo. Ele foi utilizado como ferramenta para realizar as análises presentes na dissertação, e permitiu que se testassem diferentes conFigurações de métodos e parametrizações com facilidade. / [en] In time series analysis, linear models that have been broadly used, such as linear regressions and auto-regressive models, are not able to capture the some times non linear nature of some data, offering poor estimation results. Financial series, for instance, show that kind of behavior. Over the last years, a great number of non linear models have been developed in order to analyze time series, some of them statistical, others based on computational intelligence techniques such as neural networks. The purpose of this dissertation is to analyze the performance of the STAR-Tree model under distinct scenarios that differ in model specification, parameterization and estimation methodologies. This class of models splits time series data into individual regions which fulfill the criteria set up by functions called pertinences. A linear model then is selected for each one of those regions. Each estimated data point can belong to one of the mentioned regions with some degree of pertinence, supplied by the above mentioned pertinence functions. Aspects like the proximity between regions, the smoothness of the pertinence functions and the lack of diversity in real data can significantly affect the estimation of models. In order to evaluate the quality of the estimations under the different proposed scenarios, a software was developed with the capabilities of generating artificial time series, importing external series, estimating them under the STAR-Tree model, and generating Monte Carlo simulations that evaluate the quality of parameter estimation and the tree structure detection capability of the model. The software was used as the single tool to generate this dissertation’s analyses, and allowed that different model specifications and methods could be tested without difficulty.
57

[en] BLACK OIL RESERVOIRS SIMULATOR PROXY USING COMPUTATIONAL INTELLIGENCE AND FRACTIONAL FACTORIAL DESIGN OF EXPERIMENTS / [pt] APROXIMADOR DE FUNÇÃO PARA SIMULADOR DE RESERVATÓRIOS PETROLÍFEROS UTILIZANDO TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL E PROJETO DE EXPERIMENTOS FATORIAIS FRACIONADO

ALEXANDRE DE CASTRO ALMEIDA 30 March 2009 (has links)
[pt] Em diversas etapas da cadeia de trabalho da Indústria de Óleo e Gás a atividade de Engenharia de Petróleo demanda processos que envolvem otimização. Mais especificamente, no gerenciamento de reservatórios, as metodologias para a tomada de decisão pelo uso de poços inteligentes envolvem processos de otimização. Nestes processos, normalmente, visa-se maximizar o VPL (Valor Presente Líquido), que é calculado através das curvas de produção de óleo, gás e água fornecidas por um simulador de reservatório. Estas simulações demandam alto custo computacional, muitas vezes inviabilizando processos de otimização. Neste trabalho, empregam-se técnicas de inteligência computacional - modelos de redes neurais artificiais e neuro-fuzzy - para a construção de aproximadores de função para simulador de reservatórios com o objetivo de diminuir o custo computacional de um sistema de apoio à decisão para utilização ou não de poços inteligentes em reservatórios petrolíferos. Para reduzir o número de amostras necessárias para a construção dos modelos, utiliza-se também Projeto de Experimentos Fatoriais Fracionado. Os aproximadores de função foram testados em dois reservatórios petrolíferos: um reservatório sintético, muito sensível às mudanças no controle de poços inteligentes e outro com características reais. Os resultados encontrados indicam que estes aproximadores de reservatório conseguem bom desempenho na substituição do simulador no processo de otimização - devido aos baixos erros encontrados e à substancial diminuição do custo computacional. Além disto, os testes demonstraram que a substituição total do simulador pelo aproximador se revelou uma interessante estratégia para utilização do sistema de otimização, fornecendo ao especialista uma rápida ferramenta de apoio à decisão. / [en] In many stages of the work chain of Oil & Gas Industry, activities of petroleum engineering demand processes that involve optimization. More specifically, in the reservoirs management, the methodologies for decision making by using intelligent wells involve optimization processes. In those processes, usually, the goal is to maximize the NVP (Net Present Value), which is calculated through the curves of oil, gas and water production, supplied by a reservoir simulator. Such simulations require high computational costs, therefore in many cases the optimization processes become unfeasible. Techniques of computational intelligence are applied in this study - artificial neural networks and neuro-fuzzy models - for building proxies for reservoirs simulators aiming at to reduce the computational cost in a decision support system for using, or not, intelligent wells within oil reservoirs. In order to reduce the number of samples needed for build the models, it was used the Fractional Factorial Design of Experiments. The proxies have been tested in two oil reservoirs: a synthetic one, very sensitive to changes in the control of intelligent wells and another one with real characteristics. The replacement of the simulator by the reservoir proxy, in an optimization process, indicates a good result in terms of performance - low errors and significantly reduced computational costs. Moreover, tests demonstrate that the total replacement of the simulator by the proxy, turned out to be an interesting strategy for using the optimization system, which provides to the users a very fast tool for decision support.
58

[en] SEARCH ENGINE OPTIMIZATION OF WEBSITES AT INTERNET: A CONTRIBUTION FROM ERGODESIGN / [pt] OTIMIZAÇÃO DE WEBSITES PARA MECANISMOS DE BUSCA NA INTERNET: UMA CONTRIBUIÇÃO DO ERGODESIGN

PATRICK SCRIPILLITI BAHIA DE ALMEIDA 20 August 2007 (has links)
[pt] Os mecanismos de busca vêm se tornando os principais intermediários entre os usuários e toda a informação que está disponível na Internet. O bom posicionamento de um sítio nos resultados apresentados aos usuários dos mecanismos de busca é um diferencial de mercado, pois permite aumentar significantemente o tráfego do sítio, além de se trabalhar com a marca da empresa. Esta pesquisa foi realizada com usuários e desenvolvedores, focados em Internet, com o objetivo de apontar recomendações para o projeto de otimização de sítios para mecanismos de busca na Internet. Os métodos utilizados foram: questionário, análise de relatórios do Google Analytics e a realização de um projeto de otimização em um estudo de caso; escala de avaliação de Likert por desenvolvedores e análise da tarefa com os usuários. Com os resultados obtidos é possível afirmar que os desenvolvedores ainda não estão trabalhando adequadamente a otimização e os usuários, cada vez mais, acessam mecanismos de busca na Internet. / [en] Search engines are becoming the main tool between users and all the information available at Internet. The good positioning of a website in a search engine results is a differential of the market, for it allows significant increase on the traffic of the website as well as enforcement in the brand. This research involved users and developers, with focus on the Internet, with the purpose of pointing guidelines for the design of search engine optimization related to search mechanisms on the Internet. The methods were: questionnaire; analysis of Google Analytics reports, development of an optimization project in a case study; evaluation scale of Likert, and task analysis with users. From the obtained data it is possible to affirm that the developers aren't working adequately within the search engine optimization and the users are accessing more and more search engine websites.
59

A genetic algorithm for fair land allocation / um algoritmo genético para alocação justa de terras

Gliesch, Alex Zoch January 2018 (has links)
O objetivo de projetos de reforma agrária é redistribuir terras de grandes latifúndios para terrenos menores, com destino à agricultura familiar. Um dos principais problemas do Instituto Nacional de Colonização e Reforma Agrária (INCRA) é subdividir uma parcela grande de terra em lotes menores que são balanceados com relação a certos atributos. Este problema é difícil por que precisa considerar diversas restrições legais e éticas. As soluções atuais são auxiliadas por computador, mas manuais, demoradas e suscetíveis a erros, tipicamente produzindo lotes retangulares de áreas similares mas que são injustos com relação a critérios como aptidão do solo ou acesso a recursos hidrográficos. Nesta dissertação, nós propomos um algoritmo genético para gerar subdivisões justas de forma automática. Nós apresentamos um algoritmo construtivo guloso randomizado baseado em locação-alocação para gerar soluções iniciais, assim como operadores de mutação e recombinação que consideram especificidades do problema. Experimentos com 5 instâncias reais e 25 instâncias geradas artificialmente confirmam a efetividade dos diferentes componentes do método proposto, e mostram que ele gera soluções mais balanceadas que as atualmente usadas na prática. / The goal of agrarian reform projects is the redistribution of farmland from large latifundia to smaller, often family farmers. One of the main problems the Brazilian National Institute of Colonization and Agrarian Reform (INCRA) has to solve is to subdivide a large parcel of land into smaller lots that are balanced with respect to certain attributes. This problem is difficult since it considers several constraints originating from legislation as well as ethical considerations. Current solutions are computer-assisted, but manual, time-consuming and error-prone, leading to rectangular lots of similar areas which are unfair with respect to soil aptitude and access to hydric resources. In this thesis, we propose a genetic algorithm to produce fair land subdivisions automatically. We present a greedy randomized constructive heuristic based on location-allocation to generate initial solutions, as well as mutation and recombination operators that consider specifics of the problem. Experiments on 5 real-world and 25 artificial instances confirm the effectiveness of the different components of our method, and show that it leads to fairer solutions than those currently applied in practice.
60

A study onshop sceduling problems / Um estudo sobre escalonamento de processos

Zubaran, Tadeu Knewitz January 2018 (has links)
Escalonamento de processos é um tipo de problema de otimização combinatória no qual devemos alocar máquinas à tarefas por períodos específicos de tempo. A literatura contém diversos estudos propondo técnicas para resolver modelos de escalonamento de processos como o job shop e o open shop. Esses modelos permitem que os passos no processo produtivo sejam ou completamente ordenados ou sem ordenação alguma. Com o aumento da complexidade das aplicações industriais no encontramos, mais recentemente, diversos trabalhos que propõe problemas de escalonamento de processos mais gerais para modelar mais precisamente os processos produtivos. O mixed shop, group shop e partial shop são exemplos de tais modelos. Nesse trabalho nós propomos uma busca tabu iterada para o partial shop, que é um modelo geral que inclui diversos modelos mais restritivos. Os componentes novos mais importantes da técnica são o gerador de solução inicial, a vizinhança e o limite inferior para a vizinhança. Em experimentos computacionais nós conseguimos demonstrar que a heurística genérica e única é capaz de competir, e as vezes superar, as técnicas de estado de arte desenvolvidas especificamente para partial, open, mixed e group shop. Algumas vezes uma máquina é o gargalo de um processo produtivo, e é replicada. Na literatura o caso das máquinas paralelas foi incluído em diversas extensões de problemas de escalonamento de processos. Nessa tese nós também propomos uma técnica para escalonar as máquinas paralelas, sem incluí-las explicitamente na representação do problema. Nós usamos técnicas gerais para os casos sem máquinas paralelas para produzir uma busca heurística tabu rápida, e estado da arte, para o caso do job shop com máquinas paralelas. / Shop scheduling is a combinatorial optimization type of problem in which we must allocate machines to jobs for specific periods time. A set of constraints defines which schedules are valid, and we must select one that minimizes or maximizes an objective function. In this work we use the makespan, which is the time the last job finishes. The literature contains several studies proposing techniques to solve shop problems such as the job shop and open shop. These problems allow the steps of the production processes to be either fully ordered or not ordered at all. With increasing complexity and size of industrial applications we find, more recently, several works which propose more general shop problems to model the production processes more accurately. The mixed shop, group shop and partial shop are examples of such problems In this work we propose an iterated tabu search for the partial shop, which is a general problem and includes several other more restrictive shop problems. The most important novel components of the solver are the initial solution generator, the neighbourhood, and the lower bound for the neighbourhood. In computational experiments we were able to show that the general partial shop solver is able to compete with, and sometimes surpass, the state-of-the-art solvers developed specifically for the partial, open, mixed and group shops. Sometimes a machine is a bottleneck in the production process, and is replicated. In the literature the parallel machines case has being included in several extensions of shop problems. In this thesis we also propose a technique to schedule the parallel machines heuristically, without including them explicitly in the representation of the problem. We use general techniques for the non-parallel machine cases to produce a fast tabu search heuristic results for the job shop with parallel machines.

Page generated in 0.1448 seconds