• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 79
  • 19
  • 15
  • 15
  • 12
  • 10
  • 9
  • 8
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 418
  • 418
  • 130
  • 70
  • 68
  • 65
  • 52
  • 50
  • 49
  • 47
  • 41
  • 36
  • 31
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Modelagem dos algor?tmos gen?tico simples e simulated annealing por cadeias de Markov

Rosa Neto, Jos? Cec?lio 16 April 2010 (has links)
Made available in DSpace on 2015-03-03T15:22:33Z (GMT). No. of bitstreams: 1 JoseCRN_DISSERT.pdf: 908143 bytes, checksum: e49901002fbfc242e514099db9428039 (MD5) Previous issue date: 2010-04-16 / Os Algoritmos Gen?tico (AG) e o Simulated Annealing (SA) s?o algoritmos constru?dos para encontrar m?ximo ou m?nimo de uma fun??o que representa alguma caracter?stica do processo que est? sendo modelado. Esses algoritmos possuem mecanismos que os fazem escapar de ?timos locais, entretanto, a evolu??o desses algoritmos no tempo se d? de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solu??o que ? testada e que pode ser aceita ou n?o, j? o AG trabalha com um conjunto de pontos, chamado popula??o, da qual gera outra popula??o que sempre ? aceita. Em comum com esses dois algoritmos temos que a forma como o pr?ximo ponto ou a pr?xima popula??o ? gerada obedece propriedades estoc?sticas. Nesse trabalho mostramos que a teoria matem?tica que descreve a evolu??o destes algoritmos ? a teoria das cadeias de Markov. O AG ? descrito por uma cadeia de Markov homog?nea enquanto que o SA ? descrito por uma cadeia de Markov n?o-homog?nea, por fim ser?o feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos
112

An?lise de escalabilidade de uma implementa??o paralela do simulated annealing acoplado

Silva, Kayo Gon?alves e 25 March 2013 (has links)
Made available in DSpace on 2014-12-17T14:56:13Z (GMT). No. of bitstreams: 1 KayoGS_DISSERT.pdf: 4975392 bytes, checksum: 5d113169a6356e5e7704aec116237caf (MD5) Previous issue date: 2013-03-25 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This paper analyzes the performance of a parallel implementation of Coupled Simulated Annealing (CSA) for the unconstrained optimization of continuous variables problems. Parallel processing is an efficient form of information processing with emphasis on exploration of simultaneous events in the execution of software. It arises primarily due to high computational performance demands, and the difficulty in increasing the speed of a single processing core. Despite multicore processors being easily found nowadays, several algorithms are not yet suitable for running on parallel architectures. The algorithm is characterized by a group of Simulated Annealing (SA) optimizers working together on refining the solution. Each SA optimizer runs on a single thread executed by different processors. In the analysis of parallel performance and scalability, these metrics were investigated: the execution time; the speedup of the algorithm with respect to increasing the number of processors; and the efficient use of processing elements with respect to the increasing size of the treated problem. Furthermore, the quality of the final solution was verified. For the study, this paper proposes a parallel version of CSA and its equivalent serial version. Both algorithms were analysed on 14 benchmark functions. For each of these functions, the CSA is evaluated using 2-24 optimizers. The results obtained are shown and discussed observing the analysis of the metrics. The conclusions of the paper characterize the CSA as a good parallel algorithm, both in the quality of the solutions and the parallel scalability and parallel efficiency / O presente trabalho analisa o desempenho paralelo de uma implementa??o do Simulated Annealing Acoplado (CSA, do ingl?s Coupled Simulated Annealing) para otimiza??o de vari?veis cont?nuas sem restri??es. O processamento paralelo ? uma forma eficiente de processamento de informa??o com ?nfase na explora??o de eventos simult?neos na execu??o de um software. Ele surge principalmente devido ?s elevadas exig?ncias de desempenho computacional e ? dificuldade em aumentar a velocidade de um ?nico n?cleo de processamento. Apesar das CPUs multiprocessadas, ou processadores multicore, serem facilmente encontrados atualmente, diversos algoritmos ainda n?o s?o adequados para executar em arquiteturas paralelas. O algoritmo do CSA ? caracterizado por um grupo de otimizadores Simulated Annealing (SA) trabalhando em conjunto no refinamento da solu??o. Cada otimizador SA ? executado em uma ?nica thread, e essas executadas por diferentes processadores. Na an?lise de desempenho e escalabilidade paralela, as m?tricas investigadas foram: o tempo de execu??o; o speedup do algoritmo com respeito ao aumento do n?mero de processadores; e a efici?ncia na utiliza??o de elementos de processamento com rela??o ao aumento da inst?ncia do problema tratado. Al?m disso, foi verificada a qualidade da solu??o final. Para o estudo, esse trabalho analisa uma vers?o paralela do CSA e sua vers?o serial equivalente. Ambos algoritmos foram analisados sobre 14 fun??es de refer?ncia. Para cada uma dessas fun??es, o CSA ? avaliado utilizando de 2 a 24 otimizadores. Os resultados obtidos s?o exibidos e comentados observando-se as m?tricas de an?lise. As conclus?es do trabalho caracterizam o CSA como um bom algoritmo paralelo, seja na qualidade das solu??es como na escalabilidade e efici?ncia paralela
113

Otimização multimodal através de novas técnicas baseadas em clusterização nebulosa / Multimodal optimization by new techiniques based on fuzzy clustering

Ana Carolina Rios Coelho 04 July 2011 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores. / In this thesis, a new family of methods designed for multimodal optimization is introduced. In these techniques, first of all, initial solutions are generated in order to explore the search space. Secondly, these solutions are grouped in clusters using a fuzzy-clustering algorithm so that multiple optima are found. Finally, an instance of deterministic optimization method is triggered within each cluster to reach for the local optimum. This family of methods is formed by six variants combining three initialization schemes in the first phase with two local search algorithms in the third. These methods are compared against other techniques in the literature using benchmarks, obtaining promising results.
114

Modelagem e otimização de experimentos para o tratamento térmico de recozimento: um estudo com o algoritmo simulated annealing / Experiments modeling and optimization for the annealing heat treatment: a study using the simulated annealing algorithm

Julio Faria da Silva Forte 13 September 2012 (has links)
Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada. / This dissertation presents a study for experiments modeling applied for a heat treatment industrial process. The driving force to this work have raised from usual difficulties while low-alloy steels annealing industrial processes get on, trying to find out temperatures which the superficial hardness measurements reaches low values enough and suitable for the following stages, in special focus, the machining. At the first time, some experiments have been done with several steel grades, where superficial hardness is achieved as a function by annealing temperature, percent carbon content and percent silicon content of the samples. There was purposed a quadratic model for modeling the hardness as a function of that three parameters. The parameter estimation of the purposed model was done by the simulated annealing algorithm, a metaheuristic for global optimization which can be as the same as annealing of a solid material. Starting at the purposed model, the inverse problem was solved, where the estimated annealing temperature was achieved by the carbon and silicon percent contents and the suitable hardness.
115

Meta-heurística baseada em simulated annealing para programação da produção em máquinas paralelas com diferentes datas de liberação e tempos de setup / Metaheuristic based on simulated annealing for production schedule in parallel machines with different release dates and time setup

Mesquita, Fernanda Neiva 15 December 2015 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2016-10-20T17:39:38Z No. of bitstreams: 2 Dissertação - Fernanda Neiva Mesquita - 2015.pdf: 2481424 bytes, checksum: 2263ae4d21d732d49ebd0e6d2e2763c6 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-10-21T19:23:42Z (GMT) No. of bitstreams: 2 Dissertação - Fernanda Neiva Mesquita - 2015.pdf: 2481424 bytes, checksum: 2263ae4d21d732d49ebd0e6d2e2763c6 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-10-21T19:23:42Z (GMT). No. of bitstreams: 2 Dissertação - Fernanda Neiva Mesquita - 2015.pdf: 2481424 bytes, checksum: 2263ae4d21d732d49ebd0e6d2e2763c6 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2015-12-15 / This study deals with problems of parallel machines with independent setup times, different dates of release and minimizing the makespan. The production environment is common in the auto industry that there may be jobs through the production line, they are added new machines or equal equipment to expand productive capacity. Any production process requires effective management by the Production Planning and Control (PCP). This activity includes the planning of production, so the allocation of resources for task execution on a time basis. The programming activity is one of the most complex tasks in the management of production because the need to deal with several different types of resources and concurrent activities. Furthermore, the number of solutions grows exponentially in several dimensions, according to the number of tasks, operations or machines, thereby generating a combinatorial nature of the problem. The environment treated in this work each task has the same processing time on any machine. Considering only the restriction independently of the task setup time waiting for processing and the presence of release dates different from zero very practical characteristics in industries. As were found in the literature work that deals of this work environment, even less that used the meta-heuristic Simulated Anneling, so we developed the method to the problem, along with the initial solution their disturbance schemes and the setting of lower bounds for the makespan. / Este estudo trata de problemas de máquinas paralelas com tempos de setup independentes, diferentes datas de liberação e minimização do makespan. Este ambiente de produção é comum na indústria automobilística que pode haver postos de trabalho em meio à linha de produção, em que são adicionadas novas máquinas ou equipamentos iguais para ampliar a capacidade produtiva. Qualquer processo produtivo requer um gerenciamento eficaz por meio do Planejamento e Controle da Produção (PCP). Esta atividade inclui a programação da produção, ou seja, a alocação de recursos para execução de tarefas em uma base de tempo. A atividade de programação é uma das tarefas mais complexas no gerenciamento da produção, pois a necessidade de lidar com diversos tipos diferentes de recursos e atividades simultâneas. Além disso, o número de soluções cresce exponencialmente em várias dimensões, de acordo com a quantidade de tarefas, operações ou máquinas, gerando assim uma natureza combinatória ao problema. O ambiente tratado neste trabalho cada tarefa tem o mesmo tempo de processamento em qualquer máquina. Considerando a restrição de tempos de setup independente apenas da tarefa que espera por processamento e a presença de datas de liberação diferentes de zero características muito práticas nas indústrias. Como não foram encontrados na literatura trabalho que tratasse desse ambiente de trabalho, ainda menos que utilizasse a meta-heurística Simulated Anneling, então foi desenvolvido o método para o problema, juntamente com a solução inicial os respectivos esquemas de perturbação e a definição de limitantes inferiores para o makespan.
116

Projeto de amplificadores de baixo ruído usando algoritmos metaheurísticos / Amplifier design low noise using algorithms metaheuristic

César William Vera Casañas 27 May 2013 (has links)
O projeto de amplificadores de baixo ruído (LNA) aparenta ser um trabalho simples pelos poucos componentes ativos e passivos que o compõe, porém a alta correlação entre os seus parâmetros de projeto dificulta muito esse trabalho. Esta dissertação apresenta uma proposta para contornar essa dificuldade: o uso de algoritmos metaheurísticos, em particular algoritmos genéticos e simulated annealing. Algoritmos metaheurísticos são técnicas avançadas que emulam princípios físicos ou naturais para resolver problemas com alto grau de complexidade. Esses algoritmos estão emergindo nos últimos anos porque têm mostrado eficiência e eficácia. São feitos neste trabalho os projetos de três LNAs, dois (LNA1 e LNA2) para sistemas com arquitetura homódine (LNA com carga capacitiva) e um (LNA3) para sistemas com arquitetura heteródine (LNA com carga resistiva) utilizando-se algoritmos genéticos e simulated annealing (recozimento simulado). Apresenta-se inicialmente a análise detalhada da configuração escolhida para os projetos (fonte comum cascode com degeneração indutiva FCCDI). A frequência de operação dos LNAs é 1,8 GHz e a fonte de alimentação de 2,0 V. Para o LNA1 e o LNA2 se atingiu uma figura de ruído de 2,8 dB e 3,2 dB, consumo de potência de 6,8 mW e 2,7 mW e ganho de tensão de 22 dB e 24 dB, respectivamente. Para LNA3 se atingiu uma figura de ruído de 3,5 dB, consumo de potência de 7,8 mW e ganho de tensão de 15,5 dB. Os resultados obtidos e comparações feitas com LNAs da literatura demonstram viabilidade e eficácia da aplicação de algoritmos metaheurísticos no projeto de LNA. Neste trabalho utilizaram-se as ferramentas ELDO (simulador de circuitos elétricos), versão 2009.1 patch1 64 bits, ASITIC (para projetar e simular os indutores), versão 03.19.00.0.0.0 e MATLAB (o toolbox fornece os algoritmos metaheurísticos), versão 7.9.0.529 R2009b. Além disso, os projetos foram desenvolvidos na tecnologia CMOS 0,35 m da AMS (Austria Micro Systems). / The design of low noise amplifiers (LNA) seems to be a simple work because the small number of active and passive device that they are composes, nevertheless the high trade off of LNA parameters complicates very much the work. This research presents a proposal to contour act the obstacle: to use metaheuristic algorithms, in special genetic algorithms and simulated annealing. The metaheuristic algorithms are advanced techniques that emulate physics or natural principles to solve problems with high grade of complexity. They have been emerging in the last years because they have shown effectiveness and efficiency. In this dissertation were designed three LNAs using genetic algorithms and simulated annealing: two (LNA1 and LNA2) to homódine architecture (LNA with capacitive load) and one (LNA3) to heteródine architecture (LNA with resistive load). First it is show the detailed analysis of configuration chosen to the designs (common source cascode with inductive degeneration). The operation frequency is 1.8 GHz and power supply is 2.0 V for all LNAs. LNA1 and LNA2 reached a noise figure of 2.8 dB and 3.2 dB, a dissipation power of 6.8 mW and 2.7 mW, and a voltage gain of 22 dB and 24 dB respectively. LNA3 reached 3.5 dB of noise figure, 7.8 mW of dissipation power, and 15.5 dB of voltage gain. The results obtained and the comparisons with LNAs from the literature demonstrate that the metaheuristic algorithms show efficiency and effectiveness in the design of LNA. This study was developed with the help of the tools ELDO (electric circuit simulator) version 2009.1 patch1 64 bits, ASITIC (to design and simulate the inductors) version 03.19.00.0.0.0, and MATLAB (the toolbox provides the metaheuristic algorithms) version 7.9.0.529 R2009b. Furthermore, the designs were developed on CMOS 0.35 AMS (Austria Micro Systems) technology.
117

Determinação dos parâmetros de convecção- dispersão- transferência de massa em meio poroso usando tomografia computadorizada / Determination of convection- dispersion- mass transfer parameters in porous media using computed tomography

Vidal Vargas, Janeth Alina, 1983- 27 August 2018 (has links)
Orientador: Osvair Vidal Trevisan / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-27T00:58:52Z (GMT). No. of bitstreams: 1 VidalVargas_JanethAlina_D.pdf: 6980631 bytes, checksum: 2e858ba97bc5f6f4bb3b1a075776555f (MD5) Previous issue date: 2015 / Resumo: O conhecimento dos fenômenos físicos envolvidos no transporte de fluidos no meio poroso é muito importante para o projeto e o sucesso dos processos de recuperação melhorada de petróleo. O deslocamento miscível é um dos métodos mais eficientes de recuperação melhorada de petróleo. O parâmetro mais relevante na eficiência do deslocamento miscível é a dispersão, que controla a evolução da zona de mistura dos dois fluidos e a propagação do fluido injetado. Neste trabalho é desenvolvido e avaliado um modelo matemático para o deslocamento miscível 1-D em meios heterogêneos. O modelo, referido como modelo de concentração total (MCT) é desenvolvido com base na equação de convecção-dispersão (ECD) considerando a interação entre a rocha e os fluidos. Os parâmetros fenomenológicos envolvidos no MCT são o coeficiente de dispersão, o coeficiente de transferência de massa, a porosidade efetiva do meio poroso no momento de deslocamento e a fração de soluto que é depositada ou retirada do meio poroso. Estes parâmetros podem ser determinados por meio de ajustes multiparâmétricos do modelo aos dados obtidos em laboratório. Para avaliar a aplicação do modelo MCT foram realizados dois experimentos A e B, cada um formado por 4 e 5 testes de deslocamento respectivamente. Os testes de deslocamento utilizaram duas salmouras e foram realizados empregando-se uma rocha carbonática. A evolução das concentrações ao longo do meio poroso foi medida por Tomografia Computadorizada de Raios-X (TC). A grande quantidade de dados dos perfis de concentração determinados a partir das imagens da TC do Experimento A foi analisada e ajustada utilizando-se o modelo MCT por meio do método metaheurístico de recozimento simulado (Simulated Annealing, SA). O procedimento de ajuste global, considerando todas as curvas do histórico de concentração, foi utilizado para a determinação dos parâmetros governantes dos fenômenos envolvidos. A quantidade de dados utilizados e a robustez do método permitiu um ajuste muito bom do modelo aos dados experimentais. Determinou-se um coeficiente de dispersão de aproximadamente 0,01cm2/s para vazão de 1 cm3/min e 0,05 cm2/s para vazão de 5 cm3/min. Foram avaliados também os parâmetros de transferência de massa e interação do fluido com o meio poroso. O Experimento B foi realizado com a finalidade de comprovar a deposição de soluto enquanto o fluido se deslocava através da amostra de rocha. No modelo MCT, este fenômeno foi quantificado por meio do parâmetro fr. Os perfis de concentração do Experimento B foram medidos na entrada, ao longo da amostra (rocha) e na saída. A partir desses perfis, foi realizado um balanço de massa para avaliar a fração de deposição de soluto (fr) formulada e determinada a partir do MCT. Os valores de fr obtidos foram de 0,2 a 0,4, que são valores coerentes com os resultados obtidos com o modelo MCT / Abstract: The knowledge of the physical phenomena involved in fluid transport in porous medium is very important for the design and successful execution of oil enhanced recovery processes. Miscible displacement is one of the most efficient recovery methods. Dispersion is a key phenomenon in miscible displacement. It controls the evolution of the mixing zone of both fluids and the propagation of injected fluid. The present study focuses on the development and evaluation of a mathematical model for the 1-D miscible and active displacement in an intrinsically heterogeneous porous media. The model, referred to as total concentration model (TCM), is developed based on the convection-dispersion equation (CDE) considering the interaction between rock and fluids. The phenomenological parameters involved in TCM are the dispersion coefficient, the mass transfer coefficient, the effective porosity of the porous medium at the time of the displacement and the amount of solute that is deposited or removed from the porous medium. These parameters may be better determined through multiparametric matching of the model to the data obtained in the laboratory. In order to evaluate the application of the TCM model, two sets of experiments (A and B), totaling 9 tests, were carried out. The tests were conducted with two brines displaced in carbonate rock samples. The concentration evolution along the porous medium was measured by X-Ray Computed Tomography (CT). The vast amount of data from the concentration profiles determined from the CT images from set A was analyzed and matched to the TCM model through the simulated annealing metaheuristic method (Simulated Annealing, SA). The global matching procedure, considering all curves in the concentration history, was used to determine the governing parameters for the involved phenomena. The amount of data used and the robustness of the method allowed a very good matching of the model to the experimental data. A dispersion coefficient of 0.01cm2/s for a 1 cm3/min flow rate; and 0.05 cm2/s for a 5 cm3/min flow rate was determined. The parameters of mass transfer and of the fluid interaction with the rock porous structure were also evaluated. Experiment B was carried out in order to double check solute deposition while flowing through the rock sample. In the TCM model, the phenomenon was quantified by the fr parameter. The concentration profiles of Experiment B were measured at the input, along the rock sample and at the output. From these profiles a mass balance was carried out to evaluate the fraction of solute deposited (fr) during the experiment. The determined values for fr were 0.2 to 0.4, figures that are consistent with the results obtained with the TCM matching procedure / Doutorado / Reservatórios e Gestão / Doutora em Ciências e Engenharia de Petróleo
118

Planering av stränggjutningsproduktion : En heruistisk metod

Äng, Oscar, Trygg, Alexander January 2017 (has links)
Detta arbete syftar till att undersöka om det är möjligt att med en heuristisk metod skapa giltiga lösningar till ett problem vid planering av stränggjutningsproduktion på SSAB. Planeringsproblemet uppstår när stål av olika sorter ska gjutas under samma dag. Beroende på i vilken ordning olika kundordrar av stål gjuts uppstår spill av olika storlek. Detta spill ska minimeras och tidigare arbete har genomförts på detta problem och resulterat i en matematisk modell för att skapa lösningar till problemet. Det tar i praktiken lång tid att hitta bra lösningar med modellen och frågeställningen är om det går att göra detta med en heuristisk metod för att kunna generera bra lösningar snabbare. Med inspiration från Variable Neighbourhood Search, Simulated Annealing och tabusökning har heuristiker skapats, implementerats och utvärderats mot den matematiska modellen. En av heuristikerna presterar bättre än den matematiska modellen gör på 10 minuter. Matematiska modellens resultat efter 60 minuter körtid är bättre än den utvecklade heuristiken, men resultaten är nära varandra. Körtiden för heuristiken tar signifikant mindre tid än 10 minuter. / This study aims to investigate if it is possible to use a heuristic method to create feasible solution in a Cast Batching Problem at SSAB. The problem occurs when different kinds of steel should be cast during the same day. Depending on which order the groups of different steel is placed different amounts of waste is produced, the goal is to minimize this waste. Earlier work has been done on this problem and resulted in a mathematical model to create feasible solutions to this problem. In practice the time it takes to create good solutions are long and the question is if it is possible to use a heuristic method to generate good solutions in a shorter amount of time. Drawing upon inspiration from metaheuristics such as Variable Neighbourhood Search, Simualted Annealing and Tabu Search multiple heuristics have been created, implemented and evaluated against the mathematical model. One of the heuristics perform better than the mathematical model does in 10 minutes. The result from the mathematical model after 60 minutes is slightly better than the heuristic, but the results are similar. With regards to running time the heuristic takes considerably less time than 10 minutes.
119

[en] MICROPARAMETERS CALIBRATION PROCESS IN DEM VIA GENERALIZED SIMULATED ANNEALING / [pt] PROCESSO DE CALIBRAÇÃO DOS MICROPARÂMETROS EM MÉTODO DE ELEMENTOS DISCRETOS VIA GENERALIZED SIMULATED ANNEALING

FELIPE TAJA COSTA PINTO 16 August 2021 (has links)
[pt] O Método dos Elementos Discretos (Discrete Element Method - DEM) é uma técnica numérico computacional capaz de simular o comportamento macroscópico de um material via solução das equações do movimento de seus constituintes. Para uma correta predição deste comportamento são informados, como dados de entrada, as características mecânicas dos elementos: os chamados microparâmetros. Contudo, não existe uma receita que determine estes microparâmetros baseados somente nas respostas macroscópicas do material simulado, necessitando de um passo adicional conhecido como Calibração. Tentativa e erro, um método ineficiente por conta de seu fator de escala desfavorável, é o mais comumente utilizado nesta etapa. Este trabalho propõe uma nova abordagem utilizando-se do método de otimização global Generalized Simulated Annealing, minimizando-se a área quadrática normalizada entre as curvas experimentais e calculadas de tensão-deformação axial e deformações volumétrica-axial simultaneamente. Foram efetuadas comparações via ensaio triaxial para dados sintéticos e reais cujos resultados demonstram o aproveitamento e aplicabilidade da técnica proposta. / [en] The Discrete Element Method (DEM) is a numerical computational technique that simulates the macroscopic material behaviour by solving the equations of motion of its constituents. For a correct prediction of this behaviour, are set as input data the mechanical characteristics of the elements, the so-called microparameters. However, there is no recipe for determining these microparameters based solely on the macroscopic responses of the simulated material. It is required an additional step known as Calibration. The method widely used in this calibration is trial and error, although is an inefficient method due its unfavorable scale factor. This work proposes a new approach using the Generalized Simulated Annealing global optimization method, minimizing the normalized quadratic area between the experimental and calculated curves of the axial stress-strain and volumetric-axial deformations curves simultaneously. Comparison is done using triaxial tests for both synthetic and real data whose results demonstrate the usefulness and applicability of the proposed approach.
120

The Optimization of the 3-d Structure of Plants, Using Functional-Structural Plant Models / Case Study of Rice (Oryza sativa L.) in Indonesia

Utama, Ditdit Nugeraha 30 November 2015 (has links)
No description available.

Page generated in 0.0757 seconds