• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Programação não linear sem derivadas / Derivative-free nonlinear programming

Pedroso, Lucas Garcia 14 August 2018 (has links)
Orientadores: Jose Mario Martinez, Maria Aparecida Diniz Ehrhardt / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-14T08:44:35Z (GMT). No. of bitstreams: 1 Pedroso_LucasGarcia_D.pdf: 1569234 bytes, checksum: 22491a86b6f7cc218acc26f3c2cb768a (MD5) Previous issue date: 2009 / Resumo: Neste trabalho propomos um algoritmo Lagrangiano Aumentado sem derivadas para o problema geral de otimização. Consideramos o método introduzido por Andreani, Birgin, Martínez e Schuverdt, eliminando os cálculos de derivadas inerentes ao algoritmo através de modificações adequadas no critério de parada. Foram mantidos os bons resultados teóricos do método, como convergência sob a condição de qualificação CPLD e a limitação do parâmetro de penalidade. Experimentos numéricos são apresentados, entre os quais destacamos um exemplo de problema sem derivadas baseado na simulação de áreas de figuras no plano. / Abstract: We propose in this work a derivative-free Augmented Lagrangian algorithm for the general problem of optimization. We consider the method due to Andreani, Birgin, Martínez and Schuverdt, eliminating the derivative computations in the algorithm by making suitable modifications on the stopping criterion. The good theoretical results of the method were mantained, as convergence under the CPLD constraint qualification and the limitation of the penalty parameter. Numerical experiments are presented, and the most relevant of them is an example of derivative-free problem based on the simulation of areas of figures on the plane. / Doutorado / Otimização Matematica / Doutor em Matemática Aplicada
2

Um metodo de região de confiança para minimização irrestrita sem derivadas / On the region method for unconstrained minimization without derivatives

Jimenez Urrea, Liliana 12 August 2018 (has links)
Orientador: Vera Lucia da Rocha Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-12T04:23:12Z (GMT). No. of bitstreams: 1 JimenezUrrea_Liliana_M.pdf: 3576733 bytes, checksum: 0e211564f3f081c060195cfa21aa4135 (MD5) Previous issue date: 2008 / Resumo: Neste trabalho apresentamos métodos de minimização irrestrita, de uma função objetivo F de várias variáveis, que não fazem uso nem do gradiente da função objetivo - métodos derivative-free, nem de aproximações do mesmo. Nosso objetivo básico foi estudar e comparar o desempenho de métodos desse tipo propostos por M. J. D. Powell, que consistem em aproximar a função F por funções quadráticas - modelos quadráticos - e minimizar tal aproximação em regiões de confiança. Além do algoritmo de Powell de 2002 - UOBYQA - são testados: uma variante dele, na qual utilizamos a escolha de alguns parâmetros, por nós estabelecida, e também a nova versão de NEWUOA, proposta por Powell em 2006. Todos os testes foram realizados com problemas da coleção de Hock-Schittkowski. São comparados os resultados numéricos obtidos pelos métodos de Powell: entre eles mesmos e também entre eles e um método de busca padrão de autoria de Virginia Torczon, o qual define, em cada iteração, um conjunto padrão de direções de busca a partir do ponto atual, procurando melhores valores para F. / Abstract: In this work we study numerical methods to solve problems of nonlinear programming without constraints, which do not make use, neither of the gradient of the objective function, nor of approaches to it. A method that consists on the approximation of the function F by a quadractic model, due to Powell (2002), UOBYQA, and a variant of this method were implemented. A new version of the NEWUOA, introduced by Powell in 2006, was also implemented. Besides the Powell algorithm, commentaries of the implementations are done. Numerical tests of such implementations with problems of the Hock-Schittkowski collection, are made at the end of the work. There are also comparisons of the Powell methods among themselves, and also a comparison among the Powell methods with a pattern search method, which looks for the improvement of the value of the objective function throughout a set of directions, depending on the current point. Such a method is due to Virginia Torczon. / Mestrado / Otimização / Mestre em Matemática Aplicada
3

Otimização com restrições LOVO, restauração inexata e o equilíbrio inverso de Nash / Optimization with LOVO constraints, inexact restoration and the inverse Nash equilibrium

Bueno, Luís Felipe Cesar da Rocha, 1983- 19 August 2018 (has links)
Orientador: José Mario Martínez Perez / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica. / Made available in DSpace on 2018-08-19T04:47:30Z (GMT). No. of bitstreams: 1 Bueno_LuisFelipeCesardaRocha_D.pdf: 2718304 bytes, checksum: ca1c9aa7730e88989e17a5b89049c2ee (MD5) Previous issue date: 2011 / Resumo: Nesse trabalho serão propostos métodos de Lagrangiano Aumentado para tratar problemas com restrições do tipo LOVO, serão propostos novos métodos de Restauração Inexata e será introduzido o conceito de Equilíbrio Inverso de Nash. Teoremas sobre condições de otimalidade para problemas do tipo LOVO serão apresentados. Um algoritmo do tipo Lagrangiano Aumentado será proposto para abordar esse problema e teoremas de convergência global serão demonstrados. Resultados computacionais serão realizados para uma aplicação em otimização de carteiras em investimentos de grande impacto. Um método híbrido de Restauração Inexata será proposto combinando uma modificação, que usa o Lagrangiano Afiado como função de mérito, do método global de Fischer e Friedlander e o método local de Birgin e Martínez. Teoremas de convergência global e local serão apresentados. Um método de Restauração Inexata para problemas em que as derivadas da função objetivo não estejam disponíveis será introduzido. Nesse método todas as ferramentas da otimização tradicional serão usadas na fase de restauração e uma regularização será feita na fase de otimização. Teoremas de convergência global serão demonstrados e resultados numéricos apresentados. O conceito de Equilíbrio Inverso de Nash será introduzido e um método de Restauração Inexata será proposto para abordar esse problema. Esse método será uma extensão de um novo método de Restauração Inexata para problemas em dois níveis que também será proposto neste trabalho. Exemplos ilustrativos para uma aplicação para o problema de equilíbrio de Arrow-Debreu serão exibidos / Abstract: In this work an Augmented Lagrangian method will be proposed to deal with LOVO constraints, also some new Inexact Restoration methods will be presented and the Inverse Nash Equilibrium concept will be introduced. Theorems about optimality conditions for LOVO-like problems will be presented. Three Augmented Lagrangian algorithms will be proposed to approach this problem and global convergence theorems will be proved. Computational results will be performed for an application in portfolio optimization with impact. A modification of the Fischer-Friedlander global method using the Sharp Lagrangian as a merit function will be proposed. A hybrid Inexact Restoration method combining this modification and the Birgin-Martínez local method will be introduced. Global and local convergence theorems will be presented. An Inexact Restoration method for problems in which the derivatives of the objective function are not available will be introduced. In this method it will be used all the optimization traditional tools in the restoration process as well as a regularization strategy in the optimization phase. Global convergence theorems will be demonstrated and numerical results will be presented. The concept of Inverse Nash Equilibrium will be introduced and an Inexact Restoration method will be proposed to deal with this problem. This method is an extension of a new Inexact Restoration method for bilevel programming that will also be proposed in this work. Some illustrative examples for an application for the Arrow- Debreu equilibrium problem will be given / Doutorado / Matematica Aplicada / Doutor em Matemática Aplicada
4

Otimização sem derivadas em conjuntos magros / Derivative-free optimization on thin domains

Sobral, Francisco Nogueira Calmon, 1984- 20 August 2018 (has links)
Orientador: José Mario Martínez Pérez / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T03:18:55Z (GMT). No. of bitstreams: 1 Sobral_FranciscoNogueiraCalmon_D.pdf: 3255516 bytes, checksum: 380cc11e2ad93213e66f456ef5945f1c (MD5) Previous issue date: 2012 / Resumo: Os problemas de otimização sem derivadas surgem de modelos para os quais as derivadas das funções e das restrições envolvidas, por alguma razão, não estão disponíveis. Os motivos variam desde usuários que não querem programar as derivadas até funções excessivamente complexas e caixas-pretas, oriundas de simulações só possíveis graças ao crescimento na capacidade de processamento dos computadores. Acompanhando esse crescimento, o número de algoritmos para resolver problemas de otimização sem derivadas aumentou nos últimos anos. Porém, poucos são aqueles que conseguem lidar de forma eficiente com problemas cujos domínios são magros, como, por exemplo, quando há restrições de igualdade. Neste trabalho, apresentamos a teoria e implementação de dois algoritmos capazes de trabalhar com domínios magros em problemas de otimização sem derivadas. Ambos partem da premissa de que a parte mais custosa na resolução é a avaliação da função objetivo. Com isso em mente, o processo de resolução é dividido em duas fases. Na fase de restauração, buscamos por pontos menos inviáveis sem utilizar avaliações da função objetivo. Na fase de minimização, ou otimização, o objetivo é reduzir a função objetivo com o uso de algoritmos bem estabelecidos para problemas sem derivadas com restrições simples. O primeiro algoritmo utiliza ideias de Restauração Inexata associadas a uma tolerância decrescente à inviabilidade. Utilizando hipóteses simples e usuais dos métodos de busca direta direcional, mostramos propriedades de convergência a minimizadores globais. O segundo algoritmo recupera totalmente os resultados teóricos de um algoritmo recente de Restauração Inexata com busca linear e aplica-se a problemas nos quais apenas as derivadas da função objetivo não estão disponíveis. Testes numéricos mostram as boas propriedades dos dois algoritmos, em particular quando comparados com algoritmos baseados em penalidades / Abstract: Derivative-free optimization problems arise from models whose derivatives of some functions are not available. This information is unavailable due to extremely complex and black-box functions, originated from simulation procedures, or even to user inability. Following the growth in the number of applications, the number of derivative-free algorithms has increased in the last years. However, few algorithms are able to handle thin feasible domains efficiently, for example, in the presence of equality nonlinear constraints. In the present work, we describe the theory and implementation of two algorithms capable of dealing with thin-constrained derivative-free problems. Their definition considers that the objective function evaluation is the most expensive part of the problem. Based on this principle, the process of solving a problem is split into two phases. In the restoration phase, we try to improve the feasibility without evaluating the objective function. In the minimization phase, the aim is to decrease the objective function value by using well-established algorithms in order to solve derivative-free problems with simple constraints. The _rst algorithm uses Inexact Restoration ideas together with a decreasing infeasibility tolerance. Under the usual hypotheses of direct search methods, we show global minimization results. The second algorithm extends to the derivative-free case all the theoretical results obtained in a recent line-search Inexact Restoration algorithm. In this approach, only the derivatives of the objective function are not available. We perform numerical experiments to show the advantages of each algorithm, in particular when comparing with penalty-like algorithms / Doutorado / Matematica Aplicada / Doutor em Matemática Aplicada

Page generated in 0.0623 seconds