1 |
Métodos computacionais de otimização / Computational methods of optimizationFerraz, Bruna Alves [UNESP] 19 December 2017 (has links)
Submitted by Bruna Alves Ferraz (bruna.alves.ferraz@gmail.com) on 2018-01-12T12:56:17Z
No. of bitstreams: 1
Dissertacao_BrunaAF.pdf: 1135818 bytes, checksum: 02e01c1ac05f20f13657b40ed7d959fe (MD5) / Rejected by Adriana Aparecida Puerta null (dripuerta@rc.unesp.br), reason: Prezada Bruna Alves Ferraz,
Solicitamos que realize uma nova submissão seguindo as orientações abaixo:
- Capa - Faltou a capa no documento enviado. Este item é elemento obrigatório de acordo com as normas de trabalhos do seu Programa de Pós Graduação e deve vir antes da Página de rosto.
Agradecemos a compreensão e aguardamos o envio do novo arquivo.
Atenciosamente,
Biblioteca Campus Rio Claro
Repositório Institucional UNESP
on 2018-01-12T16:18:28Z (GMT) / Submitted by Bruna Alves Ferraz (bruna.alves.ferraz@gmail.com) on 2018-01-15T18:07:31Z
No. of bitstreams: 1
Bruna Alves Ferraz.pdf: 1341591 bytes, checksum: 6e9837abd2a00d05c9ba70d843b7c4c2 (MD5) / Approved for entry into archive by Adriana Aparecida Puerta null (dripuerta@rc.unesp.br) on 2018-01-15T18:18:13Z (GMT) No. of bitstreams: 1
ferraz_ba_me_rcla.pdf: 1265910 bytes, checksum: 9b0bcbf17772b4ac87b8058427405948 (MD5) / Made available in DSpace on 2018-01-15T18:18:13Z (GMT). No. of bitstreams: 1
ferraz_ba_me_rcla.pdf: 1265910 bytes, checksum: 9b0bcbf17772b4ac87b8058427405948 (MD5)
Previous issue date: 2017-12-19 / Neste trabalho discutiremos alguns métodos clássicos para otimização irrestrita, a saber o Método de Cauchy e o Método de Newton, e analisaremos a convergência desses métodos. Veremos que o Método de Cauchy, que faz a cada iteração uma busca unidirecional na direção de máxima descida, ou seja, na direção oposta ao gradiente, tem convergência linear. O método de Newton, por outro lado, minimiza, em cada iteração, a aproximação quadrática da função objetivo. Nos métodos de busca unidirecional é preciso minimizar uma função a partir de um certo ponto, segundo uma direção dada, que é a direção de busca. Por essa razão, estudaremos o Método da Seção Áurea, que fornece uma minimização exata de uma função real de uma variável real. / In this work we will discuss some classic methods for unrestricted optimization, namely the Cauchy Method and Newton’s Method, and we will analyze the convergence of those methods. We will see that the Cauchy Method, that realizes on each iteration a unidirectional search in the direction of maximum descent, that is, in the direction opposite to the gradient, has linear convergence. The Newton Method, on the other hand, minimizes, in each iteration, the quadratic approximation of the objective function. In unidirectional search methods, one must minimize a function from a certain point in a given direction, which is the search direction. For that reason, we will study the Golden Section Method, which provides the exact minimization of a real function of a real variable.
|
2 |
Otimização irrestrita sem derivadas baseada em interpolação polinomial / Derivative-free unconstrained optimization based on polynomial interpolationRincão, Thiago 23 July 2008 (has links)
Orientador: Maria Aparecida Diniz Ehrhardt / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-11T11:26:07Z (GMT). No. of bitstreams: 1
Rincao_Thiago_M.pdf: 860262 bytes, checksum: ba41e2489a44afc63f51092ba2434970 (MD5)
Previous issue date: 2008 / Resumo: Neste trabalho, tratamos de problemas de minimização irrestrita. Estudamos as condições de otimalidade para este tipo de problema, bem como os métodos clássicos para sua resolução, tais como: o método do Gradiente, de Newton e os Quase-Newton. Abordamos também procedimentos de busca linear e de região de confiança, conhecidos como estratégias de globalização. No entanto, nosso principal interesse está voltado a métodos de minimização que não fazem uso das derivadas da função objetivo. Neste sentido, enfocamos um método de minimização irrestrita, sem derivadas, baseado em interpolação quadrática, proposto por M. J. D. Powell, que está implementado no software NEWOUA. Com o objetivo de avaliar o desempenho computacional do algoritmo realizamos vários experimentos numéricos / Abstract: In this work, we are interested in unconstrained minimization problems. We study the optimality conditions for this kind of problem, and the classical methods for its resolution, such as: the Gradient method, Newton and Quasi- Newton methods. We also consider line search and trust region techniques, which are known as globalization strategies. However, our main interest is the study of derivative-free minimization methods. In this sense, we consider a derivative-free unconstrained minimization approach, based on quadratic interpolation, proposed by M. J. D. Powell, which is implemented in the software NEWUOA. In order to analyze the performance of the algorithm, we present several numerical experiments / Mestrado / Otimização / Mestre em Matemática Aplicada
|
3 |
Um metodo de região de confiança para minimização irrestrita sem derivadas / On the region method for unconstrained minimization without derivativesJimenez Urrea, Liliana 12 August 2018 (has links)
Orientador: Vera Lucia da Rocha Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-12T04:23:12Z (GMT). No. of bitstreams: 1
JimenezUrrea_Liliana_M.pdf: 3576733 bytes, checksum: 0e211564f3f081c060195cfa21aa4135 (MD5)
Previous issue date: 2008 / Resumo: Neste trabalho apresentamos métodos de minimização irrestrita, de uma função objetivo F de várias variáveis, que não fazem uso nem do gradiente da função objetivo - métodos derivative-free, nem de aproximações do mesmo. Nosso objetivo básico foi estudar e comparar o desempenho de métodos desse tipo propostos por M. J. D. Powell, que consistem em aproximar a função F por funções quadráticas - modelos quadráticos - e minimizar tal aproximação em regiões de confiança. Além do algoritmo de Powell de 2002 - UOBYQA - são testados: uma variante dele, na qual utilizamos a escolha de alguns parâmetros, por nós estabelecida, e também a nova versão de NEWUOA, proposta por Powell em 2006. Todos os testes foram realizados com problemas da coleção de Hock-Schittkowski. São comparados os resultados numéricos obtidos pelos métodos de Powell: entre eles mesmos e também entre eles e um método de busca padrão de autoria de Virginia Torczon, o qual define, em cada iteração, um conjunto padrão de direções de busca a partir do ponto atual, procurando melhores valores para F. / Abstract: In this work we study numerical methods to solve problems of nonlinear programming without constraints, which do not make use, neither of the gradient of the objective function, nor of approaches to it. A method that consists on the approximation of the function F by a quadractic model, due to Powell (2002), UOBYQA, and a variant of this method were implemented. A new version of the NEWUOA, introduced by Powell in 2006, was also implemented. Besides the Powell algorithm, commentaries of the implementations are done. Numerical tests of such implementations with problems of the Hock-Schittkowski collection, are made at the end of the work. There are also comparisons of the Powell methods among themselves, and also a comparison among the Powell methods with a pattern search method, which looks for the improvement of the value of the objective function throughout a set of directions, depending on the current point. Such a method is due to Virginia Torczon. / Mestrado / Otimização / Mestre em Matemática Aplicada
|
Page generated in 0.1165 seconds