• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Métodos computacionais de otimização / Computational methods of optimization

Ferraz, Bruna Alves [UNESP] 19 December 2017 (has links)
Submitted by Bruna Alves Ferraz (bruna.alves.ferraz@gmail.com) on 2018-01-12T12:56:17Z No. of bitstreams: 1 Dissertacao_BrunaAF.pdf: 1135818 bytes, checksum: 02e01c1ac05f20f13657b40ed7d959fe (MD5) / Rejected by Adriana Aparecida Puerta null (dripuerta@rc.unesp.br), reason: Prezada Bruna Alves Ferraz, Solicitamos que realize uma nova submissão seguindo as orientações abaixo: - Capa - Faltou a capa no documento enviado. Este item é elemento obrigatório de acordo com as normas de trabalhos do seu Programa de Pós Graduação e deve vir antes da Página de rosto. Agradecemos a compreensão e aguardamos o envio do novo arquivo. Atenciosamente, Biblioteca Campus Rio Claro Repositório Institucional UNESP on 2018-01-12T16:18:28Z (GMT) / Submitted by Bruna Alves Ferraz (bruna.alves.ferraz@gmail.com) on 2018-01-15T18:07:31Z No. of bitstreams: 1 Bruna Alves Ferraz.pdf: 1341591 bytes, checksum: 6e9837abd2a00d05c9ba70d843b7c4c2 (MD5) / Approved for entry into archive by Adriana Aparecida Puerta null (dripuerta@rc.unesp.br) on 2018-01-15T18:18:13Z (GMT) No. of bitstreams: 1 ferraz_ba_me_rcla.pdf: 1265910 bytes, checksum: 9b0bcbf17772b4ac87b8058427405948 (MD5) / Made available in DSpace on 2018-01-15T18:18:13Z (GMT). No. of bitstreams: 1 ferraz_ba_me_rcla.pdf: 1265910 bytes, checksum: 9b0bcbf17772b4ac87b8058427405948 (MD5) Previous issue date: 2017-12-19 / Neste trabalho discutiremos alguns métodos clássicos para otimização irrestrita, a saber o Método de Cauchy e o Método de Newton, e analisaremos a convergência desses métodos. Veremos que o Método de Cauchy, que faz a cada iteração uma busca unidirecional na direção de máxima descida, ou seja, na direção oposta ao gradiente, tem convergência linear. O método de Newton, por outro lado, minimiza, em cada iteração, a aproximação quadrática da função objetivo. Nos métodos de busca unidirecional é preciso minimizar uma função a partir de um certo ponto, segundo uma direção dada, que é a direção de busca. Por essa razão, estudaremos o Método da Seção Áurea, que fornece uma minimização exata de uma função real de uma variável real. / In this work we will discuss some classic methods for unrestricted optimization, namely the Cauchy Method and Newton’s Method, and we will analyze the convergence of those methods. We will see that the Cauchy Method, that realizes on each iteration a unidirectional search in the direction of maximum descent, that is, in the direction opposite to the gradient, has linear convergence. The Newton Method, on the other hand, minimizes, in each iteration, the quadratic approximation of the objective function. In unidirectional search methods, one must minimize a function from a certain point in a given direction, which is the search direction. For that reason, we will study the Golden Section Method, which provides the exact minimization of a real function of a real variable.
2

Otimização irrestrita sem derivadas baseada em interpolação polinomial / Derivative-free unconstrained optimization based on polynomial interpolation

Rincão, Thiago 23 July 2008 (has links)
Orientador: Maria Aparecida Diniz Ehrhardt / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-11T11:26:07Z (GMT). No. of bitstreams: 1 Rincao_Thiago_M.pdf: 860262 bytes, checksum: ba41e2489a44afc63f51092ba2434970 (MD5) Previous issue date: 2008 / Resumo: Neste trabalho, tratamos de problemas de minimização irrestrita. Estudamos as condições de otimalidade para este tipo de problema, bem como os métodos clássicos para sua resolução, tais como: o método do Gradiente, de Newton e os Quase-Newton. Abordamos também procedimentos de busca linear e de região de confiança, conhecidos como estratégias de globalização. No entanto, nosso principal interesse está voltado a métodos de minimização que não fazem uso das derivadas da função objetivo. Neste sentido, enfocamos um método de minimização irrestrita, sem derivadas, baseado em interpolação quadrática, proposto por M. J. D. Powell, que está implementado no software NEWOUA. Com o objetivo de avaliar o desempenho computacional do algoritmo realizamos vários experimentos numéricos / Abstract: In this work, we are interested in unconstrained minimization problems. We study the optimality conditions for this kind of problem, and the classical methods for its resolution, such as: the Gradient method, Newton and Quasi- Newton methods. We also consider line search and trust region techniques, which are known as globalization strategies. However, our main interest is the study of derivative-free minimization methods. In this sense, we consider a derivative-free unconstrained minimization approach, based on quadratic interpolation, proposed by M. J. D. Powell, which is implemented in the software NEWUOA. In order to analyze the performance of the algorithm, we present several numerical experiments / Mestrado / Otimização / Mestre em Matemática Aplicada
3

Um algoritmo de busca linear para otimização irrestrita

Silva, Daniele Alencar Fabrício da, 0 04 November 2016 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-03-02T15:54:49Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-03-02T15:55:00Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) / Made available in DSpace on 2018-03-02T15:55:00Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) Previous issue date: 2016-11-04 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents a linear search algorithm for unconstrained optimization problems proposed by Gonglin Yuan, Sha Lu Wei and Zengxi [1], called here by Algorithm GSZ. This algorithm is designed from the perspective of inheriting the simplicity and low computational cost of the conjugate gradient method. n this context, a detailed proof of the global convergence analysis for functions not necessarily convex is presented. We also emphasize the achievement of the linear convergence rate for the case where the function is strongly Convex. / Neste trabalho apresentamos um algoritmo de busca linear para problemas de otimização irrestrita proposto por Gonglin Yuan, Sha Lu e Zengxi Wei [1], denominado aqui por Algoritmo GSZ. Este algoritimo é concebido sob a perspectiva de herdar a simplicidade e o baixo custo computacional do método do gradiente conjugado. Neste contexto, uma prova detalhada da análise de convergência global para funções não necessariamente convexas é apresentada. Ressaltamos ainda a obtenção da taxa de convergência linear para o caso em que a função é fortemente convexa.
4

Um metodo de região de confiança para minimização irrestrita sem derivadas / On the region method for unconstrained minimization without derivatives

Jimenez Urrea, Liliana 12 August 2018 (has links)
Orientador: Vera Lucia da Rocha Lopes / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-12T04:23:12Z (GMT). No. of bitstreams: 1 JimenezUrrea_Liliana_M.pdf: 3576733 bytes, checksum: 0e211564f3f081c060195cfa21aa4135 (MD5) Previous issue date: 2008 / Resumo: Neste trabalho apresentamos métodos de minimização irrestrita, de uma função objetivo F de várias variáveis, que não fazem uso nem do gradiente da função objetivo - métodos derivative-free, nem de aproximações do mesmo. Nosso objetivo básico foi estudar e comparar o desempenho de métodos desse tipo propostos por M. J. D. Powell, que consistem em aproximar a função F por funções quadráticas - modelos quadráticos - e minimizar tal aproximação em regiões de confiança. Além do algoritmo de Powell de 2002 - UOBYQA - são testados: uma variante dele, na qual utilizamos a escolha de alguns parâmetros, por nós estabelecida, e também a nova versão de NEWUOA, proposta por Powell em 2006. Todos os testes foram realizados com problemas da coleção de Hock-Schittkowski. São comparados os resultados numéricos obtidos pelos métodos de Powell: entre eles mesmos e também entre eles e um método de busca padrão de autoria de Virginia Torczon, o qual define, em cada iteração, um conjunto padrão de direções de busca a partir do ponto atual, procurando melhores valores para F. / Abstract: In this work we study numerical methods to solve problems of nonlinear programming without constraints, which do not make use, neither of the gradient of the objective function, nor of approaches to it. A method that consists on the approximation of the function F by a quadractic model, due to Powell (2002), UOBYQA, and a variant of this method were implemented. A new version of the NEWUOA, introduced by Powell in 2006, was also implemented. Besides the Powell algorithm, commentaries of the implementations are done. Numerical tests of such implementations with problems of the Hock-Schittkowski collection, are made at the end of the work. There are also comparisons of the Powell methods among themselves, and also a comparison among the Powell methods with a pattern search method, which looks for the improvement of the value of the objective function throughout a set of directions, depending on the current point. Such a method is due to Virginia Torczon. / Mestrado / Otimização / Mestre em Matemática Aplicada
5

Otimização sem derivadas : sobre a construção e a qualidade de modelos quadráticos na solução de problemas irrestritos / Derivative-free optimization : on the construction and quality of quadratic models for unconstrained optimization problems

Nascimento, Ivan Xavier Moura do, 1989- 25 August 2018 (has links)
Orientador: Sandra Augusta Santos / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-25T00:20:47Z (GMT). No. of bitstreams: 1 Nascimento_IvanXavierMourado_M.pdf: 5587602 bytes, checksum: 769fbf124a59d55361b184a6ec802f66 (MD5) Previous issue date: 2014 / Resumo: Métodos de região de confiança formam uma classe de algoritmos iterativos amplamente utilizada em problemas de otimização não linear irrestrita para os quais as derivadas da função objetivo não estão disponíveis ou são imprecisas. Uma das abordagens clássicas desses métodos envolve a otimização de modelos polinomiais aproximadores para a função objetivo, construídos a cada iteração com base em conjuntos amostrais de pontos. Em um trabalho recente, Scheinberg e Toint [SIAM Journal on Optimization, 20 (6) (2010), pp. 3512-3532 ] mostram que apesar do controle do posicionamento dos pontos amostrais ser essencial para a convergência do método, é possível que tal controle ocorra de modo direto apenas no estágio final do algoritmo. Baseando-se nessas ideias e incorporando-as a um esquema algorítmico teórico, os autores investigam analiticamente uma curiosa propriedade de autocorreção da geometria dos pontos, a qual se evidencia nas iterações de insucesso. A convergência global do novo algoritmo é, então, obtida como uma consequência da geometria autocorretiva. Nesta dissertação estudamos o posicionamento dos pontos em métodos baseados em modelos quadráticos de interpolação e analisamos o desempenho computacional do algoritmo teórico proposto por Scheinberg e Toint, cujos parâmetros são determinados / Abstract: Trust-region methods are a class of iterative algorithms widely applied to nonlinear unconstrained optimization problems for which derivatives of the objective function are unavailable or inaccurate. One of the classical approaches involves the optimization of a polynomial model for the objective function, built at each iteration and based on a sample set. In a recent work, Scheinberg and Toint [SIAM Journal on Optimization, 20 (6) (2010), pp. 3512¿3532 ] proved that, despite being essential for convergence results, the improvement of the geometry (poisedness) of the sample set might occur only in the final stage of the algorithm. Based on these ideas and incorporating them into a theoretical algorithm framework, the authors investigate analytically an interesting self-correcting geometry mechanism of the interpolating set, which becomes evident at unsuccessful iterations. Global convergence for the new algorithm is then proved as a consequence of this self-correcting property. In this work we study the positioning of the sample points within interpolation-based methods that rely on quadratic models and investigate the computational performance of the theoretical algorithm proposed by Scheinberg and Toint, whose parameters are based upon either choices of previous works or numerical experiments / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
6

Metodologia de otimização de redes malhadas através da programação não linear. / Methodology of network optimization through nonlinear programming.

FORMIGA, Klebber Teodomiro Martins. 10 November 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-11-10T14:15:57Z No. of bitstreams: 1 KLEBBER TEODOMIRO MARTINS FORMIGA - DISSERTAÇÃO PPGECA 1999..pdf: 16389709 bytes, checksum: 2cbf1a8342d988c0e6828ecd2fda1b6c (MD5) / Made available in DSpace on 2018-11-10T14:15:57Z (GMT). No. of bitstreams: 1 KLEBBER TEODOMIRO MARTINS FORMIGA - DISSERTAÇÃO PPGECA 1999..pdf: 16389709 bytes, checksum: 2cbf1a8342d988c0e6828ecd2fda1b6c (MD5) Previous issue date: 1999-03-11 / CNPq / As redes de distribuição, que fazem parte dos sistemas de abastecimento de água, são, em grande parte, redes malhadas, cuja complexidade no dimensionamento tem forçado os projetistas a utilizar metodologias tradicionais de tentativa e erro para obter a solução do problema. Esses métodos, dos quais o mais empregado é o de Hardy-Cross, fazem tão somente o balanceamento da rede, deixando a cargo da experiência do projetista a busca de um dimensionamento mais econômico. Neste trabalho será apresentado um método que utiliza técnicas de programação não linear para o dimensionamento económico de redes malhadas. Esse método é composto de duas etapas. Na primeira, as vazões e os diâmetros são considerados como variáveis de decisão, e na segunda etapa, as variáveis de decisão são os comprimentos dos segmentos dos trechos, com diâmetros constantes, e suas correspondentes vazões. Essa metodologia foi aplicada a duas redes encontradas na literatura, em que o dimensionamento já havia sido feito por outros métodos de otimização. Os resultados mostram que o método da programação não linear apresenta uma eficácia maior na busca do custo mínimo de uma rede, quando comparado com outras metodologias de otimização de redes malhadas estudadas. / The design complexity of looped networks has forced to use traditional trial and error methods to attain a solution for the problem. Those methods, where the Hardy-Cross method is the most known among them, only carry out energy and mass balance of the network without dealing with the system's cost, that is, nor estimating neither improving the system's cost. In this work, a method for designing economical looped networks based on nonlinear programming is presented. To reduce the number of variables and, probabily, improve the performance of the solution procedure, this method is composed of two stages to reach an optimal solution. In a first stage, a nonlinear programming technique is applied to determine the flows and diameters of the pipes connecting two nodes of the network. In a second stage are chosen which are the upper and lower values of the results attained at the first stage for each pipe segment, and a nonlinear programming technique is applied once more to determine the length of each diameter for each pipe segment along with its flow. In both stages the objective function was related to the cost of the pipes and pumping requirements. This method has been applied to two examples of looped networks, which have been used in the literature to illustrate the application of other optimization methods developed by other authors. The optimal solutions attained from the method presented herein have shown to be better than the ones resulting from the application of any other method, which were taken into account for comparison in this work.

Page generated in 0.0859 seconds