• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • Tagged with
  • 8
  • 8
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Método do ponto proximal inexato e uma técnica de busca linear não monótona para otimização irrestrita

Lima, Suellen Paulino 15 December 2015 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-08T19:39:28Z No. of bitstreams: 1 Dissertação - Suellen Paulino Lima.pdf: 623720 bytes, checksum: 10d03fee1aa131fb068db1c244116b29 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-08T19:39:51Z (GMT) No. of bitstreams: 1 Dissertação - Suellen Paulino Lima.pdf: 623720 bytes, checksum: 10d03fee1aa131fb068db1c244116b29 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-08T19:40:06Z (GMT) No. of bitstreams: 1 Dissertação - Suellen Paulino Lima.pdf: 623720 bytes, checksum: 10d03fee1aa131fb068db1c244116b29 (MD5) / Made available in DSpace on 2016-06-08T19:40:06Z (GMT). No. of bitstreams: 1 Dissertação - Suellen Paulino Lima.pdf: 623720 bytes, checksum: 10d03fee1aa131fb068db1c244116b29 (MD5) Previous issue date: 2015-12-15 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This paper shows algorithms for problem solving Unrestricted. Initially it will address the Proximal Point Algorithm Inaccurate using classical algorithms for solving the problem of regularization of convex function, continuously differentiable and decisive the Hessian near zero. Then the Search Algorithm Nonlinear monotone that aims to improve the likelihood of find a global optimum, using traditional methods to decrease obtaining the step size, moreover, they can improve the speed of convergence in specific cases of monotonous scheme. At the end we will implementation of quadratic functions and analysis of results / Apresentaremos neste trabalho algoritmos para resolução de problemas irrestritos. Inicialmente será abordado o Algoritmo do Ponto Proximal Inexato com a utilização de algorítimos clássicos para resolução do problema de regularização da função convexa, continuamente diferenciável e com determinante da hessiana próximo de zero. Em seguida, o Algoritmo de Busca Linear não monótona que tem o objetivo de melhorar a probabilidade de encontrar um ótimo global, utilizando métodos de descida tradicionais para obter o tamanho do passo, além disso, eles podem melhorar a velocidade de convergência em casos específicos do esquema monótono. Ao final faremos a implementação de funções quadráticas e a análise dos resultados obtidos
2

Convergência completa do método do gradiente com busca linear exata e inexata

Sousa, Jeanne Moreira de 29 December 2008 (has links)
Made available in DSpace on 2015-04-22T22:16:10Z (GMT). No. of bitstreams: 1 Dissertacao Jeanne Moreira.pdf: 447774 bytes, checksum: 635ca33ffaf3746929571ab0aabcfd32 (MD5) Previous issue date: 2008-12-29 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / In this work we use the gradient method to minimize, without restrictions, convex and pseudoconvex continuously differentiable functions. An important theme considered is the path length determination. We have that, when minimizing pseudoconvex functions, the linear search is exact. In this case, we present the first algorithm to obtain the path length, where will be included a quadratic regularization term, in the proximal point method sense. When dealing with the minimization of convex functions case, we have that the linear search is not exact. To obtain the path length, two algorithms are presented: the former needs that the gradient of the objective function satisfies a Lipschitz condition with a known constant L > 0. The latter is based on the work of Dennis-Schnabel (see [4]). The three process are based on the quasi-Fejér convergence principle. Although these descent methods need that the objective functions to be minimized have bounded level sets, in order to establish that the limit points are stationary, this approach guarantees the complete convergence of every sequence to a minimizer of the function without the hypothesis of bounded level sets. / Neste trabalho utilizamos o método do gradiente para minimizar, sem restrições, funções continuamente diferenciáveis pseudo-convexas e convexas. Um termo considerado importante é o cálculo do comprimento do passo. Na minimização de funções pseudo-convexas a busca linear é exata. Neste caso, apresentamos o primeiro algoritmo para o cálculo do comprimento do passo, onde é acrescentado um termo de regularização quadrático no sentido do método do ponto proximal. Posteriormente, na minimização de funções convexas, a busca linear é inexata. Para o cálculo do comprimento do passo apresentamos dois algoritmos: um necessita que o gradiente da função objetivo satisfaça uma condição de Lipschitz com constante L > 0 conhecida, e o outro é baseado no trabalho desenvolvido por Dennis-Schnabel (ver [4]). Os três processos baseiam-se na noção da quase-Fejér convergência. Embora os métodos de descida necessitem que a função objetivo a ser minimizada possua conjuntos de níveis limitados a fim de estabelecer que os pontos de acumulação sejam estacionários, nesta abordagem é garantida a convergência completa de toda sequência para um minimizador da função sem a hipótese de limitação do conjunto de nível.
3

Um algoritmo de busca linear para otimização irrestrita

Silva, Daniele Alencar Fabrício da, 0 04 November 2016 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-03-02T15:54:49Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-03-02T15:55:00Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) / Made available in DSpace on 2018-03-02T15:55:00Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Daniele A. F. Silva.pdf: 1378175 bytes, checksum: 8dfe0d31351466e795bb26e262eb8780 (MD5) Previous issue date: 2016-11-04 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents a linear search algorithm for unconstrained optimization problems proposed by Gonglin Yuan, Sha Lu Wei and Zengxi [1], called here by Algorithm GSZ. This algorithm is designed from the perspective of inheriting the simplicity and low computational cost of the conjugate gradient method. n this context, a detailed proof of the global convergence analysis for functions not necessarily convex is presented. We also emphasize the achievement of the linear convergence rate for the case where the function is strongly Convex. / Neste trabalho apresentamos um algoritmo de busca linear para problemas de otimização irrestrita proposto por Gonglin Yuan, Sha Lu e Zengxi Wei [1], denominado aqui por Algoritmo GSZ. Este algoritimo é concebido sob a perspectiva de herdar a simplicidade e o baixo custo computacional do método do gradiente conjugado. Neste contexto, uma prova detalhada da análise de convergência global para funções não necessariamente convexas é apresentada. Ressaltamos ainda a obtenção da taxa de convergência linear para o caso em que a função é fortemente convexa.
4

Estudo comparativo de passos espectrais e buscas lineares não monótonas / Comparative study of spectral steplengths and nonmonotone linear searches

Camargo, Fernando Taietti 07 March 2008 (has links)
O método do Gradiente Espectral, introduzido por Barzilai e Borwein e analisado por Raydan, para minimização irrestrita, é um método simples cujo desempenho é comparável ao de métodos tradicionais como, por exemplo, gradientes conjugados. Desde a introdução do método, assim como da sua extensão para minimização em conjuntos convexos, foram introduzidas várias combinações de passos espectrais diferentes, assim como de buscas lineares não monótonas diferentes. Dos resultados numéricos apresentados em vários trabalhos não é possível inferir se existem diferenças significativas no desempenho dos diversos métodos. Além disso, também não fica clara a relevância das buscas não monótonas como uma ferramenta em si próprias ou se, na verdade, elas são úteis apenas para permitir que o método seja o mais parecido possível com o método original de Barzilai e Borwein. O objetivo deste trabalho é comparar os diversos métodos recentemente introduzidos como combinações de diferentes buscas lineares não monótonas e diferentes passos espectrais para encontrar a melhor combinação e, a partir daí, aferir o desempenho numérico do método. / The Spectral Gradient method, introduced by Barzilai and Borwein and analized by Raydan for unconstrained minimization, is a simple method whose performance is comparable to traditional methods, such as conjugate gradients. Since the introduction of method, as well as its extension to minimization of convex sets, there were introduced various combinations of different spectral steplengths, as well as different nonmonotone line searches. By the numerical results presented in many studies it is not possible to infer whether there are siginificant differences in the performance of various methods. It also is not sure the relevance of the nonmonotone line searches as a tool in themselves or whether, in fact, they are usefull only to allow the method to be as similar as possible with the original method of Barzilai e Borwein. The objective of this study is to compare the different methods recently introduced as different combinations of nonmonotone linear searches and different spectral steplengths to find the best combination and from there, evaluating the numerical performance of the method.
5

Um método de pontos interiores primal-dual viável para minimização com restrições lineares de grande porte / A feasible primal-dual interior-point method for large-scale linearly constrained minimization

Gardenghi, John Lenon Cardoso 16 April 2014 (has links)
Neste trabalho, propomos um método de pontos interiores para minimização com restrições lineares de grande porte. Este método explora a linearidade das restrições, partindo de um ponto viável e preservando a viabilidade dos iterandos. Apresentamos os principais resultados de convergência global, além de uma descrição rica em detalhes de uma implementação prática de todos os passos do método. Para atestar a implementação do método, exibimos uma ampla experimentação numérica, e uma análise comparativa com métodos bem difundidos na comunidade de otimização contínua. / In this work, we propose an interior-point method for large-scale linearly constrained optimization. This method explores the linearity of the constraints, starting from a feasible point and preserving the feasibility of the iterates. We present the main global convergence results, together with a rich description of the implementation details of all the steps of the method. To validate the implementation of the method, we present a wide set of numerical experiments and a comparative analysis with well known softwares of the continuous optimization community.
6

Um método de pontos interiores primal-dual viável para minimização com restrições lineares de grande porte / A feasible primal-dual interior-point method for large-scale linearly constrained minimization

John Lenon Cardoso Gardenghi 16 April 2014 (has links)
Neste trabalho, propomos um método de pontos interiores para minimização com restrições lineares de grande porte. Este método explora a linearidade das restrições, partindo de um ponto viável e preservando a viabilidade dos iterandos. Apresentamos os principais resultados de convergência global, além de uma descrição rica em detalhes de uma implementação prática de todos os passos do método. Para atestar a implementação do método, exibimos uma ampla experimentação numérica, e uma análise comparativa com métodos bem difundidos na comunidade de otimização contínua. / In this work, we propose an interior-point method for large-scale linearly constrained optimization. This method explores the linearity of the constraints, starting from a feasible point and preserving the feasibility of the iterates. We present the main global convergence results, together with a rich description of the implementation details of all the steps of the method. To validate the implementation of the method, we present a wide set of numerical experiments and a comparative analysis with well known softwares of the continuous optimization community.
7

Estudo comparativo de passos espectrais e buscas lineares não monótonas / Comparative study of spectral steplengths and nonmonotone linear searches

Fernando Taietti Camargo 07 March 2008 (has links)
O método do Gradiente Espectral, introduzido por Barzilai e Borwein e analisado por Raydan, para minimização irrestrita, é um método simples cujo desempenho é comparável ao de métodos tradicionais como, por exemplo, gradientes conjugados. Desde a introdução do método, assim como da sua extensão para minimização em conjuntos convexos, foram introduzidas várias combinações de passos espectrais diferentes, assim como de buscas lineares não monótonas diferentes. Dos resultados numéricos apresentados em vários trabalhos não é possível inferir se existem diferenças significativas no desempenho dos diversos métodos. Além disso, também não fica clara a relevância das buscas não monótonas como uma ferramenta em si próprias ou se, na verdade, elas são úteis apenas para permitir que o método seja o mais parecido possível com o método original de Barzilai e Borwein. O objetivo deste trabalho é comparar os diversos métodos recentemente introduzidos como combinações de diferentes buscas lineares não monótonas e diferentes passos espectrais para encontrar a melhor combinação e, a partir daí, aferir o desempenho numérico do método. / The Spectral Gradient method, introduced by Barzilai and Borwein and analized by Raydan for unconstrained minimization, is a simple method whose performance is comparable to traditional methods, such as conjugate gradients. Since the introduction of method, as well as its extension to minimization of convex sets, there were introduced various combinations of different spectral steplengths, as well as different nonmonotone line searches. By the numerical results presented in many studies it is not possible to infer whether there are siginificant differences in the performance of various methods. It also is not sure the relevance of the nonmonotone line searches as a tool in themselves or whether, in fact, they are usefull only to allow the method to be as similar as possible with the original method of Barzilai e Borwein. The objective of this study is to compare the different methods recently introduced as different combinations of nonmonotone linear searches and different spectral steplengths to find the best combination and from there, evaluating the numerical performance of the method.
8

Vários algoritmos para os problemas de desigualdade variacional e inclusão / On several algorithms for variational inequality and inclusion problems

Millán, Reinier Díaz 27 February 2015 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2015-05-21T19:19:51Z No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2015-05-21T19:21:31Z (GMT) No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-05-21T19:21:31Z (GMT). No. of bitstreams: 2 Tese - Reinier Díaz Millán - 2015.pdf: 3568052 bytes, checksum: b4c892f77911a368e1b8f629afb5e66e (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-02-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Nesta tese apresentamos v arios algoritmos para resolver os problemas de Desigualdade Variacional e Inclus~ao. Para o problema de desigualdade variacional propomos, no Cap tulo 2 uma generaliza c~ao do algoritmo cl assico extragradiente, utilizando vetores normais n~ao nulos do conjunto vi avel. Em particular, dois algoritmos conceituais s~ao propostos e cada um deles cont^em tr^es variantes diferentes de proje c~ao que est~ao relacionadas com algoritmos extragradientes modi cados. Duas buscas diferentes s~ao propostas, uma sobre a borda do conjunto vi avel e a outra ao longo das dire c~oes vi aveis. Cada algoritmo conceitual tem uma estrat egia diferente de busca e tr^es formas de proje c~ao especiais, gerando tr^es sequ^encias com diferente e interessantes propriedades. E feito a an alise da converg^encia de ambos os algoritmos conceituais, pressupondo a exist^encia de solu c~oes, continuidade do operador e uma condi c~ao mais fraca do que pseudomonotonia. No Cap tulo 4, n os introduzimos um algoritmo direto de divis~ao para o problema variacional em espa cos de Hilbert. J a no Cap tulo 5, propomos um algoritmo de proje c~ao relaxada em Espa cos de Hilbert para a soma de m operadores mon otonos maximais ponto-conjunto, onde o conjunto vi avel do problema de desigualdade variacional e dado por uma fun c~ao n~ao suave e convexa. Neste caso, as proje c~oes ortogonais ao conjunto vi avel s~ao substitu das por proje c~oes em hiperplanos que separam a solu c~ao da itera c~ao atual. Cada itera c~ao do m etodo proposto consiste em proje c~oes simples de tipo subgradientes, que n~ao exige a solu c~ao de subproblemas n~ao triviais, utilizando apenas os operadores individuais, explorando assim a estrutura do problema. Para o problema de Inclus~ao, propomos variantes do m etodo de divis~ao de forward-backward para achar um zero da soma de dois operadores, a qual e a modi ca c~ao cl assica do forwardbackward proposta por Tseng. Um algoritmo conceitual e proposto para melhorar o apresentado por Tseng em alguns pontos. Nossa abordagem cont em, primeramente, uma busca linear tipo Armijo expl cita no esp rito dos m etodos tipo extragradientes para desigualdades variacionais. Durante o processo iterativo, a busca linear realiza apenas um c alculo do operador forward-backward em cada tentativa de achar o tamanho do passo. Isto proporciona uma consider avel vantagem computacional pois o operador forward-backward e computacionalmente caro. A segunda parte do esquema consiste em diferentes tipos de proje c~oes, gerando sequ^encias com caracter sticas diferentes. / In this thesis we present various algorithms to solve the Variational Inequality and Inclusion Problems. For the variational inequality problem we propose, in Chapter 2, a generalization of the classical extragradient algorithm by utilizing non-null normal vectors of the feasible set. In particular, two conceptual algorithms are proposed and each of them has three di erent projection variants which are related to modi ed extragradient algorithms. Two di erent linesearches, one on the boundary of the feasible set and the other one along the feasible direction, are proposed. Each conceptual algorithm has a di erent linesearch strategy and three special projection steps, generating sequences with di erent and interesting features. Convergence analysis of both conceptual algorithms are established, assuming existence of solutions, continuity and a weaker condition than pseudomonotonicity on the operator. In Chapter 4 we introduce a direct splitting method for solving the variational inequality problem for the sum of two maximal monotone operators in Hilbert space. In Chapter 5, for the same problem, a relaxed-projection splitting algorithm in Hilbert spaces for the sum of m nonsmooth maximal monotone operators is proposed, where the feasible set of the variational inequality problem is de ned by a nonlinear and nonsmooth continuous convex function inequality. In this case, the orthogonal projections onto the feasible set are replaced by projections onto separating hyperplanes. Furthermore, each iteration of the proposed method consists of simple subgradient-like steps, which does not demand the solution of a nontrivial subproblem, using only individual operators, which explores the structure of the problem. For the Inclusion Problem, in Chapter 3, we propose variants of forward-backward splitting method for nding a zero of the sum of two operators, which is a modi cation of the classical forward-backward method proposed by Tseng. The conceptual algorithm proposed here improves Tseng's method in many instances. Our approach contains rstly an explicit Armijo-type line search in the spirit of the extragradient-like methods for variational inequalities. During the iterative process, the line search performs only one calculation of the forward-backward operator in each tentative for nding the step size. This achieves a considerable computational saving when the forward-backward operator is computationally expensive. The second part of the scheme consists of special projection steps bringing several variants.

Page generated in 0.049 seconds