• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Penalidades exatas para desigualdades variacionais / Exact Penalties for Variational Inequalities

Thiago Afonso de Andre 01 February 2007 (has links)
Esta dissertação busca aproveitar os métodos de penalidades exatas diferenciáveis de programação não-linear para resolver problemas de desigualdades variacionais. Problemas desse tipo têm recebido grande atenção na literatura recentemente e possuem aplicações em diversas áreas como Engenharia, Física e Economia. Métodos de penalidades exatas diferenciáveis foram desenvolvidos nos anos 70 e 80 para resolver problemas de otimização com restrições por meio da solução de problemas irrestritos. Esses problemas são tais que, com uma escolha apropriada do parâmetro de penalização, uma solução do problema original é recuperada após a resolução de um único problema irrestrito. A função a ser minimizada é semelhante a um lagrangiano aumentado clássico, porém uma estimativa do multiplicador é automaticamente calculada a partir do ponto primal. Nesse trabalho, mostramos como acoplar a estimativa de multiplicadores sugerida por Glad e Polak [27] ao lagrangiano aumentado clássico para desigualdades variacionais sugerido por Auslender e Teboulle. Obtivemos assim uma penalidade exata para problemas de desigualdades variacionais. Os resultados mais finos de exatidão foram obtidos no caso de problemas de complementaridade não-linear. Uma característica importante da penalidade proposta é que ela não envolve informações de segunda ordem das funções que definem a desigualdade variacional. Além desses resultados, que formam o núcleo da dissertação, apresentamos uma breve revisão de penalidades não-exatas diferenciáveis , exatas não-diferenciáveis e exatas diferenciáveis em otimização. / This work intends to build upon differentiable exact penalty methods for nonlinear programming, using them to solve variational inequality problems. Such problems have been given a lot of attention in the literature lately and have applications to diverse areas of knowledge such as Engineering, Physics and Economics. Differentiable exact penalty methods were developed during the 70s and 80s to solve constrained optimization problems by means of the solution of unconstrained problems. Those problems are such that, with an appropriate choice of the penalty parameter, one finds a solution of the original constrained problem by solving only one unconstrained problem. The function which is minimized is similar to the classic augmented lagrangian, but an estimate of the multiplier is automatically calculated from the primal point. In this thesis we show how to couple Glad and Polak?s multiplier estimate, with the classic augmented lagrangian of a variational inequality developed by Auslender and Teboulle. This allowed us to obtain an exact penalty function for variational inequality problems. The best exactness results were obtained in the particular case of nonlinear complementarity problems. An important characteristic of the proposed penalty is that it doesn?t involve second order information of any of the functions which compose the variational inequality. In addition to those results, which are the core of this work, we also present a brief review of inexact differentiable penalties, exact nondifferentiable penalties and differentiable exact penalties in optimization.
2

Penalidades exatas para desigualdades variacionais / Exact Penalties for Variational Inequalities

Andre, Thiago Afonso de 01 February 2007 (has links)
Esta dissertação busca aproveitar os métodos de penalidades exatas diferenciáveis de programação não-linear para resolver problemas de desigualdades variacionais. Problemas desse tipo têm recebido grande atenção na literatura recentemente e possuem aplicações em diversas áreas como Engenharia, Física e Economia. Métodos de penalidades exatas diferenciáveis foram desenvolvidos nos anos 70 e 80 para resolver problemas de otimização com restrições por meio da solução de problemas irrestritos. Esses problemas são tais que, com uma escolha apropriada do parâmetro de penalização, uma solução do problema original é recuperada após a resolução de um único problema irrestrito. A função a ser minimizada é semelhante a um lagrangiano aumentado clássico, porém uma estimativa do multiplicador é automaticamente calculada a partir do ponto primal. Nesse trabalho, mostramos como acoplar a estimativa de multiplicadores sugerida por Glad e Polak [27] ao lagrangiano aumentado clássico para desigualdades variacionais sugerido por Auslender e Teboulle. Obtivemos assim uma penalidade exata para problemas de desigualdades variacionais. Os resultados mais finos de exatidão foram obtidos no caso de problemas de complementaridade não-linear. Uma característica importante da penalidade proposta é que ela não envolve informações de segunda ordem das funções que definem a desigualdade variacional. Além desses resultados, que formam o núcleo da dissertação, apresentamos uma breve revisão de penalidades não-exatas diferenciáveis , exatas não-diferenciáveis e exatas diferenciáveis em otimização. / This work intends to build upon differentiable exact penalty methods for nonlinear programming, using them to solve variational inequality problems. Such problems have been given a lot of attention in the literature lately and have applications to diverse areas of knowledge such as Engineering, Physics and Economics. Differentiable exact penalty methods were developed during the 70s and 80s to solve constrained optimization problems by means of the solution of unconstrained problems. Those problems are such that, with an appropriate choice of the penalty parameter, one finds a solution of the original constrained problem by solving only one unconstrained problem. The function which is minimized is similar to the classic augmented lagrangian, but an estimate of the multiplier is automatically calculated from the primal point. In this thesis we show how to couple Glad and Polak?s multiplier estimate, with the classic augmented lagrangian of a variational inequality developed by Auslender and Teboulle. This allowed us to obtain an exact penalty function for variational inequality problems. The best exactness results were obtained in the particular case of nonlinear complementarity problems. An important characteristic of the proposed penalty is that it doesn?t involve second order information of any of the functions which compose the variational inequality. In addition to those results, which are the core of this work, we also present a brief review of inexact differentiable penalties, exact nondifferentiable penalties and differentiable exact penalties in optimization.
3

Tópicos em penalidades exatas diferenciáveis / Topics in differentiable exact penalties

Ellen Hidemi Fukuda 11 March 2011 (has links)
Durante as décadas de 70 e 80, desenvolveram-se métodos baseados em penalidades exatas diferenciáveis para resolver problemas de otimização não linear com restrições. Uma desvantagem dessas penalidades é que seus gradientes contêm termos de segunda ordem em suas fórmulas, o que impede a utilização de métodos do tipo Newton para resolver o problema. Para contornar essa dificuldade, utilizamos uma ideia de construção de penalidade exata para desigualdades variacionais, introduzida recentemente por André e Silva. Essa construção consiste em incorporar um estimador de multiplicadores, proposto por Glad e Polak, no lagrangiano aumentado para desigualdades variacionais. Nesse trabalho, estendemos o estimador de multiplicadores para restrições gerais de igualdade e desigualdade, e enfraquecemos a hipótese de regularidade. Como resultado, obtemos uma função penalidade exata continuamente diferenciável e uma nova reformulação do sistema KKT associado a problemas não lineares. A estrutura dessa reformulação permite a utilização do método de Newton semi-suave, e a taxa de convergência local superlinear pode ser provada. Além disso, verificamos que a penalidade exata construída pode ser usada para globalizar o método, levando a uma abordagem do tipo Gauss-Newton. Por fim, realizamos experimentos numéricos baseando-se na coleção CUTE de problemas de teste. / During the 1970\'s and 1980\'s, methods based on differentiable exact penalty functions were developed to solve constrained optimization problems. One drawback of these functions is that they contain second-order terms in their gradient\'s formula, which do not allow the use of Newton-type methods. To overcome such difficulty, we use an idea for construction of exact penalties for variational inequalities, introduced recently by André and Silva. This construction consists on incorporating a multipliers estimate, proposed by Glad and Polak, in the augmented Lagrangian function for variational inequalities. In this work, we extend the multipliers estimate to deal with both equality and inequality constraints and we weaken the regularity assumption. As a result, we obtain a continuous differentiable exact penalty function and a new equation reformulation of the KKT system associated to nonlinear problems. The formula of such reformulation allows the use of semismooth Newton method, and the local superlinear convergence rate can be also proved. Besides, we note that the exact penalty function can be used to globalize the method, resulting in a Gauss-Newton-type approach. We conclude with some numerical experiments using the collection of test problems CUTE.
4

Tópicos em penalidades exatas diferenciáveis / Topics in differentiable exact penalties

Fukuda, Ellen Hidemi 11 March 2011 (has links)
Durante as décadas de 70 e 80, desenvolveram-se métodos baseados em penalidades exatas diferenciáveis para resolver problemas de otimização não linear com restrições. Uma desvantagem dessas penalidades é que seus gradientes contêm termos de segunda ordem em suas fórmulas, o que impede a utilização de métodos do tipo Newton para resolver o problema. Para contornar essa dificuldade, utilizamos uma ideia de construção de penalidade exata para desigualdades variacionais, introduzida recentemente por André e Silva. Essa construção consiste em incorporar um estimador de multiplicadores, proposto por Glad e Polak, no lagrangiano aumentado para desigualdades variacionais. Nesse trabalho, estendemos o estimador de multiplicadores para restrições gerais de igualdade e desigualdade, e enfraquecemos a hipótese de regularidade. Como resultado, obtemos uma função penalidade exata continuamente diferenciável e uma nova reformulação do sistema KKT associado a problemas não lineares. A estrutura dessa reformulação permite a utilização do método de Newton semi-suave, e a taxa de convergência local superlinear pode ser provada. Além disso, verificamos que a penalidade exata construída pode ser usada para globalizar o método, levando a uma abordagem do tipo Gauss-Newton. Por fim, realizamos experimentos numéricos baseando-se na coleção CUTE de problemas de teste. / During the 1970\'s and 1980\'s, methods based on differentiable exact penalty functions were developed to solve constrained optimization problems. One drawback of these functions is that they contain second-order terms in their gradient\'s formula, which do not allow the use of Newton-type methods. To overcome such difficulty, we use an idea for construction of exact penalties for variational inequalities, introduced recently by André and Silva. This construction consists on incorporating a multipliers estimate, proposed by Glad and Polak, in the augmented Lagrangian function for variational inequalities. In this work, we extend the multipliers estimate to deal with both equality and inequality constraints and we weaken the regularity assumption. As a result, we obtain a continuous differentiable exact penalty function and a new equation reformulation of the KKT system associated to nonlinear problems. The formula of such reformulation allows the use of semismooth Newton method, and the local superlinear convergence rate can be also proved. Besides, we note that the exact penalty function can be used to globalize the method, resulting in a Gauss-Newton-type approach. We conclude with some numerical experiments using the collection of test problems CUTE.

Page generated in 0.0348 seconds