Spelling suggestions: "subject:"subgradiente"" "subject:"subgradientes""
1 |
Algunas aplicaciones y extensión del método del subgradienteNavarro Rojas, Frank January 2013 (has links)
El objetivo de este trabajo es hacer un estudio del método subgradiente, que es un método usado para la minimización de funciones convexas no necesariamente diferenciables. Presentamos el método para el caso con restricciones como para el caso irrestricto, presentamos resultados de convergencia para los diferentes tamaños de pasos más usados y estudiamos variantes para las dificultades que pueden acontecer en el método También estudiamos un algoritmo para resolver desigualdades variacionales definidas por un operador monótono e un conjunto convexo y cerrado, se prueba un resultado de convergencia asumiendo que el operador es monótono maximal y paramonotono. Y por ultimo extendemos el algoritmo del subgradiente para el caso de funciones cuasiconvexas asumiendo la condición de ser Holder sobre el conjunto optimal, probando que la sucesión generada converge a un punto óptimo. PALABRAS CLAVES: Método del Subgradiente, Análisis no diferenciable, Desigualdades variacionales, Analisis convexo, Métodos para optimización no diferenciable / --- The objective of this work is to study the subgradient method, which is a method used to minimize not necessarily differentiable convex functions. We present a method for the case restricted to the unrestricted case, we present results of convergence for the different sizes of commonly used steps and study alternatives for the difficulties that may occur in the method Also study an algorithm for solving variational inequalities defined by a monotone operator and a convex closed set, a result of convergence assuming that the operator is monotone and maximal paramonotono is tested. And finally the algorithm Subgradient is extend to the case of functions cuasiconvexas assuming the condition of being Holder on the optimal set, proving that the generated sequence converges to an optimal point. KEYWORDS: Subgradient Method,Analysis not differentiable, Variational inequalities, Convex analysis, Methods for optimization not differentiable / Tesis
|
2 |
Optimización en espacios de Banach y aplicacionesAycho Flores, Milton Angelino, Aycho Flores, Milton Angelino January 2015 (has links)
En este trabajo se estudia el problema de optimización mín xES f(x) donde S es un subconjunto convexo en un espacio normado X f : X (flecha funcional) R. Asimismo, se presenta una extensión del teorema de Kuhn-Tucker que resuelve el problema de minimización sobre el conjunto S = {x E S/g(x) E -C donde C ∧ h(x) = 0Z}es un cono de orden y h, g dos funcionales Fréchet diferenciables. / Tesis
|
3 |
Método subgradiente incremental para otimização convexa não diferenciável / Incremental subgradient method for nondifferentiable convex optimizationAdona, Vando Antônio 18 December 2014 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-26T12:20:46Z
No. of bitstreams: 2
Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-27T10:48:07Z (GMT) No. of bitstreams: 2
Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-03-27T10:48:07Z (GMT). No. of bitstreams: 2
Dissertação - Vando Antônio Adona - 2014.pdf: 1128475 bytes, checksum: a2d00afcaef383726904cf6e6fd3527d (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-12-18 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / We consider an optimization problem for which the objective function is the sum of
convex functions, not necessarily differentiable. We study a subgradient method that
executes the iterations incrementally selecting each component function sequentially
and processing the subgradient iteration individually. We analyze different alternatives
for choosing the step length, highlighting the convergence properties for each case. We
also analyze the incremental model in other methods, considering proximal iteration and
combinations of subgradient and proximal iterations. This incremental approach has been
very successful when the number of component functions is large. / Consideramos um problema de otimização cuja função objetivo consiste na soma de funções
convexas, não necessariamente diferenciáveis. Estudamos um método subgradiente
que executa a iteração de forma incremental, selecionando cada função componente de
maneira sequencial e processando a iteração subgradiente individualmente. Analisamos
diferentes alternativas para a escolha do comprimento de passo, destacando as propriedades
de convergência para cada caso. Abordamos também o modelo incremental em outros
métodos, considerando iteração proximal e combinações de iterações subgradiente e proximal.
Esta abordagem incremental tem sido muito bem sucedida quando o número de
funções componentes é grande.
|
4 |
Integração de heurísticas lagrangeanas com algoritmos exatos para a otimização de particionamento de conjuntos / Integration of Lagrangean heuristics with exact algorithms to otimization of the set partitioning problemAlves, Alexsandro de Oliveira January 2007 (has links)
ALVES, Alexsandro de Oliveira. Integração de heurísticas lagrangeanas com algoritmos exatos para a otimização de particionamento de conjuntos. 2007. 49 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2007. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-05-20T18:05:04Z
No. of bitstreams: 1
2007_dis_aoalves.pdf: 434539 bytes, checksum: d7550e0ddf22c4c083e44734e59375f7 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-05-20T18:08:40Z (GMT) No. of bitstreams: 1
2007_dis_aoalves.pdf: 434539 bytes, checksum: d7550e0ddf22c4c083e44734e59375f7 (MD5) / Made available in DSpace on 2016-05-20T18:08:40Z (GMT). No. of bitstreams: 1
2007_dis_aoalves.pdf: 434539 bytes, checksum: d7550e0ddf22c4c083e44734e59375f7 (MD5)
Previous issue date: 2007 / In this work we evaluate both exact and heuristic methods for the set partitioning problem (SPP). These heuristics are based on greedy algorithms, tabu search and subgradient optimization. Computational experiments performed on benchmark instances of the problem indicate that our heuristics are competitive with existing ones from the literature in obtaining both lower and upper bounds of good quality in reasonable execution time. We use a Branch and Bound algorithm that allows to prove optimality of solutions obtained by our heuristics for a large set of benchmark instances of the SPP. Thus, we show that our heuristics are efficient in obtaining feasible solutions of good quality for this problem. / Neste trabalho avaliamos métodos heurísticos e exatos para o Problema de Particionamento de Conjuntos (PPC). Realizamos testes computacionais com heurísticas lagrangeanas baseadas em algoritmos gulosos, busca tabu e método de otimização pelo subgradiente. Os resultados obtidos, comparados com os da literatura, comprovam a eficiência de nossas heurísticas na obtenção de limites inferiores e superiores de boa qualidade, em tempo computacional razoável, para instâncias da literatura. Utilizamos um esquema de Branch and Bound para tentar resolver instâncias do PPC à otimalidade e para comprovar a qualidade dos resultados alcançados por nossas heurísticas.
|
5 |
IntegraÃÃo de heurÃsticas lagrangeanas com algoritmos exatos para a otimizaÃÃo de particionamento de conjuntos / Integration of Lagrangean heuristics with exact algorithms to otimization of the set partitioning problemAlexsandro de Oliveira Alves 31 August 2007 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / Neste trabalho avaliamos mÃtodos heurÃsticos e exatos para o Problema de Particionamento de Conjuntos (PPC). Realizamos testes computacionais com heurÃsticas lagrangeanas baseadas em algoritmos gulosos, busca tabu e mÃtodo de otimizaÃÃo pelo subgradiente. Os resultados obtidos, comparados com os da literatura, comprovam a eficiÃncia de nossas heurÃsticas na obtenÃÃo de limites inferiores e superiores de boa qualidade, em tempo computacional razoÃvel, para instÃncias da literatura. Utilizamos um esquema de Branch and Bound para tentar resolver instÃncias do PPC ÃÂotimalidade e para comprovar a qualidade dos resultados alcanÃados por nossas heurÃsticas. / In this work we evaluate both exact and heuristic methods for the set partitioning problem (SPP). These heuristics are based on greedy algorithms, tabu search and subgradient optimization. Computational experiments performed on benchmark instances of the problem indicate that our heuristics are competitive with existing ones from the literature in obtaining both lower and upper bounds of good quality in reasonable execution time. We use a Branch and Bound algorithm that allows to prove optimality of solutions obtained by our heuristics for a large set of benchmark instances of the SPP. Thus, we show that our heuristics are efficient in obtaining feasible solutions of good quality for this problem.
|
6 |
Método Subgradiente Condicional com Sequência Ergódica / Conditional subgradient method with sequence ErgodicSILVA, Jose Carlos Rubianes 18 February 2011 (has links)
Made available in DSpace on 2014-07-29T16:02:20Z (GMT). No. of bitstreams: 1
Dissertacao Jose Carlos Rubianes Silva.pdf: 825326 bytes, checksum: f8797d1d8d333606ebad1d9941d5d26d (MD5)
Previous issue date: 2011-02-18 / In this dissertation we consider a primal convex optimization problem and we study
variants of subgradient method applied to the dual problem obtained via a Lagrangian
function. We analyze the conditional subgradient method developed by Larsson et al,
which is a variant of the usual subgradient method. In this variant, the subgradients are
conditioned to a constraint set, more specifically, the behavior of the objective function
outside of the constraint set is not taken into account. One motivation for studying
such methods is primarily its simplicity, in particular, these methods are widely used
in large-scale problems. The subgradient method, when applied to a dual problem, is
relatively effective to obtain a good approximation of a dual solution and the optimal
value, but it is not efficient to obtain primal solutions. We study a strategy to obtain
good approximations of primal solutions via conditional subgradient method, under
suitable additional computational costs. This strategy consists of constructing an ergodic
sequence of solutions of the Lagrangian subproblems.We show that the limit points of this
ergodic sequence are primal solutions. We consider different step sizes rule, in particular,
following the ideas of Nedic and Ozdaglar, using the constant step size rule, we present
estimates of the ergodic sequence and primal solutions and / or the feasible set. / Nesta dissertação consideramos um problema de otimização convexo e estudamos variações
do método subgradiente aplicado ao problema dual obtido via uma função Lagrangiana.
Estudamos o método subgradiente condicional desenvolvido por Larsson et al,
o qual é uma simples variação do método subgradiente usual . A principal diferença é
que os subgradientes são condicionados a um conjunto restrição, mais especificamente, o
comportamento da função fora do conjunto restrição não é levado em conta. Uma motivação
para estudar tais métodos consiste principalmente na sua simplicidade, em especial,
estes métodos são bastante usados em problemas de grande porte. O método subgradiente,
quando aplicado a um problema dual, é relativamente eficaz para obter boas aproximações
de soluções duais e do valor ótimo, no entanto, não possue a mesma eficiência para obter
soluções primais. Analisamos uma estratégia para obter boas aproximações de soluções
primais via método subgradiente condicional, com pouco custo computacional adicional.
Esta estratégia consiste em construir uma sequência ergódica das soluções obtidas durante
a resolução dos subproblemas Lagrangianos. Mostraremos que os pontos limites desta sequência
ergódica são soluções primais. Consideramos diferentes regras para o tamanho
do passo, em particular, seguindo as idéias de Nedic e Ozdaglar, apresentamos estimativas
da sequência ergódica com o conjunto de soluções primais e/ou o conjunto viável quando
usamos a regra de passos constantes.
|
Page generated in 0.0659 seconds