• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • Tagged with
  • 17
  • 17
  • 12
  • 11
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Método do gradiente para funções convexas generalizadas / Gradiente method for generalized convex functions

COUTO, Kelvin Rodrigues 16 December 2009 (has links)
Made available in DSpace on 2014-07-29T16:02:22Z (GMT). No. of bitstreams: 1 Dissertacao kelvin.pdf: 379268 bytes, checksum: 69875c577ac81dd2f77bb73f65c9f683 (MD5) Previous issue date: 2009-12-16 / The Convergence theory of gradient method and gradient projection method, for minimization of continuously differentiable generalized convex functions, that is, pseudoconvex functions and quasiconvex functions is studied in this work. We shall see that under certain conditions the gradient method, as well as gradient projection method, generate a convergent sequence and the limit point is a minimizing, whenever the function has minimizing and is pseudoconvex functions. If the objective function is quasiconvex then the generated sequence converges to a stationary point whenever that point exists. / Neste trabalho trataremos da convergência do método do gradiente para minimizar funções continuamente diferenciáveis e convexas-generalizadas, isto é, pseudo-convexas ou quase-convexas. Veremos que sob certas condições o método do gradiente, assim como o método do gradiente projetado, gera uma sequência que converge para minimizador quando existe um e a função objetivo é pseudo-convexa. Quando a função objetivo é quase-convexa a sequência gerada converge para um ponto estacionário do problema quando existe um tal ponto.
2

Otimização de trajetórias espaciais usando métodos do gradiente.

Fabio Andrade de Almeida 00 December 2001 (has links)
Este trabalho trata do desenvolvimento e aplicação dos Métodos do Gradiente e do Gradiente Conjugado para otimização de trajetórias espaciais. A teoria correspondente é apresentada em detalhes. Ambos os métodos são aplicados à vários problemas clássicos de controle ótimo e a problemas de transferências interplanetárias, considerando sistemas de empuxo constante e também de potência limitada e baixo empuxo. Os resultados numéricos obtidos de cada um dos métodos são comparados e analisados.
3

Convergência global do método de descida para minimização de funções quaseconvexas

Souza, Sílvia Dias de 02 December 2008 (has links)
Made available in DSpace on 2015-04-22T22:16:10Z (GMT). No. of bitstreams: 1 Dissertacao Final Silvia Dias.pdf: 294701 bytes, checksum: 3db88088cfefa1d409aff942086bdf0e (MD5) Previous issue date: 2008-12-02 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / In this work, we bring a statement of detailed results obtained IN Kiwiel and Murty. Hum show strong results Convergence Descent Method paragraph continuously differentiable functions and quaseconvexas, we discussions and comparisons with other research lines. / Neste trabalho, trazemos uma demonstração detalhada dos resultados obtido por Kiwiel e Murty. Mostraremos um forte resultado de convergência do método de descida para funções continuamente diferenciáveis e quaseconvexas, faremos discussões e comparações com outras linhas de pesquisas.
4

Convergência completa do método do gradiente com busca linear exata e inexata

Sousa, Jeanne Moreira de 29 December 2008 (has links)
Made available in DSpace on 2015-04-22T22:16:10Z (GMT). No. of bitstreams: 1 Dissertacao Jeanne Moreira.pdf: 447774 bytes, checksum: 635ca33ffaf3746929571ab0aabcfd32 (MD5) Previous issue date: 2008-12-29 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / In this work we use the gradient method to minimize, without restrictions, convex and pseudoconvex continuously differentiable functions. An important theme considered is the path length determination. We have that, when minimizing pseudoconvex functions, the linear search is exact. In this case, we present the first algorithm to obtain the path length, where will be included a quadratic regularization term, in the proximal point method sense. When dealing with the minimization of convex functions case, we have that the linear search is not exact. To obtain the path length, two algorithms are presented: the former needs that the gradient of the objective function satisfies a Lipschitz condition with a known constant L > 0. The latter is based on the work of Dennis-Schnabel (see [4]). The three process are based on the quasi-Fejér convergence principle. Although these descent methods need that the objective functions to be minimized have bounded level sets, in order to establish that the limit points are stationary, this approach guarantees the complete convergence of every sequence to a minimizer of the function without the hypothesis of bounded level sets. / Neste trabalho utilizamos o método do gradiente para minimizar, sem restrições, funções continuamente diferenciáveis pseudo-convexas e convexas. Um termo considerado importante é o cálculo do comprimento do passo. Na minimização de funções pseudo-convexas a busca linear é exata. Neste caso, apresentamos o primeiro algoritmo para o cálculo do comprimento do passo, onde é acrescentado um termo de regularização quadrático no sentido do método do ponto proximal. Posteriormente, na minimização de funções convexas, a busca linear é inexata. Para o cálculo do comprimento do passo apresentamos dois algoritmos: um necessita que o gradiente da função objetivo satisfaça uma condição de Lipschitz com constante L > 0 conhecida, e o outro é baseado no trabalho desenvolvido por Dennis-Schnabel (ver [4]). Os três processos baseiam-se na noção da quase-Fejér convergência. Embora os métodos de descida necessitem que a função objetivo a ser minimizada possua conjuntos de níveis limitados a fim de estabelecer que os pontos de acumulação sejam estacionários, nesta abordagem é garantida a convergência completa de toda sequência para um minimizador da função sem a hipótese de limitação do conjunto de nível.
5

Maximização da potência característica de linhas de transmissão usando método de otimização não linear / Maximization of transmission line surge impedance loading by using non linear optimization method

Maciel, Renan de Paula, 1984- 03 November 2013 (has links)
Orientador: Maria Cristina Dias Tavares / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-25T10:45:44Z (GMT). No. of bitstreams: 1 Maciel_RenandePaula_M.pdf: 20862313 bytes, checksum: 8d33d7f791ddf8189e35795948116d81 (MD5) Previous issue date: 2013 / Resumo: Neste trabalho é proposto um método de otimização para maximizar a potência característica de linhas de transmissão constituída por condutores em feixe. O método iterativo, baseado na minimização pelo gradiente, altera, a cada passo, a posição dos condutores dada na silhueta da torre construindo uma nova configuração dos feixes. Tal configuração corresponde a uma pequena modificação dos feixes deslocando os condutores na direção que leva à máxima redução da função objetivo. São avaliadas a redução da impedância característica e a otimização do campo elétrico superficial. A primeira busca o aumento da potência característica atuando diretamente no caminho de máxima redução da impedância característica. A segunda atua na uniformização do campo elétrico superficial dos condutores, cujo valor limite representa a principal restrição eletromagnética frente à elevação da potência característica na concepção de linhas de transmissão. A última se mostrou predominante, resultando em linhas otimizadas com maior potência característica, porém, levando a feixes com dimensões mais elevadas / Abstract: This work presents an optimization method aiming to maximize the surge impedance loading of bundled transmission lines. The iterative method, based on gradient optimization, changes, on each step, the conductors position generating a new bundle configuration. Such configuration matches a small change on bundles geometry by shifting conductors on the direction that leads to the maximum reduction of the objective function. Both the reduction of natural impedance and the optimization of conductor¿s superficial electric field are evaluated. The former seeks the increase of surge impedance loading actuating directly on the maximal surge impedance reduction path. The second acts on the uniformization of conductor¿s superficial electric field, whose upper bound is the main electromagnetic restriction on the surge impedance loading increase when conceiving transmission lines. The last one was most effective, resulting in greatest natural power transmission lines, yet, leading to most expanded bundles / Mestrado / Energia Eletrica / Mestre em Engenharia Elétrica
6

Problemas de Otimização Quase Convexos: Método do Gradiente para Funções Escalares e Vetoriais / Optimization Problems Quasi-convex: Gradient Method for Vector and Scalar Functions

SANTOS, Milton Gabriel Garcia dos 27 October 2011 (has links)
Made available in DSpace on 2014-07-29T16:02:19Z (GMT). No. of bitstreams: 1 Dissertacao Milton Gabriel Garcia dos Santos.pdf: 405990 bytes, checksum: b1b10db3be6011cbbae70bc35ed87950 (MD5) Previous issue date: 2011-10-27 / This work we study the convergence properties of the Gradient Method Designed and Descent Method for Multi-objective optimization. At first, our optimization problem is to minimize a real function of n-variables, continuously differentiable and restricted to a set of simple structure and add on the objective function of the hypothesis of pseudo-convexity or quasi-convexity. Then we consider the problem of unconstrained multi-objective optimization and add some hypotheses about the function vector, such as convexity or quasi-convexity, and is continuously differentiable. It is noteworthy that in both problems will be used to search for inexact Armijo over viable directions. / Neste trabalho faremos um estudo das propriedades de convergência do Método do Gradiente Projetado e do Método de Descida para otimização Multi-objetivo. No primeiro momento, o nosso problema de otimização será o de minimizar uma função real de nvariáveis, continuamente diferenciável e restrita a um conjunto de estrutura simples e acrescentaremos sobre a função objetivo a hipótese de quase-convexidade ou pseudoconvexidade. Em seguida iremos considerar o problema de otimização Multi-Objetivo irrestrito e adicionar algumas hipóteses sobre a função vetorial, como a convexidade ou quase-convexidade, além de ser continuamente diferenciável. É importante salientar que em ambos os problemas será utilizado a busca inexata de armijo ao longo de direções viáveis.
7

Proposta de uma Classe de Perceptrons Híbridos com Aprendizagem baseada em Gradiente Descendente

ARAÚJO, Ricardo de Andrade 31 January 2012 (has links)
Made available in DSpace on 2014-06-12T16:01:32Z (GMT). No. of bitstreams: 2 arquivo9424_1.pdf: 5898735 bytes, checksum: 20e8579169a2c3b8e6d53fd877a5cd17 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2012 / Este trabalho apresenta uma classe de perceptrons híbridos baseado nos princípios da morfologia matemática (mathematical morphology, MM) no contexto de teoria de reticulados (lattice theory). O modelo proposto, chamado de perceptron de dilatação-erosão-linear (dilationerosion- linear perceptron, DELP), consiste de uma combinação linear entre operadores nãolineares (do tipo morfológicos no contexto de teoria de reticulados) e um operador linear (do tipo resposta finita ao impulso), sendo desenvolvido na tentativa de superar o dilema do passeio aleatório (random walk dilemma, RWD) no problema de previsão de séries temporais financeiras. Para projetar o DELP (processo de aprendizagem), foi apresentado um método de gradiente descendente utilizando ideias do algoritmo de retropropagação do erro (back propagation, BP) e uma abordagem sistemática para superar o problema da não-diferenciabilidade das operações morfológicas de dilatação e erosão. Também, no processo de aprendizagem do DELP, foi incluída uma etapa adicional para ajustar distorções de fase temporais que ocorrem na reconstrução do espaço de fase de fenômenos temporais provenientes do mercado financeiro. Uma análise experimental foi conduzida utilizando um conjunto de séries temporais financeiras: Índice da Bolsa de Valores de São Paulo, Índice Dow Jones Industrial Average, Índice National Association of Securities Dealers Automated Quotation, Índice Financial Times and London Stock Exchange 100, Preço das ações do Bradesco PN, Preço das ações da Gol PN, Preço das ações do Itaú Unibanco PN, Preço das ações da Petrobras PN, Preço das ações da Usiminas PNA e Preço das ações da Vale PNA. Nestes experimentos, foram utilizadas cinco métricas e uma função de avaliação para mensurar o desempenho preditivo do modelo proposto, e os resultados alcançados superaram aqueles obtidos utilizando técnicas consolidadas na literatura
8

Modelo hidraulico para transitorios lentos em conduto forçado / Hydraulic model for slow transients in pipe networks

Anjo, Luiz Fernando Resende dos Santos 25 July 2008 (has links)
Orientador: Edevar Luvizotto Junior / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil, Arquitetura e Urbanismo / Made available in DSpace on 2018-08-11T21:41:10Z (GMT). No. of bitstreams: 1 Anjo_LuizFernandoResendedosSantos_D.pdf: 3588080 bytes, checksum: 122271523488dc8a40a0d509bd1b0cf8 (MD5) Previous issue date: 2008 / Resumo: Este texto descreve as etapas que objetivam a utilização da estrutura originalmenteproposta por Todini e Pilati no chamado método gradiente (MG), utilizado para análise em regime permanente em instalações a condutos forçados, na formulação de um modelo dinâmico inercial rígido (MDIR), para a análise de escoamentos transitórios lentos neste tipo de instalação. São apresentadas as bases teóricas para esta nova modelação, justificadas através do equacionamento geral do escoamento fluido em condutos forçados. Os resultados obtidos pelo MDIR são comparados com os resultados obtidos pelo programa EPANET que utiliza o método gradiente. Discussões a respeito da importância da incorporação do efeito de inércia são apresentadas através de um estudo de casos, no caso de modelação hidráulica, e para análises de qualidade decorrentes desta. / Abstract: This research describes the stages which aim the use of the original structure proposed by Todini and Pilati in the so called gradient method (GM), used in the analysis in steady state of pipe networks, in the formulation of an inertial rigid dynamic model (IRDM) to analyse slow transients in this type of installation. The theoretical bases are presented for this new method, justified by the general equation of fluids flow in pipes networks. The results obtained by the MDIR are compared to the results obtained in the EPANET program, which uses the gradient method. Discussion on the importance of the incorporation of the inertia effect are presented through a study case of hydraulic modelation and for quality analysis which derived from it. / Doutorado / Recursos Hidricos / Doutor em Engenharia Civil
9

A variante de Barzilai-Borwein do método gradiente / The variant Barzilai-Borwein gradient method

Moura, Abssan Matuzinhos de 29 April 2016 (has links)
Submitted by Jaqueline Silva (jtas29@gmail.com) on 2016-09-12T20:46:48Z No. of bitstreams: 2 Dissertação - Abssan Matuzinhos de Moura - 2016.pdf: 1317960 bytes, checksum: d406a9bf2b4d0bbca0ad6e3b52da498d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-09-12T20:47:11Z (GMT) No. of bitstreams: 2 Dissertação - Abssan Matuzinhos de Moura - 2016.pdf: 1317960 bytes, checksum: d406a9bf2b4d0bbca0ad6e3b52da498d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-09-12T20:47:11Z (GMT). No. of bitstreams: 2 Dissertação - Abssan Matuzinhos de Moura - 2016.pdf: 1317960 bytes, checksum: d406a9bf2b4d0bbca0ad6e3b52da498d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-04-29 / The gradient method is a classical optimization methods to minimize a function. This method deserves special mention for its simplicity and easy understanding. This work is based on the study of the gradient method with step size given by the variant Barzilai- Borwein. Our goal is to present the convergence of the method with this variant. First we will study the two-dimensional case, for strictly convex quadratic functions. In this case, besides obtaining the convergence of the method, we see that such convergence occurs with R-superlinear rate. In the final part of the work, we will study the method with the variant Barzilai-Borwein not necessarily quadratic functions, concluding that the method converges. / O Método Gradiente é um dos métodos clássicos de otimização para minimizar uma função. Esse método merece um destaque especial pela sua simplicidade e fácil compreensão. Este trabalho se baseia no estudo do Método Gradiente com tamanho do passo dado pela variante de Barzilai-Borwein. Nosso objetivo é apresentar a convergência do método com esta variante. Primeiro faremos o estudo no caso bidimensional, para funções quadráticas estritamente convexas. Neste caso, além de obtermos a convergência do método, veremos que tal convergência ocorre com taxa R-superlinear. Na parte final do trabalho, faremos o estudo do método com a variante de Barzilai-Borwein para funções não necessariamente quadráticas, concluindo que o método converge.
10

Acelerando o metodo de Levenberg-Marquardt para a minimização da soma de quadrados de funções com restrições de caixa / Accelerating the Levenberg-Marquardt method for the minimization of the square of functions with box constraints

Medeiros, Luiz Antonio da Silva 10 August 2008 (has links)
Orientadores: Francisco de Assis Magalhães Gomes Neto, Jose Mario Martinez / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-12T08:17:16Z (GMT). No. of bitstreams: 1 Medeiros_LuizAntoniodaSilva_D.pdf: 2528214 bytes, checksum: 42e1946a32b63c9fc5cd56b10d24d5cb (MD5) Previous issue date: 2008 / Resumo: Neste trabalho, apresentamos um algoritmo iterativo para a minimização de somas de quadrados de funções suaves, com restrições de caixa. O algoritmo é fortemente inspirado no trabalho de Birgin e Martínez [4]. A diferença principal está na escolha da direção de busca e na introdução de uma nova técnica de aceleração, usada para atualizar o passo. A cada iteração, definimos uma face ativa e resolvemos, nessa face, um subproblema quadrático irrestrito através do método evenberg-Marquardt (ver [26], [28] e [33]), obtendo uma direção de descida e uma aproximação x+ para a solução do problema. Ainda usando apenas as variáveis livres, tentamos acelerar o método definindo uma nova aproximaçaoo xa como combinação linear das últimas p - 1 aproximações da solução e do vetor x+. Os coeficientes desta combinação linear são calculados convenientemente através da resolução de um problema de Quadrados Mínimos com uma restrição de igualdade. O subproblema que determina o passo acelerado leva em conta as informações sobre a função objetivo nessas p soluções aproximadas. Como em [4], executamos uma busca linear ao longo da direção e usamos técnicas de projeção para adicionar novas restrições. Para deixar a face ativa, usamos a direção do gradiente espectral projetado [5]. Experimentos númericos são apresentados para confirmar a eficiência e robustez do novo algoritmo. / Abstract: In this work, we present an active set algorithm for minimizing the sum of squares of smooth functions, with box constraints. The algorithm is highly inspired in the work of Birgin and Mart'inez [4]. The differences are concentrated on the chosen search direction and on the use of an acceleration technique to update the step. At each iteration, we define an active face and solve an unconstrained quadratic subproblem using the Levenberg-Marquardt method (see [26], [28] and [33]), obtaining a descent direction and an approximate solution x+. Using only the free variables, we try to accelerate the method defining a new solution xa as a linear combination of the last p-1 approximate solutions together with x+. The coefficients of this linear combination are conveniently computed solving a constrained least squares problem that takes into account the objective function values of these p approximate solutions. Like in [4], we compute a line search and use projection techniques to add new constraints to the active set. The spectral projected gradient [5] is used to leave the current active face. Numerical experiments confirm that the algorithm is both efficient and robust. / Doutorado / Matematica Aplicada / Doutor em Matemática Aplicada

Page generated in 0.0593 seconds