Spelling suggestions: "subject:"steepest descent"" "subject:"steepest crescent""
11 |
Steepest Sescent on a Uniformly Convex SpaceZahran, Mohamad M. 08 1900 (has links)
This paper contains four main ideas. First, it shows global existence for the steepest descent in the uniformly convex setting. Secondly, it shows existence of critical points for convex functions defined on uniformly convex spaces. Thirdly, it shows an isomorphism between the dual space of H^{1,p}[0,1] and the space H^{1,q}[0,1] where p > 2 and {1/p} + {1/q} = 1. Fourthly, it shows how the Beurling-Denny theorem can be extended to find a useful function from H^{1,p}[0,1] to L_{p}[1,0] where p > 2 and addresses the problem of using that function to establish a relationship between the ordinary and the Sobolev gradients. The paper contains some numerical experiments and two computer codes.
|
12 |
A Numerical Method for Solving Singular Differential Equations Utilizing Steepest Descent in Weighted Sobolev SpacesMahavier, William Ted 08 1900 (has links)
We develop a numerical method for solving singular differential equations and demonstrate the method on a variety of singular problems including first order ordinary differential equations, second order ordinary differential equations which have variational principles, and one partial differential equation.
|
13 |
Minimization of a Nonlinear Elasticity Functional Using Steepest DescentMcCabe, Terence W. (Terence William) 08 1900 (has links)
The method of steepest descent is used to minimize typical functionals from elasticity.
|
14 |
Using Steepest Descent to Find Energy-Minimizing Maps Satisfying Nonlinear ConstraintsGarza, Javier, 1965- 08 1900 (has links)
The method of steepest descent is applied to a nonlinearly constrained optimization problem which arises in the study of liquid crystals. Let Ω denote the region bounded by two coaxial cylinders of height 1 with the outer cylinder having radius 1 and the inner having radius ρ. The problem is to find a mapping, u, from Ω into R^3 which agrees with a given function v on the surfaces of the cylinders and minimizes the energy function over the set of functions in the Sobolev space H^(1,2)(Ω; R^3) having norm 1 almost everywhere. In the variational formulation, the norm 1 condition is emulated by a constraint function B. The direction of descent studied here is given by a projected gradient, called a B-gradient, which involves the projection of a Sobolev gradient onto the tangent space for B. A numerical implementation of the algorithm, the results of which agree with the theoretical results and which is independent of any strong properties of the domain, is described. In chapter 2, the Sobolev space setting and a significant projection in the theory of Sobolev gradients are discussed. The variational formulation is introduced in Chapter 3, where the issues of differentiability and existence of gradients are explored. A theorem relating the B-gradient to the theory of Lagrange multipliers is stated as well. Basic theorems regarding the continuous steepest descent given by the Sobolev and B-gradients are stated in Chapter 4, and conditions for convergence in the application to the liquid crystal problem are given as well. Finally, in Chapter 5, the algorithm is described and numerical results are examined.
|
15 |
An Edge-Preserving Super-Precision for Simultaneous Enhancement of Spacial and Grayscale ResolutionsSAKANIWA, Kohichi, YAMADA, Isao, OHTSUKA, Toshinori, HASEGAWA, Hiroshi 01 February 2008 (has links)
No description available.
|
16 |
An evaluation of saddlepoint approximations in the generalized linear model /Platt, Robert William, January 1996 (has links)
Thesis (Ph. D.)--University of Washington, 1996. / Vita. Includes bibliographical references (leaves [127]-133).
|
17 |
Projeto de controladores baseado em dados : convergência dos métodos iterativosEckhard, Diego January 2008 (has links)
O projeto de controladores baseado em dados consiste no ajuste dos parâmetros do controlador diretamente das bateladas de dados do processo, sem a necessidade de um modelo. O ajuste é feito resolvendo um problema de otimização, onde procura-se o argumento que minimize uma determinada função custo. Para resolver o problema de otimização são utilizados nesses métodos o algoritmo do gradiente, o algoritmo de Newton e variações destes. O algoritmo do gradiente apenas necessita informação do gradiente da função custo enquanto que os outros utilizam mais informações como a hessiana. Para obter estas últimas informações são utilizados experimentos mais longos e mais complexos, o que torna a aplicação mais complicada. Nesta linha o algoritmo do gradiente se apresenta como a melhor alternativa, por este motivo foi escolhido como foco deste trabalho. A convergência do algoritmo do gradiente para o mínimo global da função custo, no contexto de projeto de controladores, não é encontrada na bibliografia, decidiu-se portanto estudá-la. Essa convergência depende das condições iniciais do algoritmo e do tamanho do passo de iteração utilizado. É mostrado que as condições iniciais precisam estar dentro de uma certa região de atração. Formas de aumentar esta região de atração são tratadas na metodologia chamada Shaping da Função Custo. A principal contribuição deste trabalho é apresentar um método eficiente para a escolha do tamanho do passo de iteração que garante a convergência para o mínimo global da função custo. Algumas informações do processo são necessárias para o cálculo do tamanho do passo de iteração, também são apresentadas maneiras de obter estimativas para estas informações. Simulações e experimentos demonstram o funcionamento dos métodos. / Data-based control design methods consist of adjusting the parameters of the controller directly from batches of input-output data of the process; no process model is used. The adjustment is done by solving an optimization problem, which searches the argument that minimizes a specific cost function. Iterative algorithms based on the gradient are applied to solve the optimization problem, like the steepest descent algorithm, Newton algorithm and some variations. The only information utilized for the steepest descent algorithm is the gradient of the cost function, while the others need more information like the hessian. Longer and more complex experiments are used to obtain more informations, that turns the application more complicated. For this reason, the steepest descent method was chosen to be studied in this work. The convergence of the steepest descent algorithm to the global minimum is not fully studied in the literature. This convergence depends on the initial conditions of the algorithm and on the step size. The initial conditions must be inside a specific domain of attraction, and how to enlarge this domain is treated by the methodology Cost Function Shaping. The main contribution of this work is a method to compute efficiently the step size, to ensure convergence to the global minimum. Some informations about the process are utilized, and this work presents how to estimate these informations. Simulations and experiments demonstrate how the methods work.
|
18 |
Projeto de controladores baseado em dados : convergência dos métodos iterativosEckhard, Diego January 2008 (has links)
O projeto de controladores baseado em dados consiste no ajuste dos parâmetros do controlador diretamente das bateladas de dados do processo, sem a necessidade de um modelo. O ajuste é feito resolvendo um problema de otimização, onde procura-se o argumento que minimize uma determinada função custo. Para resolver o problema de otimização são utilizados nesses métodos o algoritmo do gradiente, o algoritmo de Newton e variações destes. O algoritmo do gradiente apenas necessita informação do gradiente da função custo enquanto que os outros utilizam mais informações como a hessiana. Para obter estas últimas informações são utilizados experimentos mais longos e mais complexos, o que torna a aplicação mais complicada. Nesta linha o algoritmo do gradiente se apresenta como a melhor alternativa, por este motivo foi escolhido como foco deste trabalho. A convergência do algoritmo do gradiente para o mínimo global da função custo, no contexto de projeto de controladores, não é encontrada na bibliografia, decidiu-se portanto estudá-la. Essa convergência depende das condições iniciais do algoritmo e do tamanho do passo de iteração utilizado. É mostrado que as condições iniciais precisam estar dentro de uma certa região de atração. Formas de aumentar esta região de atração são tratadas na metodologia chamada Shaping da Função Custo. A principal contribuição deste trabalho é apresentar um método eficiente para a escolha do tamanho do passo de iteração que garante a convergência para o mínimo global da função custo. Algumas informações do processo são necessárias para o cálculo do tamanho do passo de iteração, também são apresentadas maneiras de obter estimativas para estas informações. Simulações e experimentos demonstram o funcionamento dos métodos. / Data-based control design methods consist of adjusting the parameters of the controller directly from batches of input-output data of the process; no process model is used. The adjustment is done by solving an optimization problem, which searches the argument that minimizes a specific cost function. Iterative algorithms based on the gradient are applied to solve the optimization problem, like the steepest descent algorithm, Newton algorithm and some variations. The only information utilized for the steepest descent algorithm is the gradient of the cost function, while the others need more information like the hessian. Longer and more complex experiments are used to obtain more informations, that turns the application more complicated. For this reason, the steepest descent method was chosen to be studied in this work. The convergence of the steepest descent algorithm to the global minimum is not fully studied in the literature. This convergence depends on the initial conditions of the algorithm and on the step size. The initial conditions must be inside a specific domain of attraction, and how to enlarge this domain is treated by the methodology Cost Function Shaping. The main contribution of this work is a method to compute efficiently the step size, to ensure convergence to the global minimum. Some informations about the process are utilized, and this work presents how to estimate these informations. Simulations and experiments demonstrate how the methods work.
|
19 |
Numerical study on some inverse problems and optimal control problemsTian, Wenyi 31 August 2015 (has links)
In this thesis, we focus on the numerical study on some inverse problems and optimal control problems. In the first part, we consider some linear inverse problems with discontinuous or piecewise constant solutions. We use the total variation to regularize these inverse problems and then the finite element technique to discretize the regularized problems. These discretized problems are treated from the saddle-point perspective; and some primal-dual numerical schemes are proposed. We intensively investigate the convergence of these primal-dual type schemes, establishing the global convergence and estimating their worst-case convergence rates measured by the iteration complexity. We test these schemes by some experiments and verify their efficiency numerically. In the second part, we consider the finite difference and finite element discretization for an optimal control problem which is governed by time fractional diffusion equation. The prior error estimate of the discretized model is analyzed, and a projection gradient method is applied for iteratively solving the fully discretized surrogate. Some numerical experiments are conducted to verify the efficiency of the proposed method. Overall speaking, the thesis has been mainly inspired by some most recent advances developed in optimization community, especially in the area of operator splitting methods for convex programming; and it can be regarded as a combination of some contemporary optimization techniques with some relatively mature inverse and control problems. Keywords: Total variation minimization, linear inverse problem, saddle-point problem, finite element method, primal-dual method, convergence rate, optimal control problem, time fractional diffusion equation, projection gradient method.
|
20 |
Projeto de controladores baseado em dados : convergência dos métodos iterativosEckhard, Diego January 2008 (has links)
O projeto de controladores baseado em dados consiste no ajuste dos parâmetros do controlador diretamente das bateladas de dados do processo, sem a necessidade de um modelo. O ajuste é feito resolvendo um problema de otimização, onde procura-se o argumento que minimize uma determinada função custo. Para resolver o problema de otimização são utilizados nesses métodos o algoritmo do gradiente, o algoritmo de Newton e variações destes. O algoritmo do gradiente apenas necessita informação do gradiente da função custo enquanto que os outros utilizam mais informações como a hessiana. Para obter estas últimas informações são utilizados experimentos mais longos e mais complexos, o que torna a aplicação mais complicada. Nesta linha o algoritmo do gradiente se apresenta como a melhor alternativa, por este motivo foi escolhido como foco deste trabalho. A convergência do algoritmo do gradiente para o mínimo global da função custo, no contexto de projeto de controladores, não é encontrada na bibliografia, decidiu-se portanto estudá-la. Essa convergência depende das condições iniciais do algoritmo e do tamanho do passo de iteração utilizado. É mostrado que as condições iniciais precisam estar dentro de uma certa região de atração. Formas de aumentar esta região de atração são tratadas na metodologia chamada Shaping da Função Custo. A principal contribuição deste trabalho é apresentar um método eficiente para a escolha do tamanho do passo de iteração que garante a convergência para o mínimo global da função custo. Algumas informações do processo são necessárias para o cálculo do tamanho do passo de iteração, também são apresentadas maneiras de obter estimativas para estas informações. Simulações e experimentos demonstram o funcionamento dos métodos. / Data-based control design methods consist of adjusting the parameters of the controller directly from batches of input-output data of the process; no process model is used. The adjustment is done by solving an optimization problem, which searches the argument that minimizes a specific cost function. Iterative algorithms based on the gradient are applied to solve the optimization problem, like the steepest descent algorithm, Newton algorithm and some variations. The only information utilized for the steepest descent algorithm is the gradient of the cost function, while the others need more information like the hessian. Longer and more complex experiments are used to obtain more informations, that turns the application more complicated. For this reason, the steepest descent method was chosen to be studied in this work. The convergence of the steepest descent algorithm to the global minimum is not fully studied in the literature. This convergence depends on the initial conditions of the algorithm and on the step size. The initial conditions must be inside a specific domain of attraction, and how to enlarge this domain is treated by the methodology Cost Function Shaping. The main contribution of this work is a method to compute efficiently the step size, to ensure convergence to the global minimum. Some informations about the process are utilized, and this work presents how to estimate these informations. Simulations and experiments demonstrate how the methods work.
|
Page generated in 0.06 seconds