• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Convergence Analysis for the Gradient-Projection Method with Different Choices of Stepsizes

Tsai, Jung-Jen 30 June 2009 (has links)
We consider the constrained convex minimization problem min x2C f(x) we will present gradient projection method which generates a sequence fxkg according to the formula xk+1 = PC(xk
2

Runge-Kutta methods for stochastic differential equations

Burrage, Pamela Marion Unknown Date (has links)
In this thesis, high order stochastic Runge-Kutta methods are developed for the numerical solution of (Stratonvich) stochastic differential equations and numerical results are presented. The problems associated with non-communativity of stochastic differential equation systems are addressed and stochastic Runge-Kutta methods particularly suited for such systems are derived. The thesis concludes with a discussion on various implementation issues, along with numerical results from variable stepsize implementation of a stochastic embedded pair of Runge-Kutta methods.
3

Convergece Analysis of the Gradient-Projection Method

Chow, Chung-Huo 09 July 2012 (has links)
We consider the constrained convex minimization problem: min_x∈C f(x) we will present gradient projection method which generates a sequence x^k according to the formula x^(k+1) = P_c(x^k − £\_k∇f(x^k)), k= 0, 1, ¡P ¡P ¡P , our ideal is rewritten the formula as a xed point algorithm: x^(k+1) = T_(£\k)x^k, k = 0, 1, ¡P ¡P ¡P is used to solve the minimization problem. In this paper, we present the gradient projection method(GPM) and different choices of the stepsize to discuss the convergence of gradient projection method which converge to a solution of the concerned problem.
4

Stabilita a konvergence numerických výpočtů / Stability and convergence of numerical computations

Sehnalová, Pavla Unknown Date (has links)
Tato disertační práce se zabývá analýzou stability a konvergence klasických numerických metod pro řešení obyčejných diferenciálních rovnic. Jsou představeny klasické jednokrokové metody, jako je Eulerova metoda, Runge-Kuttovy metody a nepříliš známá, ale rychlá a přesná metoda Taylorovy řady. V práci uvažujeme zobecnění jednokrokových metod do vícekrokových metod, jako jsou Adamsovy metody, a jejich implementaci ve dvojicích prediktor-korektor. Dále uvádíme generalizaci do vícekrokových metod vyšších derivací, jako jsou např. Obreshkovovy metody. Dvojice prediktor-korektor jsou často implementovány v kombinacích modů, v práci uvažujeme tzv. módy PEC a PECE. Hlavním cílem a přínosem této práce je nová metoda čtvrtého řádu, která se skládá z dvoukrokového prediktoru a jednokrokového korektoru, jejichž formule využívají druhých derivací. V práci je diskutována Nordsieckova reprezentace, algoritmus pro výběr proměnlivého integračního kroku nebo odhad lokálních a globálních chyb. Navržený přístup je vhodně upraven pro použití proměnlivého integračního kroku s přístupe vyšších derivací. Uvádíme srovnání s klasickými metodami a provedené experimenty pro lineární a nelineární problémy.

Page generated in 0.0786 seconds