Projeto de controladores baseado em dados : convergência dos métodos iterativos

O projeto de controladores baseado em dados consiste no ajuste dos parâmetros do controlador diretamente das bateladas de dados do processo, sem a necessidade de um modelo. O ajuste é feito resolvendo um problema de otimização, onde procura-se o argumento que minimize uma determinada função custo. Para resolver o problema de otimização são utilizados nesses métodos o algoritmo do gradiente, o algoritmo de Newton e variações destes. O algoritmo do gradiente apenas necessita informação do gradiente da função custo enquanto que os outros utilizam mais informações como a hessiana. Para obter estas últimas informações são utilizados experimentos mais longos e mais complexos, o que torna a aplicação mais complicada. Nesta linha o algoritmo do gradiente se apresenta como a melhor alternativa, por este motivo foi escolhido como foco deste trabalho. A convergência do algoritmo do gradiente para o mínimo global da função custo, no contexto de projeto de controladores, não é encontrada na bibliografia, decidiu-se portanto estudá-la. Essa convergência depende das condições iniciais do algoritmo e do tamanho do passo de iteração utilizado. É mostrado que as condições iniciais precisam estar dentro de uma certa região de atração. Formas de aumentar esta região de atração são tratadas na metodologia chamada Shaping da Função Custo. A principal contribuição deste trabalho é apresentar um método eficiente para a escolha do tamanho do passo de iteração que garante a convergência para o mínimo global da função custo. Algumas informações do processo são necessárias para o cálculo do tamanho do passo de iteração, também são apresentadas maneiras de obter estimativas para estas informações. Simulações e experimentos demonstram o funcionamento dos métodos. / Data-based control design methods consist of adjusting the parameters of the controller directly from batches of input-output data of the process; no process model is used. The adjustment is done by solving an optimization problem, which searches the argument that minimizes a specific cost function. Iterative algorithms based on the gradient are applied to solve the optimization problem, like the steepest descent algorithm, Newton algorithm and some variations. The only information utilized for the steepest descent algorithm is the gradient of the cost function, while the others need more information like the hessian. Longer and more complex experiments are used to obtain more informations, that turns the application more complicated. For this reason, the steepest descent method was chosen to be studied in this work. The convergence of the steepest descent algorithm to the global minimum is not fully studied in the literature. This convergence depends on the initial conditions of the algorithm and on the step size. The initial conditions must be inside a specific domain of attraction, and how to enlarge this domain is treated by the methodology Cost Function Shaping. The main contribution of this work is a method to compute efficiently the step size, to ensure convergence to the global minimum. Some informations about the process are utilized, and this work presents how to estimate these informations. Simulations and experiments demonstrate how the methods work.

Identiferoai:union.ndltd.org:IBICT/oai:www.lume.ufrgs.br:10183/17625
Date January 2008
CreatorsEckhard, Diego
ContributorsBazanella, Alexandre Sanfelice
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formatapplication/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações da UFRGS, instname:Universidade Federal do Rio Grande do Sul, instacron:UFRGS
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0024 seconds