Spelling suggestions: "subject:"oförutsägbar kontroll"" "subject:"oförutsägbara kontroll""
1 |
Learning model predictive control with application to quadcopter trajectory trackingMaji, Abhishek January 2020 (has links)
In thiswork, we develop a learning model predictive controller (LMPC) for energy-optimaltracking of periodic trajectories for a quadcopter. The main advantage of this controller isthat it is “reference-free”. Moreover, the controller is able to improve its performance overiterations by incorporating learning from the previous iterations. The proposed learningmodel predictive controller aims to learn the “best” energy-optimal trajectory over timeby learning a terminal constraint set and a terminal cost from the history data of previousiterations. We have shown howto recursively construct terminal constraint set and terminalcost as a convex hull and a convex piece-wise linear approximation of state and inputtrajectories of previous iterations, respectively. These steps allow us to formulate theonline planning problem for the controller as a convex optimization program, therebyavoiding the complex combinatorial optimization problems that alternative formulationsin the literature need to solve. The data-driven terminal constraint set and terminal costnot only ensure recursive feasibility and stability of LMPC but also guarantee convergenceto the neighbourhood of the optimal performance at steady state. Our LMPC formulationincludes linear time-varying system dynamics which is also learnt from stored state andinput trajectories of previous iterations.To show the performance of LMPC, a quadcopter trajectory learning problem in thevertical plane is simulated in MATLAB/SIMULINK. This particular trajectory learningproblem involves non-convex state constraints, which makes the resulting optimal controlproblem difficult to solve. A tangent cut method is implemented to approximate the nonconvexconstraints by convex ones, which allows the optimal control problem to be solvedby efficient convex optimization solvers. Simulation results illustrate the effectiveness ofthe proposed control strategy. / Vi utvecklar en lärande modell-prediktiv regulator för energi-optimalt följande av periodiskatrajektorier för en quadkopter. Den huvudsakliga fördelen med denna regulator äratt den är “referensfri”. Dessutom så klarar regulatorn att förbättra sin prestanda medtiden genom att inkorporera inlärning från föregående iterationer. Syftet med den föreslagnalärande modell-prediktiva regulatorn är att över en viss tid lära sig den “bästa”energioptimala trajektorian genom att lära sig den terminala bivillkorsmängden och denterminala kostnaden från historiskt data från tidigare iterationer. Vi har visat hur man kanrekursivt konstruera terminala bivillkorsmängder och terminala kostnader som konvexahöljen respektive konvexa styckvis linjära approximationer av tillstånds- och insignalstrajektoriernafrån tidigare iterationer. Dessa steg gör det möjligt att formulera onlineplaneringsproblemet för regulatorn som ett konvext optimeringsproblem och på så visundvika de komplexa kombinatoriska optimeringsproblemen som ofta krävs för alternativametoder som kan hittas andra publikationer. Den datadrivna terminala bivillkorsmängdenoch terminala kostnaden garanterar inte bara rekursiv tillåtenhet och stabilitet av LMPC,utan även konvergens till en omgivning av den optimala prestandan efter att ha uppnåttjämvikt. Vår LMPC-formulering innehåller linjär och tidsvarierande systemdynamik, somockså lärs från lagrade tillstånds- och insignalstrajektorier från tidigare iterationer.För att visa prestandan av LMPC så simuleras iMATLAB/SIMULINK ett problem ominlärning av quadkopter-trajektorier i det vertikala planet. Just det trajektorieinlärningsproblemetinnehåller icke-konvexa tillståndsbivillkor, vilket gör det resulterande optimeringsproblemetsvårt att lösa. En tangentsnitt-metod är implementerad för att approximera deicke-konvexa bivillkoren med hjälp av konvexa bivillkor, vilket möjliggör lösningen avdet optimala regleringsproblemet med effektiva lösare för konvexa optimeringsproblem.Simuleringsresultaten visar effektivitet av den föreslagna regleringsmetoden.
|
Page generated in 0.0409 seconds