• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 61
  • 21
  • Tagged with
  • 223
  • 139
  • 123
  • 80
  • 64
  • 59
  • 51
  • 48
  • 33
  • 31
  • 31
  • 27
  • 24
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etudes de commande par décomposition-coordination pour l'optimisation de la conduite de vallées hydroélectriques / Control study by decomposition coordination for the optimal supervision of a hydro-power valley.

Zarate Florez, Jennifer 04 May 2012 (has links)
Une vallée hydroélectrique est constituée d'un nombre important de centrales interconnectées du fait de l'utilisation de la même ressource en eau. Pour pouvoir optimiser en temps réel sa production, il a été proposé dans cette thèse d'utiliser les méthodes associées aux systèmes à grande échelle pour développer les outils nécessaires. Cette étude de la commande globale du système a été orientée vers l'utilisation des méthodes de décomposition-coordination. Ces méthodes ont été examinées et appliquées à un cas d'étude simplifié (une partie de la vallée hydraulique) mis à disposition par EDF. Plus particulièrement, les méthodes de décomposition-coordination par les prix, ou encore par les prédictions des interactions, s'appuyant sur des commandes MPC, ont été considérées et comparées avec une commande centralisée. En vue d'une implémentation temps-réel, nous nous sommes intéressés à exprimer les problèmes d'optimisation comme des problèmes QP, pour ensuite obtenir des solutions explicites en utilisant une méthodologie de caractérisation géométrique. Nous avons proposé des formulations complètement explicites (niveau coordinateur et sous-systèmes) pour les deux méthodes. Des résultats de simulation avec des données réelles mises à disposition par EDF sont présentés. Afin de valider les méthodes conçues, une première phase d'implantation sur la plate-forme Supervision NG d'EDF permettant la communication avec un modèle de la vallée hydroélectrique (basé sur les équations de Saint Venant et la bathymétrie de la rivière), est enfin incluse dans ce mémoire. / This study is mainly about the hydroelectric production problem. What we aim to do, is to develop optimization tools for a chain of hydroelectric plants, using appropriate control methodologies. A hydroelectric valley is a large scale system, made up of interconnected plants. The study of the global control system has been focused to the use of decomposition-coordination methods. Those methods have been examined and applied to a simplified case study (a part of a hydroelectric valley) given by EDF. To be more specific, the price decomposition - coordination method and the interactions prediction method, based on MPC controls, have been considered and compared to a centralized control. Because of the need of implementation in real time, we have expressed the optimization problems as QP problems, so as to obtain explicit solutions using the geometric characterization methodology. We have proposed a completely explicit formulation (both at the coordinator level and at the subsystems level) for both methods. Simulation results with real data information given by EDF are also presented. To verify and validate the designed methods, a first step of implementation on the supervision platform NG by EDF, that allows the communication with a model of the hydroelectric valley (based on the equations of Saint Venant and on the river bathymetry) is finally also included in this thesis.
42

Integrating predictive analysis in self-adaptive pervasive systems / Intégration de l’analyse prédictive dans des systèmes auto-adaptatifs

Paez Anaya, Ivan Dario 22 September 2015 (has links)
Au cours des dernières années, il y a un intérêt croissant pour les systèmes logiciels capables de faire face à la dynamique des environnements en constante évolution. Actuellement, les systèmes auto-adaptatifs sont nécessaires pour l’adaptation dynamique à des situations nouvelles en maximisant performances et disponibilité. Les systèmes ubiquitaires et pervasifs fonctionnent dans des environnements complexes et hétérogènes et utilisent des dispositifs à ressources limitées où des événements peuvent compromettre la qualité du système. En conséquence, il est souhaitable de s’appuyer sur des mécanismes d’adaptation du système en fonction des événements se produisant dans le contexte d’exécution. En particulier, la communauté du génie logiciel pour les systèmes auto-adaptatif (Software Engineering for Self-Adaptive Systems - SEAMS) s’efforce d’atteindre un ensemble de propriétés d’autogestion dans les systèmes informatiques. Ces propriétés d’autogestion comprennent les propriétés dites self-configuring, self-healing, self-optimizing et self-protecting. Afin de parvenir à l’autogestion, le système logiciel met en œuvre un mécanisme de boucle de commande autonome nommé boucle MAPE-K [78]. La boucle MAPE-K est le paradigme de référence pour concevoir un logiciel auto-adaptatif dans le contexte de l’informatique autonome. Cet modèle se compose de capteurs et d’effecteurs ainsi que quatre activités clés : Monitor, Analyze, Plan et Execute, complétées d’une base de connaissance appelée Knowledge, qui permet le passage des informations entre les autres activités [78]. L’étude de la littérature récente sur le sujet [109, 71] montre que l’adaptation dynamique est généralement effectuée de manière réactive, et que dans ce cas les systèmes logiciels ne sont pas en mesure d’anticiper des situations problématiques récurrentes. Dans certaines situations, cela pourrait conduire à des surcoûts inutiles ou des indisponibilités temporaires de ressources du système. En revanche, une approche proactive n’est pas simplement agir en réponse à des événements de l’environnement, mais a un comportement déterminé par un but en prenant par anticipation des initiatives pour améliorer la performance du système ou la qualité de service. / In this thesis we proposed a proactive self-adaptation by integrating predictive analysis into two phases of the software process. At design time, we propose a predictive modeling process, which includes the activities: define goals, collect data, select model structure, prepare data, build candidate predictive models, training, testing and cross-validation of the candidate models and selection of the ''best'' models based on a measure of model goodness. At runtime, we consume the predictions from the selected predictive models using the running system actual data. Depending on the input data and the time allowed for learning algorithms, we argue that the software system can foresee future possible input variables of the system and adapt proactively in order to accomplish middle and long term goals and requirements.
43

Applications of proteochemometrics (PCM) : from species extrapolation to cell-line sensitivity modelling / Applications de proteochemometrics : à partir de l'extrapolation des espèces à la modélisation de la sensibilité de la lignée cellulaire

Cortes Ciriano, Isidro 16 June 2015 (has links)
Proteochemometrics (PCM) est une bioactivité prophétique la méthode posante de simultanément modeler la bioactivité de ligands multiple contre des objectifs multiples... / Proteochemometrics (PCM) is a predictive bioactivity modelling method to simultaneously model the bioactivity of multiple ligands against multiple targets. Therefore, PCM permits to explore the selectivity and promiscuity of ligands on biomolecular systems of different complexity, such proteins or even cell-line models. In practice, each ligand-target interaction is encoded by the concatenation of ligand and target descriptors. These descriptors are then used to train a single machine learning model. This simultaneous inclusion of both chemical and target information enables the extra- and interpolation to predict the bioactivity of compounds on targets, which can be not present in the training set. In this thesis, a methodological advance in the field is firstly introduced, namely how Bayesian inference (Gaussian Processes) can be successfully applied in the context of PCM for (i) the prediction of compounds bioactivity along with the error estimation of the prediction; (ii) the determination of the applicability domain of a PCM model; and (iii) the inclusion of experimental uncertainty of the bioactivity measurements. Additionally, the influence of noise in bioactivity models is benchmarked across a panel of 12 machine learning algorithms, showing that the noise in the input data has a marked and different influence on the predictive power of the considered algorithms. Subsequently, two R packages are presented. The first one, Chemically Aware Model Builder (camb), constitues an open source platform for the generation of predictive bioactivity models. The functionalities of camb include : (i) normalized chemical structure representation, (ii) calculation of 905 one- and two-dimensional physicochemical descriptors, and of 14 fingerprints for small molecules, (iii) 8 types of amino acid descriptors, (iv) 13 whole protein sequence descriptors, and (iv) training, validation and visualization of predictive models. The second package, conformal, permits the calculation of confidence intervals for individual predictions in the case of regression, and P values for classification settings. The usefulness of PCM to concomitantly optimize compounds selectivity and potency is subsequently illustrated in the context of two application scenarios, which are: (a) modelling isoform-selective cyclooxygenase inhibition; and (b) large-scale cancer cell-line drug sensitivity prediction, where the predictive signal of several cell-line profiling data is benchmarked (among others): basal gene expression, gene copy-number variation, exome sequencing, and protein abundance data. Overall, the application of PCM in these two case scenarios let us conclude that PCM is a suitable technique to model the activity of ligands exhibiting uncorrelated bioactivity profiles across a panel of targets, which can range from protein binding sites (a), to cancer cell-lines (b).
44

Outils et concepts de biologie systémique pour la modélisation prédictive de la toxicité / Systems biology tools and concepts for predictive modelling of toxicity

Hamon, Jérémy 21 November 2013 (has links)
Le besoin actuel de comprendre les conséquences précises que l'administration d'une molécule va avoir sur un organisme et les organes qui le composent, est un enjeu majeur pour la recherche pharmaceutique et l'étude de la toxicité des xénobiotiques. Il n’est pas difficile de se rendre compte, quand les effets sont observables, qu’il existe un lien entre la dose administrée d’un xénobiotique et ses effets. La difficulté de les prédire, qu'ils soient bénéfiques ou délétères, réside principalement dans le fait qu'un nombre très important de mécanismes complexes sont mis en jeu, dès l'entrée de cette molécule dans l'organisme et jusqu'à son excrétion. Afin de comprendre et quantifier ce lien, et pour pouvoir faire des prédictions, il est nécessaire de connaître les principaux mécanismes biologiques impliqués et de proposer des modèles mathématiques les décrivant. Le travail présenté dans cette thèse montre que l'utilisation de la biologie systémique n'est pas facile et manque encore de maturité. Au-delà de la diversité des connaissances auxquelles elle fait appel, on se rend compte que la quantité de données et de paramètres à gérer est considérable. Pour un modèle ne prenant en compte qu'une seule voie de signalisation, comme celui présenté ici, plusieurs mois ont été nécessaires pour sa calibration. Cette durée est en grande partie imputable au temps de calculs nécessaire aux estimations des paramètres, et à celui nécessaire à la récolte et aux traitements des données très diverses (données PK, omiques, physiologiques, cellulaires, etc). Il est très important que le protocole de collecte des données soit défini en commun par l'ensemble des équipes les utilisant par la suite. / The current need to understand the consequences of the administration of a specific molecule to a given organism is a major issue for pharmaceutical and toxicological research. It is not difficult to realize, when the effects are observable, that there is a relationship between the dose of a xenobiotic and its effects. The difficulty in predicting such effects comes mainly from the fact that a large number of complex mechanisms are involved, from the entry of the molecule in the body to its excretion. To understand and quantify this relationship it is necessary to know the main biological mechanisms involved and to propose corresponding mathematical models. Pharmacokinetics, pharmacodynamics and systems biology are the scientific fields most appropriate to meet this need. The first examines the fate of xenobiotics in the body and the second, the evolution of their effects. Systems biology is a relatively new approach which combines different levels of information (experimental data, chemical and biological knowledge, assumptions, etc) with mathematical models to understand how complex biological systems work. Our work shows that the use of systems biology is not easy and still lacks maturity. The amount of data and parameters to manage is typically huge. For a model taking into account only one signaling pathway, several months were needed for its calibration. This length of time is largely due to computation time required for parameter estimates, but also to the time required for harvesting and processing of diverse data (PK data omics, physiological, cellular, etc.) It is important that data collection protocol be defined in common by all the teams involved.
45

Synthèse d'observateurs et développement de capteurs intelligents pour la maintenance prédictive / Observer design and development of intelligent sensors for predictive maintenance

Cuny, Fabien 02 July 2019 (has links)
Cette thèse s’inscrit dans le cadre de la disposition CIFRE entre la société Robert Bosch et l’Université de Caen Normandie au sein du laboratoire GREYC puis LAC. Elle comprend deux volets, l'un étant à caractère fondamental et porte sur la synthèse d'observateurs. Quant à l'autre volet, il est à caractère plus appliqué et porte sur la mise en œuvre d’un réseau de capteurs et assurer l’acheminement des informations provenant de ces derniers. Ce dernier est effectué au moyen du réseau, qu’il soit câblé ou sans fil.Dans le premier volet de l'étude, on s'est intéressé à une classe assez générale de systèmes temps-variant et affines en l'état, dont la sortie est mesurée avec un retard et échantillonnée. La nouveauté dans cette classe de systèmes est double :(i) l'équation d'état est sujette à une injection du signal de sortie et se retrouve de ce fait dépendante des sorties futures qui sont indisponibles;(ii) les sorties futures interviennent, au niveau de l'équation d'état, non seulement sous la forme usuelle d'une fonction indépendante de l'état, mais aussi à travers la matrice d'état ellemême qui, de ce fait, apparaît comme une quantité inconnue du modèle.Ces deux nouveautés du modèle entrainent en fait la perte du caractère « affine en l'état » de ce dernier et font que l'on se retrouve confronté à un problème de synthèse d'observateurs jamais résolu antérieurement. La solution que nous proposons est un observateur de type « Filtre de Kalman » augmenté d'un prédicteur inter-échantillons et d'opérateurs de saturations. Nous analysons la stabilité exponentielle du système d'erreur d'estimation d'état en utilisant le théorème du petit gain et des outils de la stabilité de Lyapunov. L'analyse met en évidence l'existence d'intervalles d'admissibilité dans lesquels doivent se situer les valeurs admissibles du retard et de la période d'échantillonnage, afin de garantir la convergence exponentielle de l'observateur.Dans le deuxième volet, nous nous intéressons à la maintenance prédictive au travers d’applications pratiques via la mise en place d’un réseau de capteurs. Le but de ce réseau est d’effectuer de la maintenance prédictive sur les équipements sensibles. Ce dernier est un composant essentiel à la mise en œuvre d’applications IoT et Industrie 4.0.Des applications de l’IoT et de l’Industrie 4.0 sur le site Robert Bosch de Mondeville sont évoqués ainsi que le développement d’un simulateur de perturbations réseau afin de tester la robustesse de la communication d’un capteur vers un client. / This thesis is part of the CIFRE agreement between the company Robert Bosch and the University of Caen Normandy in the laboratory GREYC then LAC. It consists of two parts, one which is of a fundamental nature and concerns the synthesis of observers. For the other part, it is more applied and concerns the implementation of a sensors network and ensure the routing of information from them. This is done through the network, whether wired or wireless.In the first part of the study, we looked at a fairly general class of time-varying and affine systems as they are, whose output is measured with a delay and sampled. The novelty in this class of systems is twofold:(i) the state equation is subject to an output signal injection and is therefore dependent on future outputs that are unavailable;(ii) future outputs occur at the state equation not only in the usual form of a stateindependent function, but also through the state matrix itself, which fact, appears as an unknown quantity of the model.These two novelties of the model cause in fact the loss of the "affine in the state" character of this last one, and make that one is confronted with a synthesis problem of observers never resolved previously. The solution we propose is a "Kalman filter" type observer augmented by an inter-sample predictor and saturation operators. We analyze the exponential stability of the state estimation error system by using the small gain theorem and tools of Lyapunov stability. The analysis highlights the existence of eligibility intervals in which the allowable values of the delay and the sampling period must be located in order to ensure the exponential convergence of the observer.In the second part, we are interested in predictive maintenance through practical applications via the installation of a sensor network. The purpose of this network is to perform predictive maintenance on sensitive equipment. The latter is an essential component for the implementation of IoT and Industry 4.0 applications.The purpose of this sensor network is to perform predictive maintenance on sensitive equipment. The latter is an essential component for the implementation of IoT and Industry 4.0 applications. Moreover, an observer of sampled data for affine systems in the state with output injection was studied on the basis of observers.Applications of IoT and Industry 4.0 on the Robert Bosch site in Mondeville are discussed as well as the development of a network disturbance simulator to stress the robustness of the communication of a sensor to a client.
46

Commande Prédictive et les implications du retard / Model Predictive Control and Time-Delay Implications

Laraba, Mohammed-Tahar 22 November 2017 (has links)
Cette thèse est dédiée à l’analyse du retard (de calcul ou induit par la communication), qui représente un des paramètres sensibles, et qui doit être pris en compte, pour la mise en œuvre de la Commande Prédictive en temps réel d’un processus dynamique. Dans la première partie, nous avons abordé le problème d’existence des ensembles D-invariants et avons fourni par la suite des conditions nécessaires et/ou suffisantes pour l’existence de ces ensembles. En outre, nous avons détaillé quelques nouvelles idées sur la construction des ensembles D-invariants en utilisant des algorithmes itératifs et d’autres algorithmes basés sur des techniques d’optimisation à deux niveaux. La seconde partie a été consacrée à l’étude du problème de robustesse des systèmes linéaires discrets affectés par un retard variable en boucle fermée avec un contrôleur affine par morceaux défini sur une partition polyédrale de l’espace d’état. L’étude a porté sur l’analyse de la fragilité d’une telle loi commande en présence du retard dans la boucle. Nous avons décrit les marges d’invariance robustes définies comme étant le plus grand sous-ensemble de l’incertitude paramétrique pour lequel l’invariance positive est garantie par rapport à la dynamique en boucle fermée en présence du retard. La dernière partie de cette thèse s’est articulée autour de la conception des lois de commande prédictives avec un attention particulière aux modèles linéaires discrets décrivant des dynamiques affectées par des contraintes en présence du retard. Nous avons proposé plusieurs méthodes offrant différentes solutions au problème de stabilisation locale sans contrainte. Afin d’assurer la stabilité et de garantir la satisfaction des contraintes, nous avons exploité le concept d’invariance et à l’aide du formalisme "ensemble terminal-coût terminal", un problème d’optimisation a été formulé où les états sont forcés d’atteindre l’ensemble maximal admissible d’états retardés/D-invariant à la fin de l’horizon de prédiction. Enfin, nous avons étudié le problème de stabilisation des systèmes continus commandés en réseau soumis à des retards incertains et éventuellement variant dans le temps. Nous avons montré que les ensembles λ-D-contractifs peuvent être utilisés comme ensembles cibles où la stratégie de commande consiste en un simple problème de programmation linéaire ’LP’ qui peut être résolu en ligne. / The research conducted in this thesis has been focusing on Model Predictive Control (MPC) and the implication of network induced time-varying delays. We have addressed, in the first part of this manuscript, the existence problem and the algorithmic computation of positive invariant sets in the state space of the original discrete delay difference equation. The second part of these thesis has been devoted to the study of the robustness problem for a specific class of dynamical systems, namely the piecewise affine systems, defined over a polyhedral partition of the state space in the presence of variable input delay. The starting point was the construction of a predictive control law which guarantees the existence of a non-empty robust positive invariant set with respect to the closed-loop dynamic. The variable delay inducing in fact a model uncertainty, the objective was to describe the robust invariance margins defined as the largest subset of the parametric uncertainty for which the positive invariance is guaranteed with respect to the closed-loop dynamics in the presence of small and large delays. The last part has been dedicated to Model Predictive Control design with a specific attention to linear discrete time-delay models affected by input/state constraints. The starting point in the analysis was the design of a local stabilizing control law using different feedback structures. We proposed several design methods offering different solutions to the local unconstrained stabilization problem. In order to ensure stability and guarantee input and state constraints satisfaction of the moving horizon controller, the concept of positive invariance related to time-delay systems was exploited. Using the "terminal setterminal cost" design, the states were forced to attain the maximal delayed-state admissible set at the end of the prediction horizon. Finally, we have investigated the stabilization problem of Networked Control Systems ’NCSs’ subject to uncertain, possibly time-varying, network-induced delays. We showed that λ-D-contractive sets can be used as a target sets in a set induced Lyapunov function control fashion where a simple Linear Programming ’LP’ problem is required to be solved at each sampling instance.
47

Robustification de la commande prédictive non linéaire - Application à des procédés pour le développement durable. / Robustification of Nonlinear Model Predictive Control - Application to sustainable development processes.

Benattia, Seif Eddine 21 September 2016 (has links)
Les dernières années ont permis des développements très rapides, tant au niveau de l’élaboration que de l’application, d’algorithmes de commande prédictive non linéaire (CPNL), avec une gamme relativement large de réalisations industrielles. Un des obstacles les plus significatifs rencontré lors du développement de cette commande est lié aux incertitudes sur le modèle du système. Dans ce contexte, l’objectif principal de cette thèse est la conception de lois de commande prédictives non linéaires robustes vis-à-vis des incertitudes sur le modèle. Classiquement, cette synthèse peut s’obtenir via la résolution d’un problème d’optimisation min-max. L’idée est alors de minimiser l’erreur de suivi de la trajectoire optimale pour la pire réalisation d'incertitudes possible. Cependant, cette formulation de la commande prédictive robuste induit une complexité qui peut être élevée ainsi qu’une charge de calcul importante, notamment dans le cas de systèmes multivariables, avec un nombre de paramètres incertains élevé. Pour y remédier, une approche proposée dans ces travaux consiste à simplifier le problème d’optimisation min-max, via l’analyse de sensibilité du modèle vis-à-vis de ses paramètres afin d’en réduire le temps de calcul. Dans un premier temps, le critère est linéarisé autour des valeurs nominales des paramètres du modèle. Les variables d’optimisation sont soit les commandes du système soit l’incrément de commande sur l’horizon temporel. Le problème d’optimisation initial est alors transformé soit en un problème convexe, soit en un problème de minimisation unidimensionnel, en fonction des contraintes imposées sur les états et les commandes. Une analyse de la stabilité du système en boucle fermée est également proposée. En dernier lieu, une structure de commande hiérarchisée combinant la commande prédictive robuste linéarisée et une commande par mode glissant intégral est développée afin d’éliminer toute erreur statique en suivi de trajectoire de référence. L'ensemble des stratégies proposées est appliqué à deux cas d'études de commande de bioréacteurs de culture de microorganismes. / The last few years have led to very rapid developments, both in the formulation and the application of Nonlinear Model Predictive Control (NMPC) algorithms, with a relatively wide range of industrial achievements. One of the most significant challenges encountered during the development of this control law is due to uncertainties in the model of the system. In this context, the thesis addresses the design of NMPC control laws robust towards model uncertainties. Usually, the above design can be achieved through solving a min-max optimization problem. In this case, the idea is to minimize the tracking error for the worst possible uncertainty realization. However, this robust approach tends to become too complex to be solved numerically online, especially in the case of multivariable systems with a large number of uncertain parameters. To address this shortfall, the proposed approach consists in simplifying the min-max optimization problem through a sensitivity analysis of the model with respect to its parameters, in order to reduce the calculation time. First, the criterion is linearized around the model parameters nominal values. The optimization variables are either the system control inputs or the control increments over the prediction horizon. The initial optimization problem is then converted either into a convex optimization problem, or a one-dimensional minimization problem, depending on the nature of the constraints on the states and commands. The stability analysis of the closed-loop system is also addressed. Finally, a hierarchical control strategy is developed, that combines a robust model predictive control law with an integral sliding mode controller, in order to cancel any tracking error. The proposed approaches are applied through two case studies to the control of microorganisms culture in bioreactors.
48

Robustesse de la commande pr´edictive explicite / Robustness of Explicit MPC Solutions

Koduri, Rajesh 28 September 2017 (has links)
Les techniques de conception de lois de commande pour les systèmes linéaires ou hybrides avec contraintes conduisent souvent à des partitions de l’espace d’état avec des régions polyédriques convexes. Ceci correspond à des lois de commande par retour d’état affine (PWA) par morceaux associées `a une partition polyédrale de l’espace d’état. De telles lois de commande peuvent être effectivement mises en œuvre sur des plateformes matérielles pour des applications de commande en temps réel. Cependant, la robustesse des solutions explicites dépend de la précision du modèle mathématique des systèmes dynamiques. Les incertitudes dans le modèle du système posent de sérieux défis en ce qui concerne la stabilité et la mise en œuvre des lois de commande affines par morceaux. Motivé par les défis auxquels font face les solutions explicites par rapport aux incertitudes dans les modèles des systèmes dynamiques, cette thèse est principalement axée sur leur analyse et à leur retouche. La première partie de cette thèse vise à calculer les marges de robustesse pour une loi de commande PWA nominale donnée obtenue pour un système de temps discret linéaire. Les marges de robustesse classiques, c’est-à-dire la marge de gain et la marge de phase, considèrent la variation de gain et la variation de phase du modèle pour lequel la stabilité de la boucle fermée est préservée.La deuxième partie de la thèse vise à considérer des perturbations dans la représentation des sommets des régions polyédriques. Les partitions de l’espace d’état quantifiées perdent une partie des propriétés importantes des contrôleurs explicites: “non-chevauchement”, “convexité” et/ou “ invariance”. Deux ensembles différents appelés sensibilité aux sommets et marge de sensibilité sont déterminés pour caractériser les perturbations admissibles, en préservant respectivement la propriété de non-chevauchement et d’invariance du contrôleur. La troisième partie vise à analyser la complexité des solutions explicites en termes de temps de calcul et de mémoire. Une première comparaison entre les évaluations séquentielles et parallèles des fonctions PWA par l’algorithme ADMM (Alternating Direction Method of Multiplier) est faite. Ensuite, la complexité computationnelle des évaluations parallèles des fonctions PWA pour l’algorithme de couverture progressive (PHA) sur l’unit´e centrale de traitement (CPU) et l’unit´e de traitement graphique (GPU) est comparée. / The control design techniques for linear or hybrid systems with constraints lead often to off-line state-space partitions with non-overlapping convex polyhedral regions. This corresponds to a piecewise affine (PWA) state feedback control laws associated to polyhedral partition of the state-space. Such control laws can be effectively implemented on hardwares for real-time control applications. However, the robustness of the explicit solutions depends on the accuracy of the mathematical model of the dynamical systems. The uncertainties in the system model poses serious challenges concerning the stability and implementation of the piecewise affine control laws. Motivated by the challenges facing the explicit solutions for the uncertainties in the dynamical systems, this thesis is mostly related to their analysis and re-design. The first part of this thesis aims to compute robustness margins for a given nominal PWA control law obtained for a linear discrete-time system. Classical Robustness margin i.e., gain margin and phase margin, considers the gain variation and phase variation of the model for which the stability of the closed loop is preserved.The second part of the thesis aims to consider perturbation in the representation of the vertices of the polyhedral regions. The quantized state-space partitions lose some of the important property of the explicit controllers: “non-overlapping”, “convexity” and “invariant” characterization. Two different sets called vertex-sensitivity and sensitivity margin are defined and determined to characterize admissible perturbation preserving the non-overlapping and the invariance property of the controller respectively. The third part analyse the complexity of the explicit solutions in terms of computational time and memory storage. Sequential and parallel evaluations of the PWA functions for the Alternating Direction Method of Multiplier (ADMM) algorithm are compared. In addition a comparison of the computational complexity of the parallel evaluations of the PWA functions for the Progressive Hedging Algorithm (PHA) on the Central Processing Unit (CPU) and Graphical Processing Unit (GPU) is made.
49

Trajectographie d'un lanceur de satellites basée sur la commande prédictive

Vachon, Alexandre 19 April 2018 (has links)
Cette thèse traite de la trajectographie exo-atmosphérique d'un lanceur. Cette probl ématique repose sur la résolution d'un problème d'optimisation contraint : le problème aux deux bouts. Ce dernier consiste à trouver les actions à prendre afin d'atteindre la position et la vitesse désirées en consommant le moins d'énergie possible. Ces actions doivent respecter les contraintes imposées par la dynamique et la structure du véhicule. En plus, dans le cas d'un lanceur, le contrôle s'effectue uniquement en modifiant l'orientation de la poussée. Pour résoudre ce problème, le projet de doctorat est divisé en trois parties distinctes : la modélisation de la dynamique, l'obtention d'une trajectoire de référence et la fonction de guidage. La première partie, la modélisation, consiste à obtenir un modèle précis et réaliste de la dynamique de translation d'un lanceur. Elle passe donc par l'application de la seconde loi de Newton sur le centre de masse du lanceur. Dans cette thèse, ceci est effectué en utilisant trois représentations différentes, dont une nouvelle utilisant un quaternion qui permet de combler le vide entre les deux représentations existantes. À la suite de l'obtention d'un modèle du véhicule à guider, il devient possible de définir une trajectoire de référence régie par cette dynamique. Pour y parvenir, ce projet propose une optimisation directe où l'orientation de la poussée est discrétisée et correspond aux inconnues du problème d'optimisation. Le critère de ce problème d'optimisation inclut des termes utilisant des connaissances a priori de la trajectoire pour améliorer les propriétés de convergence. Le problème d'optimisation inclut également des contraintes, relaxées par des variables d'écart, sur l'orbite d'injection. La trajectoire résultante est utilisée comme consigne dans une fonction de guidage par suivi de trajectoire. Le suivi de trajectoire est une façon contournée de traiter le problème aux deux bouts et d'accélérer la résolution du problème de guidage afinn de s'insérer dans les capacités de calcul embarqué. Les algorithmes développés dans cette thèse sont basés sur la commande prédictive où les sorties du modèle prédictif sont les paramètres orbitaux instantanés de la trajectoire. Le premier algorithme utilise un modèle non-linéaire de prédiction alors que les deux autres sont basés sur une représentation linéaire variante dans le temps et sur une représentation linéaire fractionnelle. Ces trois algorithmes sont comparés à une solution classique en guidage de lanceur qui résout directement le problème aux deux bouts. Bien que les algorithmes développés produisent une orbite plus près de celle désirée et y parviennent en consommant moins de carburant, le temps de calcul nécessaire à leur résolution et leur piètre robustesse font en sorte qu'ils ne constitue pas une alternative intéressante à la solution de référence. / This thesis deals with the exo-atmospheric trajectory of a space launcher. The solution is obtained by solving a constrained optimization problem : the two-point boundary value problem. The solution is the required actions to reach the desired position and velocity while consuming the least energy as possible. These actions must comply with the constraints imposed by the dynamics and the structure of the vehicle. Also, for a space launcher, the control is limited to the thrust orientation. To solve this problem, this project is divided into three distinct parts : modeling the dynamics, obtaining a reference trajectory and the guidance function. The first part, the modeling, is the definition of an accurate and realistic model of the space launcher translational dynamics. Therefore, it requires the application of Newton's second law on the launcher center of mass. In this thesis, this is carried out using three different representations. The representation using a full quaternion is new to this field of application and fills the hole between the two others. With the model of the vehicle to be guided, it becomes possible to define a reference trajectory governed by this model. To do it, this project proposes a direct optimization where the thrust orientation is discretized and becomes the unknown of the optimization problem. The criterion of this optimization problem includes terms for a priori knowledge of the trajectory improving the convergence properties of the optimization. The optimization problem also includes constraints, relaxed by slack variables, on the injection orbit. The resulting trajectory is used as reference in a trajectory tracking guidance function. The trajectory tracking is a way to circumvent the resolution of the two-point boundary value problem, which accelerates the resolution to fit in on-board computing capabilities. The algorithms developed in this thesis are based on predictive control in which the outputs of predictive model are the instantaneous orbital parameters of the trajectory. A first algorithm uses a non-linear model for prediction while two others are rather based on a linear time-varying representation and a linear fractional representation. These three algorithms are compared to a conventional space launcher guidance solution, which directly solves the two-point boundary value problem. Even if the developped algorithms give a more accurate orbit and a less consuming trajectory, their computationnal time and poor robustness properties do not make them a viable alternative to the comparison solution.
50

Commande prédictive non linéaire d'un séchoir à lit fluidisé pour granules pharmaceutiques

Gagnon, Francis 24 April 2018 (has links)
Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules. / The availability of reliable online moisture content measurements exploiting near-infrared (NIR) spectroscopy and chemometric tools allows the application of online control strategies to a wide range of drying processes in the pharmaceutical industry. In this paper, drying of particles with a pilot-scale batch fluidized bed dryer (FBD) is studied using an in-line spectroscopic moisture sensor. Electrical modifications are firstly performed on the instrumented FBD to route measured and manipulated signals to an acquisition peripheral. Then, the design of a human-machine interface allows directly controlling the FBD with a laptop computer. Afterwards, a predictive control algorithm (NMPC), based on an FBD consolidated phenomenological model, is executed in a loop on this same computer. The objective is to reach a specific particle moisture content setpoint at the end of the drying batch while decreasing batch time and limiting particle temperature. Furthermore, the FBD energy consumption is explicitly included in the NMPC objective function. Compared to a typical FBD operation in industry (mostly open-loop), it is shown that the drying time and the energy consumption can be efficiently managed on the pilot-scale process while limiting various operation problems like under drying, over drying, or particle overheating.

Page generated in 0.0624 seconds