• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1016
  • 299
  • 101
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1409
  • 550
  • 447
  • 443
  • 274
  • 271
  • 246
  • 203
  • 179
  • 169
  • 167
  • 163
  • 152
  • 141
  • 139
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Contrôleur évolutif et optimisé pour les miroirs déformables ferrofluidiques dans le cadre de l'optique adaptative

Libbrecht, Christophe 23 April 2018 (has links)
L’optique adaptative est une technologie s’intégrant de plus en plus à de nombreuses applications, de la capture d’images astronomiques à la transmission de données en télécommunication, tout en passant, par exemple, par l’amélioration des diagnostics en ophtalmologie. Son atout principal réside dans un miroir déformable lui permettant d’améliorer un signal dégradé par des perturbations. Il existe une grande variété de miroirs déformables. Certains ont une surface continue ; d’autres sont segmentés. Toute une batterie de techniques sont employées pour déformer et contrôler leur surface : des systèmes hydrauliques, piézoélectriques, électrostatiques et magnétiques ont été développés au fil des dernières années. Les derniers nés durant cette évolution technologique sont les miroirs ferrofluidiques. Les miroirs ferrofluidiques ont de nombreux points forts. Outre leur faible coût de conception, ils ont la capacité de fournir de grandes amplitudes (de l’ordre du millimètre) de déformation sous l’influence d’une combinaison de champs magnétiques. Ces miroirs sont développés et étudiés au sein des laboratoires du COPL à l’université Laval. Ils sont l’objet principal sur lequel s’appliquera le présent travail. Actuellement, le nombre sans cesse croissant des actionneurs oblige le développement de méthodes optimales de contrôle. Selon le domaine d’application, une image ou un signal capté nécessitera une dizaine, voire plusieurs centaines de corrections par seconde. Il est donc important que les calculs se fassent rapidement. D’autre part, ce nombre croissant d’actionneurs amène la question de la meilleure stratégie à suivre pour le contrôle optimal de la surface du miroir. Doit-on se restreindre à l’utilisation d’un unique contrôleur ou, au contraire, à en multiplier leur nombre au point que chaque actionneur possédera son propre contrôleur ? Quelle que soit la stratégie déployée, la phase de calibration est une étape clé. Pour un contrôleur en optique adaptative, elle est assez simple même si elle s’avère parfois longue lors de la recherche des paramètres optimaux. Quelle est la meilleure méthode pour calibrer le contrôleur ? Une calibration automatisée est-elle envisageable ? Peut-on espérer que le contrôleur évolue et s’adapte si les conditions ambiantes changent et cela sans intervention humaine ? Plus en avant, les questions suivantes concernent la mise en application de la stratégie : est-elle aisément applicable ? Sous quelles conditions ? Y aura-t-il des limitations ? Si oui, sont-elles significatives ? Sont-elles insurmontables ? Le présent travail tente de répondre à ces questions dans le cadre du contrôle de miroirs ferrofluidiques, quel que soit le contexte de l’utilisation d’un tel miroir. L’objectif final est de développer un contrôleur évolutif et optimal capable de gérer un système équipé aussi bien de quelques dizaines d’actionneurs que de plusieurs centaines, et s’ajustant de lui-même aux conditions environnementales sans cesse en évolution. / Adaptive optics is an evolving technology and integrated part of many applications. Its contributions extend from the astronomical imaging to the data transmission in telecommunications domain including the improvement of ophthalmologic diagnostics. Its main asset consists of its deformable mirrors and, thus, its ability to correct a signal degraded by random perturbations. There are many kinds of deformable mirrors. These with a continuous surface and also with several segments. A great variety of methods exists to control the surface geometry: hydraulics, piezoelectric, electrostatic and magnetic systems have been developed in the last years. The most recent creation in adaptive optics is the ferrofluidic mirror. The ferrofluidic mirrors have many advantages. First, their manufacturing cost is very low. Moreover, a simple combination of magnetic fields is required to modify the shape of their surface and can give strong amplitudes of deformation (about millimeter). These mirrors are developed and studied in the COPL laboratory of Université Laval where they are the main target of the actual work. Nowadays the constant increasing number of actuators decrees the development of optimized methods to control deformable mirrors. A captured image or signal can require from some tens to several hundreds of Hertz to be corrected. The calculations must be at their fastest. On other hand, the increasing number of actuators raises a question about what strategy to deploy for getting the best control on the surface of deformable mirrors. Do we use a single controller for all the actuators? Or on the contrary do we need to equip each actuator with a dedicated controller? For any chosen strategy, the most important step is the calibration phase. In adaptive optics, this procedure is quite simple even though it sometimes takes a long time for finding the optimized parameters. What is the best method to calibrate a controller? Is an automatic calibration possible? Can we develop an evolving controller able to adapt to environmental variations without human action. There is some interrogation about the best way to apply th strategy. Can it be more efficient? Are there any limitations? If so, can we solve them? The subject of this document is to answer the previous questions regarding ferrofluidic mirrors. The final purpose of this work is to develop an evolving and optimized controller able to manage systems with several tens as well as several hundreds of actuators and, also, adapt itself to variations of surrounding conditions.
642

UAV Optimal Cooperative Obstacle Avoidance and Target Tracking in Dynamic Stochastic Environments

Prévost, Carole Gabrielle 17 April 2018 (has links)
Cette thèse propose une stratégie de contrôle avancée pour guider une flotte d'aéronefs sans pilote (UAV) dans un environnement à la fois stochastique et dynamique. Pour ce faire, un simulateur de vol 3D a été développé avec MATLAB® pour tester les algorithmes de la stratégie de guidage en fonctions de différents scénarios. L'objectif des missions simulées est de s'assurer que chaque UAV intercepte une cible ellipsoïdale mobile tout en évitant une panoplie d'obstacles ellipsoïdaux mobiles détectés en route. Les UAVs situés à l'intérieur des limites de communication peuvent coopérer afin d'améliorer leurs performances au cours de la mission. Le simulateur a été conçu de façon à ce que les UAV soient dotés de capteurs et d'appareils de communication de portée limitée. De plus, chaque UAV possède un pilote automatique qui stabilise l'aéronef en vol et un planificateur de trajectoires qui génère les commandes à envoyer au pilote automatique. Au coeur du planificateur de trajectoires se trouve un contrôleur prédictif à horizon fuyant qui détermine les commandes à envoyer à l'UAV. Ces commandes optimisent un critère de performance assujetti à des contraintes. Le critère de performance est conçu de sorte que les UAV atteignent les objectifs de la mission, alors que les contraintes assurent que les commandes générées adhèrent aux limites de manoeuvrabilité de l'aéronef. La planification de trajectoires pour UAV opérant dans un environnement dynamique et stochastique dépend fortement des déplacements anticipés des objets (obstacle, cible). Un filtre de Kalman étendu est donc utilisé pour prédire les trajectoires les plus probables des objets à partir de leurs états estimés. Des stratégies de poursuite et d'évitement ont aussi été développées en fonction des trajectoires prédites des objets détectés. Pour des raisons de sécurité, la conception de stratégies d'évitement de collision à la fois efficaces et robustes est primordiale au guidage d'UAV. Une nouvelle stratégie d'évitement d'obstacles par approche probabiliste a donc été développée. La méthode cherche à minimiser la probabilité de collision entre l'UAV et tous ses obstacles détectés sur l'horizon de prédiction, tout en s'assurant que, à chaque pas de prédiction, la probabilité de collision entre l'UAV et chacun de ses obstacles détectés ne surpasse pas un seuil prescrit. Des simulations sont présentées au cours de cette thèse pour démontrer l'efficacité des algorithmes proposés.
643

Commande non-linéaire des bioprocédés à des fins d'optimisation

Deschênes, Jean-Sébastien 12 April 2018 (has links)
Le présent ouvrage vise à étudier différents aspects reliés à la commande non-linéaire des bioprocédés et à leur caractérisation, visant leur éventuelle optimisation. Une particularité des bioprocédés est leur tendance à se comporter de manière variable dans le temps : étant constitués d'organismes vivants, ces derniers possèdent par définition une capacité d'adaptation à leur environnement, ce qui crée le phénomène. Côté opérationnel, il existe en plus une limitation face à l'instrumentation disponible. En effet, les équipements rattachés aux bioréacteurs doivent pouvoir tolérer le processus de stérilisation, qui implique l'atteinte de températures élevées (~120°C), et un certain niveau de pression. Enfin, une dernière limitation opérationnelle s'appliquant aux bioprocédés est le faible nombre de variables manipulées, fonction du mode d'opération. Suite à ces constats, plusieurs avenues peuvent être explorées afin de pallier à la situation. De manière générale, l'utilisation du débit de purge (bleed) est proposée comme variable de contrôle en mode perfusion. Une analyse en régime stationnaire est d'abord présentée, suivie du développement d'une stratégie de contrôle non-linéaire adaptative, basée sur les fondements du backstepping, et multivariable (2x2). Cette dernière est ensuite implantée en simulation, afin d'en évaluer la robustesse, la performance, et la sensibilité au bruit de mesure. L'algorithme est par la suite bonifié pour permettre le passage entre les modes perfusion et continu en toute transparence, afin de permettre de réguler les concentrations en biomasse et en substrat sans devoir se soucier si les consignes correspondent à un mode d'opération en particulier. Une méthodologie est par la suite proposée pour régler les paramètres du contrôleur, basée sur la linéarisation du modèle dynamique et le placement de pôles. Des simulations basées sur un modèle tiré de données expérimentales permettent d'en évaluer les performances, la robustesse et la sensibilité au bruit. Les transitions entre les modes d'opération sont ensuite investiguées, afin de vérifier qu'elles ne comportent aucun risque pour le système. Le dernier sujet de cet ouvrage se constitue d'analyses de marquage au carbone 13. Celles-ci permettent le suivi du passage des atomes de carbone à travers le métabolisme, et ainsi valider la présence ou l'absence de certaines voies métaboliques. Ainsi, avec un modèle métabolique plus représentatif de la réalité, des relations plus fiables pourront être tirées entre les flux métaboliques obtenus et la production visée, soit la production d'adénovirus à partir de cellules HEK-293 SF.
644

Étude d'une commande non linéaire du couple d'une machine à flux transverse dans une application éolienne

Fournier, Maxime 17 April 2018 (has links)
Le mémoire investiguera une stratégie de commande non linéaire dont l'objectif est de maximiser la puissance active Pékc de sortie d'une machine synchrone à aimant permanent à flux transverse (MSAPFT) monophasée, utilisant un redresseur actif à commutation forcée dans une application éolienne. Dans une MSAPFT, la reactance statorique Xs en p.u. est élevée et la saturation dans le noyau magnétique du stator engendre des comportements non linéaires que la stratégie de commande doit considérer. L'emphase sera portée sur le développement d'une relation entre le couple moyen T et le courant statorique is, déterminée à l'aide d'un outil de modélisation de MSAPFT, basé sur des simulations par éléments finis. C'est à partir de cette relation couple-courant qu'une loi de commande ic(T) est déduite, maximisant ainsi le couple moyen T et donc la puissance active de sortie Pélecét la machine. Des gains de puissance de l'ordre de 10% peuvent être observés lorsque l'on applique cette loi de commande ic(T) dont la valeur d'angle de phase y/opl est optimale comparativement à une loi de commande qui impose un angle de phase y/ égale à zéro. Enfin, des simulations du système de commande, incluant le modèle de MSAPFT conçu ainsi qu'un redresseur actif à MOSFET, permettent de valider ces résultats. Des essais expérimentaux de la commande en courant d'un prototype d'alternateur de MSAPFT viennent aussi appuyer l'argumentation.
645

Utilisation d'un mécanisme parallèle à faible impédance pour une interaction humain-robot intuitive et hautement réactive

Boucher, Gabriel 17 December 2019 (has links)
Ce mémoire présente la conception d’un mécanisme parallèle passif élastique utilisé afin de contrôler un robot sériel à 5 degrés de liberté de façon sécuritaire et intuitive. Ce mémoire présente deux articles qui ont été écrits dans le cadre du projet et qui présentent dans un premier temps l’algorithme de contrôle sur lequel le concept est basé, et dans un deuxième temps le prototype du mécanisme passif servant à détecter les mouvements. L’algorithme de contrôle est inspiré par le concept de manipulateur macro/mini où l’utilisateur interagit avec un mécanisme passif à faible impédance afin de contrôler le mouvement d’un mécanisme actionné qui a une plus grande impédance. Le concept, déjà utilisé pour des manipulateurs de type portique, est étendu à un robot sériel à plusieurs degrés de liberté. L’algorithme utilise une mesure de déplacement du mini-manipulateur passif afin d’appliquer des couples aux moteurs du macromainpulateur actionné. Afin de détecter les déplacements, un capteur à 6 degrés de liberté est conçu. L’architecture du capteur, qui est basée sur la platforme de Gough-Stewart, consiste en un mécanisme parallèle assemblé sur une membrure du robot sériel. Des résultats expérimentaux sont présentés. / This thesis presents the design and experimental validation of a passive elastic parallel mechanism used to control intuitively and safely a five-degree-of-freedom serial robot. The thesis presents two articles which were written in the course of the project. The articles present, firstly, the control algorithm which is the basis of the concept, and secondly, the mechanical design of the passive mechanism. The algorithm is inspired from the macro/mini architecture where the human user interacts with a lowimpedance passive mechanism in order to control the motion of a larger actuated mechanism which has a higher impedance. This concept, used on gantry manipulators, is extended to a serial robot with multiple degrees of freedom. The algorithm uses a displacement measurement from the passive mechanism in order to compute and apply torques to the actuated mechanism. In order to measure the displacements, a passive six-degree-of-freedom mechanism is designed. The architecture of the sensor, based on the Gough-Stewart platform, is in fact a passive parallel mechanism mounted around the link of a serial robot. Experimental results are provided.
646

Modélisation, commande et observation du séchage par lit fluidisé de granules pharmaceutiques

Gagnon, Francis 06 July 2022 (has links)
La fabrication de comprimés pharmaceutiques par granulation humide a typiquement recours aux lits fluidisés pour le séchage des particules. Encouragée par les agences réglementaires, l'industrie a entamé une migration vers la production continue et automatisée, mais les procédés discontinus (batch) opérés sans rétroaction, excepté un contrôle qualité en fin de cycle, demeurent largement majoritaires dans le secteur. Dans le cas des séchoirs à lit fluidisé, cette approche occasionne plusieurs complications comme le sous-séchage, le surséchage et la surchauffe des granules thermosensibles, qui peuvent conduire au rejet du lot. Toutefois, la commande avancée et la production en continu peuvent réduire les problèmes d'opération. Ce projet de recherche concerne donc l'automatisation du séchage par lit fluidisé ou, plus spécifiquement, sa modélisation, sa commande et son observation. La conception et la comparaison de diverses stratégies d'estimation et de contrôle nécessitent d'abord un modèle mathématique représentatif du procédé. Pour y parvenir, une identification « boite grise » estime les paramètres empiriques d'une description phénoménologique à deux phases du lit fluidisé à partir de données expérimentales et un second lot de données valide les simulations qui en résultent. Cet ouvrage évalue ensuite la commande prédictive linéaire, non linéaire et économique sur le simulateur calibré. L'étude explore aussi les filtres de Kalman standard et non parfumé, ainsi que l'estimateur à fenêtre glissante, comme capteur virtuel de teneur en eau des particules, le principal indicateur de qualité au séchage. La première partie de cette thèse se concentre sur les séchoirs verticaux discontinus, et la deuxième, sur un nouveau prototype de réacteur horizontal entièrement continu. Les résultats de cette recherche confirment les avantages indéniables de ces technologies, soit un contrôle serré de la qualité du produit, et une diminution des coûts et de l'empreinte environnementale des opérations. / Manufacturing pharmaceutical tablets through wet granulation typically relies on fluidized bed drying for the particles. Advocated by regulatory agencies, the industry initiated a paradigm shift towards fully continuous and automated production, but batch processes operated without feedback, except a quality control at the end of the cycle, still prevail in the sector. For the case of fluidized bed dryers, this approach results in several issues like under drying, over drying, overheating of thermosensitive granules, that can lead to the rejection of the batch. However, advanced control and continuous processing can reduce the operational hurdles. This research project investigates the automation of fluidized bed drying or, more specifically, its modeling, control and observation. The design and comparison of various estimation and feedback strategies first require a representative mathematical model of the process. For this, a grey-box identification estimates the empirical parameters of a two-phase fluidized bed description from experimental data, and a second dataset validates the resulting simulations. This work then investigates linear, nonlinear, and economic model predictive control on the calibrated simulator. The study also explores the standard and unscented Kalman filter, and the moving-horizon estimator, as soft sensors for the particle moisture content, a critical quality attribute at drying. The first part of this thesis focuses on vertical batch dryers, and the second one, on a new prototype of a fully continuous horizontal reactor. The results of this research confirm the undeniable advantages of those technologies, namely a tight control of the product quality, and reductions in the costs and the environmental footprint of the operations.
647

Advances in estimation and control for flotation columns

Maldonado, Miguel 17 April 2018 (has links)
La flottation en colonne est un système multivariable complexe avec une dynamique incertaine et non linéaire qui subit l'effet de perturbations non mesurées. Son optimisation est donc un défi d'envergure. Avec les techniques d'optimisation en temps réel, l'hypothèse que le système est en régime permanent alors qu'il est constamment perturbé limite la fréquence d'optimisation. Les systèmes hiérarchisés de commande permettent de prendre en compte l'incertitude et la complexité du procédé. Une approche courante pour optimiser indirectement l'opération des procédés de flottation consiste à mesurer et à réguler des variables secondaires qui sont fortement corrélées aux variables de performance. Ce projet couvre deux sujets importants. Le premier aspect est le développement d'algorithmes d'estimation des variables secondaires. Des techniques permettant l'estimation de la profondeur d'écume et du différentiel d'eau basées sur des mesures de conductivité sont développées. Un observateur dynamique non linéaire de la concentration en moussant fut également conçu, conduisant à des erreurs de 1 ppm. Finalement, un modèle de mélange Gaussien (Gaussian mixture model) a permis la mesure en-ligne de la distribution de dimension des bulles à partir d'un système d'imagerie. Le deuxième sujet est la conception de stratégies de commande visant l'optimisation indirecte du procédé. Une commande prédictive qui optimise indirectement la colonne en maximisant le taux de rétention d'air tout en assurant un différentiel d'eau positif est premièrement décrite. Une commande à modèle interne basée sur un modèle de Wiener fut également conçue pour réguler la dimension des bulles. Un barbotteur ("frit and sleeve") permet la régulation de la dimension de bulles de façon indépendante du débit superficiel du gaz, une étape clé pour contrôler le taux surfacique de bulles. Ces expériences illustrent que le taux de rétention d'air et le taux surfacique de bulles sont fortement corrélés démontrant qu'ils peuvent tous deux être employés à des fins de commande. Finalement, la commande de la distribution de la dimension des bulles est explorée. L'emploi d'un modèle de mélange Gaussien pour représenter la distribution de la dimension des bulles permet de transformer un problème d'ordre infini en une situation qui permet l'utilisation de méthodes classiques de commande
648

Développement d'outils d'aide à l'opération du système de coagulation-floculation-décantation de l'usine de traitement des eaux de Sainte-Foy

Lepage, Sophie 18 April 2018 (has links)
Le procédé de coagulation constitue la première étape de traitement de la chaîne conventionnelle de production d’eau potable. La détermination du dosage optimal de coagulant à appliquer est relativement complexe puisqu’elle requiert l’atteinte simultanée de plusieurs objectifs. Il est donc pertinent de développer des outils d’aide à la décision pour assister les opérateurs dans le choix de la dose de coagulant. L’objectif de l’étude était de fournir des outils aux opérateurs de l’usine de traitement des eaux (UTE) de Sainte-Foy pour les aider dans le choix du dosage de sulfate d’aluminium (alun). Dans le cadre de ce projet, quatre outils ont été ainsi développés : un modèle de prédiction du dosage d’alun à appliquer, deux modèles de prédiction de la concentration en carbone organique dissous (COD) à l’eau décantée et un capteur virtuel qui permet de prédire la concentration en COD aux eaux brute et décantée. Dans tous les cas, il s’agit de modèles neuronaux. Le premier modèle permet de prédire le dosage d’alun à appliquer en reproduisant la bonne opération antérieure effectuée à l’usine en termes de réduction de la turbidité. Les variables d’entrée du modèle sont le mois, la conductivité, la température, la turbidité et le pH à l’eau brute. L’ajustement du modèle a été effectué à partir de données d’opérations récoltées aux 5 minutes pendant 4 années (378 535 séries de données). Les dosages prédits diffèrent en moyenne de 5,9% de ceux réellement appliqués. Le second modèle permet de prédire la concentration en COD à l’eau décantée à partir de l’absorbance ultraviolet (UV) à 254 nm et du COD à l’eau brute, du pH de coagulation et de la dose d’alun appliquée. Les performances du modèle 2 ont été comparées à celles obtenues à partir de deux autres modèles empiriques provenant de la littérature et permettant de prédire la concentration en COD après coagulation. Le modèle neuronal 2 a de meilleures performances de prédiction que ces deux autres modèles empiriques. Les concentrations en COD prédites par le modèle 2 diffèrent en moyenne de 9,6% de celles réelles. Le troisième modèle prédit la concentration en COD aux eaux brute et décantée à partir de l’absorbance UV, de la température, de la turbidité et du pH. Il agit à titre de capteur virtuel de COD et permet de rendre compte de l’efficacité de l’enlèvement de la matière organique naturelle par les étapes de coagulation, floculation et décantation. Les concentrations en COD prédites par le modèle 3 diffèrent en moyenne de 13,2% de celles réelles. Enfin, le quatrième modèle permet de prédire la concentration en COD à l’eau décantée à partir de l’absorbance UV (254 nm) à l’eau brute plutôt que du COD. Les concentrations prédites par ce dernier diffèrent en moyenne de 10,9% de celles réelles. La base de données utilisée pour l’ajustement des modèles 2, 3 et 4 comprend une année de suivi de COD et d’absorbance UV (eaux brute et décantée) à raison de 2 mesures par jour et les données d’opération récoltées en continu pour la même période. Les performances des quatre modèles sont présentées et discutées en fonction de leur implantation possible à l’usine et des améliorations pouvant leur être apportées. De tous les modèles développés, le seul qui pourrait être implanté à court terme est le modèle 1. En effet, les modèles 2, 3 et 4 sont préliminaires et devraient être mis à jour à partir de bases de données plus grandes comprenant davantage de périodes de variations et rendre de meilleures performances avant de pouvoir être implantés en usine. Les modèles développés pourraient être intégrés afin de permettre aux opérateurs de choisir le dosage de coagulant à appliquer qui permettrait de faire un compromis entre les différents objectifs du procédé de coagulation. Cela pourrait améliorer encore davantage la qualité de l’eau produite. / The coagulation process is the first step of the conventional drinking water treatment chain. It is an important treatment step since it affects the efficiency of the subsequent treatment steps namely flocculation, settling, filtration and disinfection. It is relevant to develop decision aid tools to assist operators in the choice of the coagulant dose. This project aims at developing such tools. More specifically, the objective of the study was to provide tools for the operators of the Sainte-Foy water treatment plant to help them in choosing the appropriate aluminum sulphate dose (alum). As part of this project, three tools were developed: a model for the prediction of the coagulant dose, two models for the prediction of dissolved organic carbon (DOC) concentration of settled water and a virtual sensor which allows predicting DOC concentration of raw and settled waters. All models are neural network models. The first model allows the prediction of the alum dosage by mimicking the good previous operation performed at the plant in terms of turbidity reduction. The input variables of the model are the month, the conductivity, temperature, turbidity and pH of raw water. The model was developed from operation data collected every 5 minutes during 4 years (378 535 data sets). Dosages predicted vary by an average of 5,9% of those actually applied. The second model allows the prediction of the DOC of the settled water. The input variables are the UV absorbance and DOC of raw water, pH of coagulation and alum dosage applied. Performances of the second model are compared with those obtained from two others empirical models (from the literature) that allow the prediction of the DOC of the settled water. Compared to these models, the second neural model gives better prediction performance. DOC concentrations predicted by the second model vary by an average of 9,6% of those actually measured. The third model allows the prediction of the DOC of raw and settled water. The input variables are the UV absorbance, temperature, turbidity and pH. The model acts as a virtual sensor of DOC concentration and allows the evaluation of the removal efficiency of natural organic matter by the coagulation, flocculation and settling steps. DOC concentrations predicted by the third model vary by an average of 13,2% of those actually measured. Finally, the fourth model allows the prediction of the DOC of settled water from UV absorbance of raw water instead of DOC. Concentrations predicted by that model vary by an average of 10,7% of those actually measured. The database for the adjustment of the second, third, and fourth models includes one year of DOC and UV absorbance monitoring at raw and settled water performed twice daily and operation data continuously collected. The models performances are presented and discussed according to their implementation and use in the treatment plant. A way to improve developed models is also described. Actually, only the first model could be implemented on a short term basis. Models 2, 3 and 4 are actually preliminary models that would need to be updated with larger databases including more variation periods before implementation. Developed models could be integrated to allow the operators to choose the alum dosage that can afford to make a compromise between the different objectives of the coagulation process. This could further improve the treated water quality.
649

Contrôle de véhicules aériens autonomes avec respect de contraintes terminales

Bélanger, Jacky 16 April 2018 (has links)
Le projet consiste à développer un algorithme de guidage permettant à un véhicule aérien autonome (UAV) stabilisé de respecter des contraintes reliées à la mission, appelées contraintes terminales. Les contraintes visées sont l'orientation de la trajectoire et la vitesse du véhicule lors de l'atteinte de la cible, ainsi que le temps d'arrivée à cette cible. Deux approches ont été testées. La première consiste à utiliser des véhicules virtuels pour simuler le comportement d'un véhicule réel en fonction des commandes appliquées. Cet algorithme est cependant limité au respect du temps d'arrivée. La deuxième stratégie consiste à contrôler le véhicule afin d'atteindre une cible virtuelle en mouvement rectiligne qui possède la vitesse et l'orientation souhaitées, et qui croise la cible réelle au temps d'arrivée demandé. La seconde approche a été testé avec succès à l'aide d'un système "Hardware-In-the-Loop" (HIL).
650

Automated microassembly using an active microgripper with sensorized end-effectors and hybrid force / position control / Micro-assemblage à l'aide d'une pince instrumentée en force et d'une commande hybride force / position.

Komati, Bilal 12 December 2014 (has links)
La thèse propose l’utilisation d’une pince active instrumentée en force pour automatiser l’assemblage des MOEMS 3D hybrides. Chacun des doigts de la pince instrumentée est composé d’un actionneur piézo-électrique et d’un capteur de force piézorésistif intégré. Le capteur de force intégré présente des performances innovantes par rapport aux capteurs existants dans l’ état de l’art. Cette pince offre la possibilité de mesurer les forces de serrage appliquées par la pince pour saisir un micro composant et d’estimer les forces de contact entre le micro composant et le substrat de micro-assemblage.Un modèle dynamique et non linéaire est développé pour la pince instrumentée. Une commande hybride force/position est utilisée pour automatiser le micro-assemblage. Dans cette commande, certains axes sont commandés en position et les autres sont commandés en force. Pour les axes commandés en force, une nouvelle commande fondée sur une commande en impédance avec suivi de référence est proposée selon un principe de commande non linéaire par mode glissant avec estimation des paramétres en lignes. En utilisant le schéma de commande hybride force/position proposé, une automatisation de toutes les tâches de micro-assemblage est réalisée avec succès, notamment sur un composant flexible à guider dans un rail. / This work proposes the use of an active microgripper with sensorized end-effectors for the automationof the microassembly of 3D hybrid MOEMS. Each of the two fingers of the microgripper is composedof a piezoelectric actuator with an integrated piezoresistive force sensor. The integrated force sensorpresents innovative performances compared to the existing force sensors in literature. The forcesensors provide the ability to measure the gripping forces applied by the microgripper to grasp a microcomponentand estimated the contact forces between the microcomponent and the substrate ofmicroassembly. A dynamic nonlinear model of the microgripper is developed. A hybrid force/positioncontrol is used for the automation of the microassembly. In the hybrid force/position control formulation,some axes are controlled in position and others are controlled in force. For the force controlledaxes, a new nonlinear force control scheme based on force tracking sliding mode impedance controlis proposed with parameter estimation. Using the proposed hybrid force/position control scheme, fullautomation of the microassembly is performed, notably for the guiding of a flexible component in arail.

Page generated in 0.6879 seconds