Spelling suggestions: "subject:"automatisation"" "subject:"automatisations""
51 |
Des agents chimiosensibilisants pour lutter contre la résistance aux antibiotiques chez les bactéries Gram-négatif : criblage et caractérisation / Chemosensitizers against Gram negative bacteria : screening & characterizationLôme, Vincent 21 March 2017 (has links)
Les bactéries Gram-négatif possèdent une structure d'enveloppe, ainsi que des pompes d'efflux (i.e., systèmes de transport actif permettant de détoxifier la cellule bactérienne) qui les rendent naturellement résistantes aux antibiotiques. Ces deux caractéristiques constituent de véritables barrières qui s'opposent à l'accumulation d'une grande variété d'antibiotiques près de leur cible, à l'intérieur de la bactérie. La perturbation des mécanismes s’opposant à l’accumulation d’antibiotiques par des agents chimiosensibilisants représente une stratégie prometteuse.L’objectif de cette thèse était de mieux comprendre les mécanismes d'inhibition de la résistance qui s’oppose à l’accumulation d’antibiotiques chez les bactéries Gram- négatif.Dans un premier temps l'activité de divers agents chimiosensibilisants synthétiques a été caractérisée. Trois dérivés ont été identifiés pour augmenter significativement l'activité synergique avec les antibiotiques, préalablement observée avec le géraniol. Ces dérivés ont montré une activité inhibitrice des pompes d'efflux ou perméabilisatrice de la membrane externe, pouvant être à l'origine des synergies observées.Dans un second temps, une méthode de criblage a été mise au point, en permettant la détection spécifique des agents chimiosensibilisants tout en décrivant leur mécanisme d'action.Ces travaux de thèse ont participé à proposer une solution thérapeutique brevetée au stade pré-clinique. Ils ont en outre permis de mettre en place des outils originaux pour identifier de nouveaux chimiosensibilisants, mais aussi pour mieux comprendre comment perturber les barrières s'opposant à l'accumulation d'antibiotiques. / Gram-negative bacteria are naturally resistant to many classes of antibiotics thanks to their ability to control the accumulation of drugs. Decreasing membrane barrier permeability and producing efflux pumps that expel drugs outside bacteria, represent the prevalent mechanisms of this resistance. One of the most promising solutions consists in restoring antibiotic activity by targeting such barriers to accumulation, with chemosensitizers.The purpose of my PhD was to better understand the inhibition of resistance that opposes the accumulation of antibiotics in Gram-negative bacteria.In the first stage of the study, the activity of various synthetic chemosensitizers has been characterized. Three compounds were identified to significantly increase the synergistic activity with antibiotics, that was previously observed with geraniol. These derivatives showed an efflux pump inhibition or an outer membrane permeabilization effect, that could be related to the observed synergy.In the second stage of the study, a screening method has been developed for the specific detection of chemosensitizers, while describing their mechanism of action.This work participated in proposing a patented therapeutic solution in the preclinical stage. This study has led to new tools to identify novel chemosensitizers, but also to better understand how to impair the barriers opposing the accumulation of antibiotics.
|
52 |
Justification Factory : de l'élicitation d'exigences de justification jusqu'à leur production en continu / Justification Factory : from justification requirements elicitation to their continuous productionDuffau, Clément 16 November 2018 (has links)
Dans de nombreux domaines où il existe des risques pour l'homme, comme la médecine, le nucléaire ou l'avionique, il est nécessaire de passer par une phase de certification visant à garantir le bon fonctionnement d'un système ou d'un produit. La certification se fait en fonction de documents normatifs qui expriment les exigences de justifications auxquelles le produit et le processus de développement doivent se conformer. Un audit de certification consiste alors à produire une documentation attestant la conformité avec ce cadre réglementaire.Pour faire face à ce besoin de justifications visant à assurer la conformité avec les normes en vigueur et la complétude des justifications apportées, il faut dès lors être capable de cibler les exigences de justification à revendiquer pour un projet et produire les justifications durant le développement du projet. Dans ce contexte, éliciter les exigences de justifications à partir des normes et produire les justifications nécessaires et suffisantes sont des enjeux pour assurer le respect des normes et éviter la sur-justification.Dans ces travaux nous cherchons à structurer les exigences de justification pour ensuite aider à la production des justifications associées tout en restant attentif à la confiance que l'on peut placer en elles. Pour relever ces défis, nous avons défini une sémantique formelle pour une modélisation existante des justifications : les Diagrammes de Justification. A partir de cette sémantique, nous avons pu définir un ensemble d'opérations permettant de contrôler le cycle de vie des justifications pour assurer la conformité des justifications au regard des exigences de justification. Par ce formalisme, nous avons également pu guider, voire automatiser dans certains cas, la production des justifications et la vérification de la conformité.Ces contributions ont été appliquées dans le contexte des technologies médicales pour l'entreprise AXONIC, porteuse de ces travaux. Ceci a permis de i) éliciter les exigences de justification des normes médicales et pratiques internes de l'entreprise, ii) produire automatiquement les justifications associées à la norme IEC 62304 pour le logiciel en médical, iii) automatiser la vérification et validation des justifications ainsi que la production de documents utilisables lors d'audit. / In many areas where it exists human risks, such as medicine, nuclear or avionics, it is necessary to go through a certification stage to ensure the proper functioning of a system or product. Certification is based on normative documents that express the justification requirements to which the product and the development process must conform. A certification audit then consists of producing documentation certifying compliance with this regulatory framework.To cope with this need for justifications to ensure compliance with the standards in force and the completeness of the justifications provided, it must therefore be able to target the justification requirements to be claimed for a project and produce justifications during the development of the project. In this context, eliciting the justification requirements from the standards and producing the necessary and sufficient justifications are issues to ensure compliance with standards and avoid over-justification.In these works we seek to structure the justification requirements and then help to produce the associated justifications while remaining attentive to the confidence that can be placed in them. To address these challenges, we have defined a formal semantics for an existing model of justifications: Justification Diagrams. From this semantics, we have been able to define a set of operations to control the life cycle of the justifications to ensure that the justifications regarding the justification requirements. Through this semantics, we have also been able to guide, and even automate in some cases, the production of justifications and the verification of conformance.These contributions were applied in the context of medical technologies for the company AXONIC, the bearer of this work. This made it possible to i) elicitate the justification requirements of the medical standards and company's internal practicals, ii) automatically produce the justifications associated with the IEC 62304 standard for medical software, iii) automate the verification and validation of the justifications as well as the production of documents that can be used during the audit.
|
53 |
Přenosné automatizované pracoviště pro měření vzduchotechnických veličin / Automatized working place for measuring of airfow parametersVeis, Samuel January 2018 (has links)
This work deals with the design and realization of the workplace for the measurement of ventilation parameters of fans, electric machines and other elements. The thesis contains an extensive research part regarding the air-conditioning issues. In the work was designed a channel for measurement, electronics, sensorics, control algorithm and user application. The workplace was completed and tested.
|
54 |
Automatic outlier detection in automated water quality measurement stationsSaberi, Atefeh 23 April 2018 (has links)
Des stations de mesure de la qualité de l’eau sont utilisées pour mesurer la qualité de l'eau à haute fréquence. Pour une gestion efficace de ces mesures, la qualité des données doit être vérifiée. Dans une méthode univariée précédemment développée, des points aberrants et des fautes étaient détectés dans les données mesurées par ces stations en employant des modèles à lissage exponentiel pour prédire les données au moment suivant avec l’intervalle de confiance. Dans la présente étude, ne considérant que le cas univarié, la détection de points aberrants est améliorée par l’identification d’un modèle autorégressif à moyenne mobile sur une fenêtre mobile de données pour prédire la donnée au moment suivant. Les données de turbidité mesurées à l'entrée d'une station d'épuration municipale au Danemark sont utilisées comme étude de cas pour comparer la performance de l’utilisation des deux modèles. Les résultats montrent que le nouveau modèle permet de prédire la donnée au moment suivant avec plus de précision. De plus, l’inclusion du nouveau modèle dans la méthode univariée présente une performance satisfaisante pour la détection de points aberrants et des fautes dans les données de l'étude de cas. / Water quality monitoring stations are used to measure water quality at high frequency. For effective data management, the quality of the data must be evaluated. In a previously developed univariate method both outliers and faults were detected in the data measured by these stations by using exponential smoothing models that give one-step ahead forecasts and their confidence intervals. In the present study, the outlier detection step of the univariate method is improved by identifying an auto-regressive moving average model for a moving window of data and forecasting one-step ahead. The turbidity data measured at the inlet of a municipal treatment plant in Denmark is used as case study to compare the performance of the use of the two models. The results show that the forecasts made by the new model are more accurate. Also, inclusion of the new forecasting model in the univariate method shows satisfactory performance for detecting outliers and faults in the case study data.
|
55 |
Détection, reconstruction 3D et identification des êtres vivants du règne animalLévesque, Olivier 24 April 2018 (has links)
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances. / Automating the detection and identification of animals is a task that has an interest in many biological research fields and in the development of electronic security systems. The author present a detection and identification system based on computer stereo vision to achieve this task. A number of criteria are being used to identify the animals, but the emphasis is on the harmonic analysis of the animal real time reconstructed 3D shape. The result of the analysis is compared with others stored in an evolutive knowledge base.
|
56 |
Estimation de l'état fonctionnel de l'opérateurGagnon, Olivier 24 April 2018 (has links)
L’estimation de l’état fonctionnel de l’opérateur (c’est-à-dire le patron multidimensionnel de conditions physiologiques et comportementales qui régule les performances) a un grand potentiel pour l’augmentation de la sécurité et de la fiabilité de systèmes critiques. L’apprentissage automatique, qui a connu des avancées importantes au cours des dernières années, est une avenue à explorer pour effectuer cette estimation. Une problématique dans l’utilisation de ces techniques est la formalisation de l’OFS en une mesure objective permettant de fournir un signal d’entraînement à l’apprentissage automatique. Ce mémoire présente une mesure, la performance dynamique décontextualisée, permettant d’utiliser ces techniques pour estimer l’état fonctionnel de plusieurs participants, pour plusieurs tâches expérimentales différentes. Cet ouvrage explore également les performances obtenues par plusieurs techniques d’apprentissage automatique dans divers contextes. Entre autres, la généralisation des modèles entraînés à de nouveaux participants ou de nouvelles tâches expérimentales et l’utilisation du contexte expérimental sont étudiées. / The assessment of an operator’s functional state (i.e., the multidimensional pattern of human psycho-physiological conditions that mediates performance) has great potential for increasing safety and reliability of critical systems. Machine learning, which has had success in recent years, is a technique which should be investigated for this task. An open question in the use of machine learning algorithms for the assessment of the operator’s functional state is the formalization of the operator’s state in an objective measure that can provide a training signal for the algorithms. This Master’s thesis introduces the decontextualized dynamic performance, a measure which enables the use of machine learning for many experimental tasks and many participants simultaneously.This work also explores the performances obtained by machine learning techniques in some contexts. The generalization of the trained models to new participants, or new tasks as well as the utilization of the training context is investigated.
|
57 |
Optimization of storage and picking systems in warehousesFernandes Da Costa Silva, Allyson 01 March 2024 (has links)
La croissance du commerce électronique exige une hausse des performances des systèmes d'entreposage, qui sont maintenant repensés pour faire face à un volume massif de demandes à être satisfait le plus rapidement possible. Le système manuel et le système à robots mobile (SRM) sont parmi les plus utilisés pour ces activités. Le premier est un système centré sur l'humain pour réaliser des opérations complexes que les robots actuels ne peuvent pas effectuer. Cependant, les nouvelles générations de robots autonomes mènent à un remplacement progressif par le dernier pour augmenter la productivité. Quel que soit le système utilisé, plusieurs problèmes interdépendants doivent être résolus pour avoir des processus de stockage et de prélèvement efficaces. Les problèmes de stockage concernent les décisions d'où stocker les produits dans l'entrepôt. Les problèmes de prélèvement incluent le regroupement des commandes à exécuter ensemble et les itinéraires que les cueilleurs et les robots doivent suivre pour récupérer les produits demandés. Dans le système manuel, ces problèmes sont traditionnellement résolus à l'aide de politiques simples que les préparateurs peuvent facilement suivre. Malgré l'utilisation de robots, la même stratégie de solution est répliquée aux problèmes équivalents trouvés dans le SRM. Dans cette recherche, nous étudions les problèmes de stockage et de prélèvement rencontrés lors de la conception du système manuel et du SRM. Nous développons des outils d'optimisation pour aider à la prise de décision pour mettre en place leurs processus, en améliorant les mesures de performance typiques de ces systèmes. Certains problèmes traditionnels sont résolus avec des techniques améliorées, tandis que d'autres sont intégrés pour être résolus ensemble au lieu d'optimiser chaque sous-système de manière indépendante. Nous considérons d'abord un système manuel avec un ensemble connu de commandes et intégrons les décisions de stockage et de routage. Le problème intégré et certaines variantes tenant compte des politiques de routage communes sont modélisés mathématiquement. Une métaheuristique générale de recherche de voisinage variable est présentée pour traiter des instances de taille réelle. Des expériences attestent de l'efficience de la métaheuristique proposée par rapport aux modèles exacts et aux politiques de stockage communes. Lorsque les demandes futures sont incertaines, il est courant d'utiliser une stratégie de zonage qui divise la zone de stockage en zones et attribue les produits les plus demandés aux meilleures zones. Les tailles des zones sont à déterminer. Généralement, des dimensions arbitraires sont choisies, mais elles ignorent les caractéristiques de l'entrepôt et des demandes. Nous abordons le problème de dimensionnement des zones pour déterminer quels facteurs sont pertinents pour choisir de meilleures tailles de zone. Les données générées à partir de simulations exhaustives sont utilisées pour trainer quatre modèles de régression d'apprentissage automatique - moindres carrés ordinaire, arbre de régression, forêt aléatoire et perceptron multicouche - afin de prédire les dimensions optimales des zones en fonction de l'ensemble de facteurs pertinents identifiés. Nous montrons que tous les modèles entraînés suggèrent des dimensions sur mesure des zones qui performent meilleur que les dimensions arbitraires couramment utilisées. Une autre approche pour résoudre les problèmes de stockage pour le système manuel et pour le SRM considère les corrélations entre les produits. L'idée est que les produits régulièrement demandés ensemble doivent être stockés près pour réduire les coûts de routage. Cette politique de stockage peut être modélisée comme une variante du problème d'affectation quadratique (PAQ). Le PAQ est un problème combinatoire traditionnel et l'un des plus difficiles à résoudre. Nous examinons les variantes les plus connues du PAQ et développons une puissante métaheuristique itérative de recherche tabou mémétique en parallèle capable de les résoudre. La métaheuristique proposée s'avère être parmi les plus performantes pour le PAQ et surpasse considérablement l'état de l'art pour ses variantes. Les SRM permettent de repositionner facilement les pods d'inventaire pendant les opérations, ce qui peut conduire à un processus de prélèvement plus économe en énergie. Nous intégrons les décisions de repositionnement des pods à l'attribution des commandes et à la sélection des pods à l'aide d'une stratégie de prélèvement par vague. Les pods sont réorganisés en tenant compte du moment et de l'endroit où ils devraient être demandés au futur. Nous résolvons ce problème en utilisant la programmation stochastique en tenant compte de l'incertitude sur les demandes futures et suggérons une matheuristique de recherche locale pour résoudre des instances de taille réelle. Nous montrons que notre schéma d'approximation moyenne de l'échantillon est efficace pour simuler les demandes futures puisque nos méthodes améliorent les solutions trouvées lorsque les vagues sont planifiées sans tenir compte de l'avenir. Cette thèse est structurée comme suit. Après un chapitre d'introduction, nous présentons une revue de la littérature sur le système manuel et le SRM, et les décisions communes prises pour mettre en place leurs processus de stockage et de prélèvement. Les quatre chapitres suivants détaillent les études pour le problème de stockage et de routage intégré, le problème de dimensionnement des zones, le PAQ et le problème de repositionnement de pod. Nos conclusions sont résumées dans le dernier chapitre. / The rising of e-commerce is demanding an increase in the performance of warehousing systems, which are being redesigned to deal with a mass volume of demands to be fulfilled as fast as possible. The manual system and the robotic mobile fulfillment system (RMFS) are among the most commonly used for these activities. The former is a human-centered system that handles complex operations that current robots cannot perform. However, newer generations of autonomous robots are leading to a gradual replacement by the latter to increase productivity. Regardless of the system used, several interdependent problems have to be solved to have efficient storage and picking processes. Storage problems concern decisions on where to store products within the warehouse. Picking problems include the batching of orders to be fulfilled together and the routes the pickers and robots should follow to retrieve the products demanded. In the manual system, these problems are traditionally solved using simple policies that pickers can easily follow. Despite using robots, the same solution strategy is being replicated to the equivalent problems found in the RMFS. In this research, we investigate storage and picking problems faced when designing manual and RMFS warehouses. We develop optimization tools to help in the decision-making process to set up their processes and improve typical performance measures considered in these systems. Some classic problems are solved with improved techniques, while others are integrated to be solved together instead of optimizing each subsystem sequentially. We first consider a manual system with a known set of orders and integrate storage and routing decisions. The integrated problem and some variants considering common routing policies are modeled mathematically. A general variable neighborhood search metaheuristic is presented to deal with real-size instances. Computational experiments attest to the effectiveness of the metaheuristic proposed compared to the exact models and common storage policies. When future demands are uncertain, it is common to use a zoning strategy to divide the storage area into zones and assign the most-demanded products to the best zones. Zone sizes are to be determined. Commonly, arbitrary sizes are chosen, which ignore the characteristics of the warehouse and the demands. We approach the zone sizing problem to determine which factors are relevant to choosing better zone sizes. Data generated from exhaustive simulations are used to train four machine learning regression models - ordinary least squares, regression tree, random forest, and multilayer perceptron - to predict the optimal zone sizes given the set of relevant factors identified. We show that all trained models suggest tailor-made zone sizes with better picking performance than the arbitrary ones commonly used. Another approach to solving storage problems, both in the manual and RMFS, considers the correlations between products. The idea is that products constantly demanded together should be stored closer to reduce routing costs. This storage policy can be modeled as a quadratic assignment problem (QAP) variant. The QAP is a traditional combinatorial problem and one of the hardest to solve. We survey the most traditional QAP variants and develop a powerful parallel memetic iterated tabu search metaheuristic capable of solving them. The proposed metaheuristic is shown to be among the best performing ones for the QAP and significantly outperforms the state-of-the-art for its variants. The RMFS allows easy repositioning of inventory pods during operations that can lead to a more energy-efficient picking process. We integrate pod repositioning decisions with order assignment and pod selection using a wave picking strategy such that pods are parked after being requested considering when and where they are expected to be requested next. We solve this integrated problem using stochastic programming considering the uncertainty about future demands and suggest a local search matheuristic to solve real-size instances. We show that our sample average approximation scheme is effective to simulate future demands since our methods improve solutions found when waves are planned without considering the future demands. This thesis is structured as follows. After an introductory chapter, we present a literature review on the manual and RMFS, and common decisions made to set up their storage and picking processes. The next four chapters detail the studies for the integrated storage and routing problem, the zone sizing problem, the QAP, and the pod repositioning problem. Our findings are summarized in the last chapter.
|
58 |
Développement d'une nouvelle approche d'extraction du réseau de surface à partir d'un nuage de points LiDAR massif basée sur la théorie de MorseDahbi, Aymane 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives. / Nowadays, the mapping of hydrographic networks is an important subject for forestry management and planning, flood risk prevention, and so on. The source data for mapping watercourses are point clouds obtained by airborne lidars. However, conventional network extraction methods require cutting, resampling, and assembling the results to produce a complete network, thereby altering the quality of the results, and limiting the automation of processing. In order avoid these processing steps, a new computational approach is considered. This approach involves building a network of ridges and talwegs from lidar points, and then transforming this network into a hydrographic network. Our research consists in designing a robust network extraction method adapted to massive data. First, we propose a network calculation approach adapted to triangulated surfaces, guaranteeing the network's topological consistency. We then propose a container-based architecture for parallelizing computations to handle big data processing.
|
59 |
Création d'outils pour l'automatisation d'analyses phylogénétiques de génomes d'organitesGagnon, Jules 11 April 2018 (has links)
Le traitement des données de séquençage pour les rendre utilisables dans une analyse phylogénétique est long et répétitif. De plus, certaines analyses plus complexes peuvent difficilement être entreprises sans l'automatisation de certaines tâches. La création d'outils bioinformatiques permettrait de diminuer le temps consacré à la préparation des données. Le but de cette recherche est de développer des outils informatiques permettant d'automatiser le traitement de données provenant du séquençage d'organites. Pour ce faire, il a été nécessaire de créer: item des bases de données de gènes d'organites; item des outils pour l'extraction des séquences génétiques dans différents formats; item des outils pour l'identification des gènes d'organismes nouvellement séquencés; item des outils de préparation des données pour l'utilisation lors d'analyses phylogénétiques. Finalement, le bon fonctionnement des outils a été vérifié par l'exécution d'une analyse phylogénétique dont les résultats ont déjà été publiés.
|
60 |
Modélisation, commande et observation du séchage par lit fluidisé de granules pharmaceutiquesGagnon, Francis 13 December 2023 (has links)
La fabrication de comprimés pharmaceutiques par granulation humide a typiquement recours aux lits fluidisés pour le séchage des particules. Encouragée par les agences réglementaires, l'industrie a entamé une migration vers la production continue et automatisée, mais les procédés discontinus (batch) opérés sans rétroaction, excepté un contrôle qualité en fin de cycle, demeurent largement majoritaires dans le secteur. Dans le cas des séchoirs à lit fluidisé, cette approche occasionne plusieurs complications comme le sous-séchage, le surséchage et la surchauffe des granules thermosensibles, qui peuvent conduire au rejet du lot. Toutefois, la commande avancée et la production en continu peuvent réduire les problèmes d'opération. Ce projet de recherche concerne donc l'automatisation du séchage par lit fluidisé ou, plus spécifiquement, sa modélisation, sa commande et son observation. La conception et la comparaison de diverses stratégies d'estimation et de contrôle nécessitent d'abord un modèle mathématique représentatif du procédé. Pour y parvenir, une identification « boite grise » estime les paramètres empiriques d'une description phénoménologique à deux phases du lit fluidisé à partir de données expérimentales et un second lot de données valide les simulations qui en résultent. Cet ouvrage évalue ensuite la commande prédictive linéaire, non linéaire et économique sur le simulateur calibré. L'étude explore aussi les filtres de Kalman standard et non parfumé, ainsi que l'estimateur à fenêtre glissante, comme capteur virtuel de teneur en eau des particules, le principal indicateur de qualité au séchage. La première partie de cette thèse se concentre sur les séchoirs verticaux discontinus, et la deuxième, sur un nouveau prototype de réacteur horizontal entièrement continu. Les résultats de cette recherche confirment les avantages indéniables de ces technologies, soit un contrôle serré de la qualité du produit, et une diminution des coûts et de l'empreinte environnementale des opérations. / Manufacturing pharmaceutical tablets through wet granulation typically relies on fluidized bed drying for the particles. Advocated by regulatory agencies, the industry initiated a paradigm shift towards fully continuous and automated production, but batch processes operated without feedback, except a quality control at the end of the cycle, still prevail in the sector. For the case of fluidized bed dryers, this approach results in several issues like under drying, over drying, overheating of thermosensitive granules, that can lead to the rejection of the batch. However, advanced control and continuous processing can reduce the operational hurdles. This research project investigates the automation of fluidized bed drying or, more specifically, its modeling, control and observation. The design and comparison of various estimation and feedback strategies first require a representative mathematical model of the process. For this, a grey-box identification estimates the empirical parameters of a two-phase fluidized bed description from experimental data, and a second dataset validates the resulting simulations. This work then investigates linear, nonlinear, and economic model predictive control on the calibrated simulator. The study also explores the standard and unscented Kalman filter, and the moving-horizon estimator, as soft sensors for the particle moisture content, a critical quality attribute at drying. The first part of this thesis focuses on vertical batch dryers, and the second one, on a new prototype of a fully continuous horizontal reactor. The results of this research confirm the undeniable advantages of those technologies, namely a tight control of the product quality, and reductions in the costs and the environmental footprint of the operations.
|
Page generated in 0.1074 seconds