• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 5
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Constrained an unconstrained optimisation with trust regions methods and quadratic local approximations/Optimisation contrainte et non-contrainte par régions de confiance avec approximations locales quadratiques

Walmag, Jérôme 21 March 2011 (has links)
This work deals with optimisation problems in which the numerical cost associated with the evaluation of the target function and/or of the constraints is large; the number of calls to these functions by the optimisation algorithm should therefore be kept as small as possible. The first part of the work is about globalisation by trust regions where the objective function and the constraints are replaced by a local approximation, easier to use, in a certain region of confidence. Different types of local approximations are introduced but the main part of the work deals with quadratic approximations. The theoretical aspects of the global convergence of trust regions methods are also presented. One of the applications considered in this work is the parametrical identification of a dynamical model with respect to experimental measurements. This identification can be expressed in the form of an unconstrained optimisation problem. For the practical implementation of the identification algorithm, the derivative of the objective function is required, which asks for the derivation of the underlying model. An algorithm, named Trust, has been implemented: it is a trust region method of quasi-Newton type which uses quadratic local approximations. The choice of the differentiation method is analysed in details in relation with its influence on the rate of convergence. A brand new update strategy of the trust region radius is also introduced. The trust region radius is a parameter that measures the size of the trust region around the current iterate. The new approach relies on the identification and appropriate handling of so-called too successful iterations that lead to a much more important reduction of the function objective than predicted by the local approximation. This approach goes with a significant improvement of the performances of the algorithm. Constrained optimisation is then considered using sequential quadratic methods. A fully effective algorithm for the resolution of quadratic convex sub-problems with quadratic constraints is introduced. This original method, named UVQCQP, makes use of an exact non-differentiable penalty function to addresses the constrained optimisation problem. The algorithm relies on a decomposition of the variable space into three orthogonal subspaces: a first subspace taking into account bound constraints, a second one in which the objective function is continuously derivable and a third one with slope discontinuities. The performances of this algorithm are further improved by the implementation of a fast mode taking into account the second order corrections. Eventually, the UVQCQP algorithm is applied within the framework of sequential algorithms of quadratic programming with quadratic constraints: its advantages are demonstrated through some examples. The numerical tests carried out reveal very encouraging prospects. /Ce travail s'intéresse aux problèmes doptimisation dans lesquels le temps de calcul de la fonction cible et/ou des contraintes est très important et où le nombre dappels à ces fonctions par l'algorithme doptimisation doit donc être aussi réduit que possible. La première partie du travail porte sur la technique de globalisation dite par régions de confiance où la fonction objectif et les contraintes peuvent être remplacées par une approximation locale, plus facile à utiliser, dans une certaine zone de confiance. Plusieurs types d'approximations locales sont développées en détail mais l'essentiel du travail se concentre sur les approximations quadratiques. Les aspects théoriques de convergence globale des méthodes par régions de confiance sont également présentés. Une des applications envisagées porte sur l'identification paramétrique d'un modèle dynamique par rapport à des mesures expérimentales. Cette identification peut être exprimée sous la forme d'un problème d'optimisation non-contraint. Pour être menée à bien, lidentification nécessite la différentiation de la fonction objectif et donc du modèle sous-jacent : le facteur-clé est son coût en ressources informatiques et cette question est passée en revue en détail. Un algorithme, nommé Trust, a été implémenté : cest une méthode par régions de confiance de type quasi-Newton qui utilise des approximations locales quadratiques. Le choix de la méthode de différentiation est analysé car celui-ci influence la vitesse de convergence. Ce travail introduit également une stratégie nouvelle de mise à jour du rayon de confiance. Le rayon de confiance est un paramètre des méthodes par régions de confiance qui mesure l'étendue de la dite région autour de l'itéré courant. La nouveauté développée ici invite à se méfier des itérations menant à une réduction de la fonction objectif bien plus importante que celle prévue par l'approximation locale. Cette approche permet une amélioration sensible des performances de l'algorithme. Le travail aborde ensuite la question de l'optimisation contrainte en se basant sur les méthodes quadratiques séquentielles. Il présente un algorithme complet et efficace de résolution d'un sous-problème convexe quadratique à contraintes quadratiques. Cette méthode originale, nommée UVQCQP, se base sur une fonction de pénalité exacte non-différentiable. L'algorithme tire profit d'une décomposition de l'espace des variables en trois sous-espaces orthogonaux : un premier permettant de gérer des contraintes de bornes, un deuxième dans lequel la fonction objectif est continûment dérivable et un troisième où elle présente des cassures de pente. Les performances de cet algorithme sont encore améliorées par l'implémentation d'un mode rapide qui tire profit de corrections du second ordre. Pour terminer, lalgorithme UVQCQP est appliqué dans le cadre dalgorithmes séquentiels de programmation quadratique à contraintes quadratiques : ses avantages sont abordés au travers de quelques exemples. Les tests numériques effectués font apparaître des perspectives très encourageantes.
2

Machine Learning Solution Methods for Multistage Stochastic Programming

Defourny, Boris 20 December 2010 (has links)
This thesis investigates the following question: Can supervised learning techniques be successfully used for finding better solutions to multistage stochastic programs? A similar question had already been posed in the context of reinforcement learning, and had led to algorithmic and conceptual advances in the field of approximate value function methods over the years. This thesis identifies several ways to exploit the combination "multistage stochastic programming/supervised learning" for sequential decision making under uncertainty. Multistage stochastic programming is essentially the extension of stochastic programming to several recourse stages. After an introduction to multistage stochastic programming and a summary of existing approximation approaches based on scenario trees, this thesis mainly focusses on the use of supervised learning for building decision policies from scenario-tree approximations. Two ways of exploiting learned policies in the context of the practical issues posed by the multistage stochastic programming framework are explored: the fast evaluation of performance guarantees for a given approximation, and the selection of good scenario trees. The computational efficiency of the approach allows novel investigations relative to the construction of scenario trees, from which novel insights, solution approaches and algorithms are derived. For instance, we generate and select scenario trees with random branching structures for problems over large planning horizons. Our experiments on the empirical performances of learned policies, compared to golden-standard policies, suggest that the combination of stochastic programming and machine learning techniques could also constitute a method per se for sequential decision making under uncertainty, inasmuch as learned policies are simple to use, and come with performance guarantees that can actually be quite good. Finally, limitations of approaches that build an explicit model to represent an optimal solution mapping are studied in a simple parametric programming setting, and various insights regarding this issue are obtained.
3

Innovative Ray Tracing Algorithms for Space Thermal Analysis

Vueghs, Pierre 09 March 2009 (has links)
Pour mettre au point le système de contrôle thermique dun engin spatial (satellite, sonde ou véhicule habité), lingénieur thermicien utilise des logiciels adaptés, tels quESARAD et ESATAN, commercialisés par ALSTOM. Comme la composante radiative peut jouer un rôle prédominant, les logiciels utilisés contiennent fréquemment un algorithme de lancer de rayons pour calculer les facteurs de vue et facteurs déchange radiatif entre des surfaces de dimensions finies, supposées isothermes. Les flux externes (solaires, albédo et infrarouge terrestres) sont également calculés par lancer de rayons. Enfin, les couplages conductifs sont habituellement encodés manuellement par lutilisateur. Comme le lancer de rayons est basé sur un processus aléatoire, la précision atteinte est déterminée par le nombre de rayons lancés. En général, le choix de ce nombre de rayons est laissé à la discrétion de lingénieur, ce qui peut conduire à des erreurs. Un autre inconvénient du lancer de rayons est sa faible convergence. Une méthode daccélération du lancer de rayons est nécessaire. Dans le cadre de la thèse, nous avons développé une méthode de lancer de rayons plus performante, que nous avons appelée hémisphère stratifié, caractérisée par une meilleure convergence. Un contrôle statistique derreur a été développé : lutilisateur spécifie la précision souhaitée (définie par une erreur relative maximale et un intervalle de confiance) et lalgorithme adapte automatiquement le nombre de rayons en fonction de la configuration géométrique. Sur base de cette erreur géométrique, un système déquations adjointes est utilisé pour obtenir une erreur énergétique, caractérisant les transferts de chaleur entre les surfaces. Lhémisphère stratifié est étendu de manière à inclure des fonctions de réflexion plus complexes. Lapplication des relations de réciprocité et de fermeture est également considérée. La méthode matricielle de Gebhart, qui permet de dériver les facteurs déchange radiatifs des facteurs de vue, est étendue de manière à inclure des surfaces non-diffuses et non-isothermes. Pour accélérer le lancer de rayons, les intersections rayons-surfaces ont été soigneusement étudiées. Nous avons également développé une méthode qui combine les primitives géométriques avec des maillages éléments finis. La représentation tri-dimensionnelle du modèle géométrique est plus adaptée au calcul de la composante radiative du transfert thermique tandis que les maillages éléments finis sont plus adaptés au calcul de la conduction. Cette méthode fournit également une accélération du lancer de rayons. De plus, le lancer de rayons est effectué sur la géométrie exacte, ce qui est nécessaire si des réflexions spéculaires sont modélisées. Nous expliquons comment le lancer de rayons peut être effectué sur la géométrie exacte et comment les facteurs de vue résultants peuvent être projetés sur les éléments finis. Nous définissons la notion de facteur de vue élément fini en calculant les facteurs de vue aux noeuds et en les interpolant sur lélément fini au moyen des fonctions de forme. Ces facteurs de vue élément fini sont utilisés pour lier radiativement les noeuds du modèle. Comme le champ de température est projeté sur les fonctions de forme, nous obtenons des éléments non-isothermes, contrairement aux résultats de la méthode Thermal Lumped Parameter (différences finies) utilisée habituellement en thermique spatiale. Les liens conductifs sont calculés automatiquement sur base du maillage éléments finis. Toutes ces améliorations résultent dans un algorithme plus rapide que le programme de référence ESARAD (pour une précision équivalente) et qui fonctionne avec un petit nombre de paramètres définis par lutilisateur. Pour valider lalgorithme proposé, le modèle du vaisseau XEUS, de lESA, a été implémenté. Des comparaisons ont été effectuées avec ESARAD et le code éléments finis SAMCEF.
4

Cost Effectiveness and Complexity Assessment in Ship Design within a Concurrent Engineering and "Design for X" Framework

Caprace, Jean-David 26 February 2010 (has links)
Decisions taken during the initial design stage determine 60% to 95% of the total cost of a product. So there is a significant need to concurrently consider performance, cost, production and design complexity issues at the early stages of the design process. The main obstacle to this approach is the lack of convenient and reliable cost and performance models that can be integrated into a complex design process as is used in the shipbuilding industry. Traditional models and analysis methods frequently do not provide the required sensitivity to consider all the important variables impacting performance, cost, production and ships life cycle. Our challenge is that achieving this sensitivity at the early design stage almost requires data available during the detail design analysis. The traditional design methods do not adequately include, early enough, production and life cycle engineering to have a positive impact on the design. Taking an integrated approach throughout the life cycle of the ship and using concurrent engineering analysis tools can improve these traditional design process weaknesses. Innovation is required in structural design and cost assessment. The use of design for X, and particular design for production and cost schemes, during the design is the solution: to reduce failure during a ships life caused by design misconception, to reduce the overall design time and to shorten the build cycle of ships, to enlarge the number of design alternatives during the design process. The author has developed some assessment methods for cost effectiveness and complexity measurements intended to be used by ship designers for the real time control of cost process. The outcome is that corrective actions can be taken by management in a rather short time to actually improve or overcome predicted unfavourable performance. Fundamentally, these methods will provide design engineers with objective and quantifiable cost and complexity measures making it possible to take rational design decisions throughout the design stages. The measures proposed in this PhD are based on several techniques like decision analysis, data mining, neural network, fuzzy logic. They are objective facts, which are not dependent on the engineers interpretation of information, but rather on a model generated to represent the ship design. The objectivity aspect is essential when using the complexity and cost measures in a design automation system. Finally, with these tools, the designers should obtain well-defined and unambiguous metrics for measurement of the different types of cost effectiveness and complexities in engineered artefacts. Such metrics help the designers and design automation tools to be objective and perform quantitative comparisons of alternative design solutions, cost estimation, as well as design optimization. In this PhD, these metrics have been applied and validated with success in real industrial conditions on the design of passenger ships. Les décisions prises au cours de la phase initiale de conception déterminent 60% à 95% du coût total dun produit. Il y a donc un besoin important denvisager simultanément des aspects de performance, de coût, de production, de complexité au stade précoce du processus de conception. Le principal obstacle à cette approche est le manque de commodité et de fiabilité des modèles de coûts et des modèles danalyse de performance qui peuvent être intégrés dans un processus de conception aussi complexe que celui utilisé dans lindustrie de la construction navale. Les modèles traditionnels et les méthodes danalyse les plus fréquemment utilisés ne fournissent pas la sensibilité nécessaire pour examiner toutes les variables de conception importantes qui ont une influence sur la performance, le coût, la production et le cycle de vie des navires. Notre défi est quatteindre cette sensibilité au niveau de la conception initiale demande presque toujours des données uniquement disponibles lors de la conception détaillée. Les méthodes de conception traditionnelles ne prennent pas suffisamment en compte, suffisamment tôt, la production et lingénierie du cycle de vie afin davoir un impact positif sur la conception. Adopter une approche intégrée sur lensemble du cycle de vie des navires et utiliser lingénierie simultanée peuvent améliorer les faiblesses des processus de conception traditionnels. Linnovation est nécessaire dans la conception structurelle et lévaluation des coûts. Lutilisation du concept de "design for X", et en particulier le design en pensant à la production et à la réduction des coûts lors de la conception est la solution : pour réduire les dysfonctionnements qui peuvent apparaître pendant la vie du navire causés par des erreurs de conception, de réduire le temps total de conception et de raccourcir le cycle de la construction de navires, délargir le nombre dalternatives de conception évaluées au cours du processus de conception. Lauteur a développé quelques méthodes dévaluation des coûts et des techniques de mesure de la complexité destinées à être utilisés par les concepteurs de navire pour le contrôle en temps réel de la conception. Le résultat est que les actions correctives peuvent être prises par la direction dans un temps assez court pour améliorer réellement ou surmonter les prévisions de performance défavorables. Fondamentalement, ces méthodes offrent aux ingénieurs de conception des mesures quantifiables des coûts et de la complexité qui rend possible la prise de décisions rationnelles tout au long des étapes de conception. Les mesures proposées dans cette thèse sont basées sur plusieurs techniques telles que lanalyse à la décision, lanalyse de données, les réseaux de neurones ou encore la logique floue. Ce sont des faits objectifs, qui ne dépendent pas de linterprétation de linformation par lingénieur, mais plutôt dun modèle généré pour représenter le design du navire. Laspect de lobjectivité est essentiel pour lutilisation de la complexité et la mesure des coûts dans un système dautomatisation de la conception. Finalement, avec ces outils, les concepteurs obtiennent des mesures bien définies et non ambigües des paramètres de mesure de coûts, defficacité et de complexité des artefacts dingénierie. De telles mesures aident les concepteurs et les outils dautomatisation de la conception, à être objectifs et à comparer de manière quantitative les différentes alternatives lors de la conception, de lestimation des coûts, ainsi que de loptimisation. Dans cette thèse, ces paramètres ont été appliqués et validés avec succès et dans des conditions industrielles réelles sur la conception de navires à passagers. Las decisiones tomadas en la etapa inicial de un diseño determinan el 60% al 95% del total del costo de un producto. Por esta razón, es necesario considerar al mismo tiempo rendimiento, costo, producción y la complejidad en el proceso de la fase inicial del diseño. El principal obstáculo de este enfoque es la falta de práctica y fiabilidad de costos y de modelos de análisis de rendimiento, que puedan ser integrados en un proceso complejo de concepción utilizado en la industria de la construcción naval. Los modelos tradicionales y los métodos de análisis frecuentemente no tienen la sensibilidad necesaria para examinar todas las variables importantes que influyen en el rendimiento, costo, producción y la vida útil del buque. Nuestro reto es el que logrando de que ésta sensibilidad en la fase inicial de diseño casi siempre requiera de datos únicamente disponibles durante un análisis de diseño require detallado. Los métodos tradicionales de diseño no incluyen temprana y adecuadamente, la producción y la ingeniería del ciclo de vida para tener un impacto positivo en el diseño. Adoptando un enfoque integrado a lo largo del ciclo de vida de la nave usando la ingeniería concurrente y herramientas de análisis se pueden mejorar estas debilidades del proceso tradicional de diseño. Se requiere innovación en el diseño estructural y la evaluación de los costos. La utilización del concepto diseño para X, y en particular el diseño pensando en la producción y en la reducción de costos durante la concepción es la solución: para reducir errores durante la vida útil de los buques causados en la concepción del mismo, para reducir el tiempo total de diseño y acortando el ciclo constructivo del buque, para ampliar el número de alternativas durante el proceso de diseño. El autor ha desarrollado algunos métodos de evaluación de costos y de técnicas de medida de la complejidad destinadas a ser utilizadas por los diseñadores de barcos para el control en tiempo real del proceso de costos. El resultado es que las acciones correctivas pueden ser adoptadas por la dirección en un tiempo suficientemente corto para realmente mejorar o superar el rendimiento desfavorable proyectado. Fundamentalmente, estos métodos ofrecerán a los ingenieros diseñadores con medidas objetivas y cuantificables de costos y complejidad haciendo posible tomar decisiones racionales a lo largo de todas las etapas de diseño. Las medidas propuestas en esta tesis doctoral se basan en varias técnicas tales como análisis de decisión, análisis de datos, redes neuronales y lógica difusa. Son objetivos hechos, que no dependen de la interpretación que el ingeniero realice sobre la información, sino más bien en un modelo generado para representar el diseño de los buques. El aspecto de la objetividad es esencial cuando se usa las medidas de complejidad y costos en un sistema de automatización del diseño. Finalmente con estas herramientas, los diseñadores podrían obtener medidas bien definidas y no parámetros de medición ambiguos de costos, de eficacidad y de complejidad en los artefactos de ingeniería. Estas medidas ayudan a los diseñadores y a las herramientas automatizadas de diseño, a ser objetivos y a comparar de manera cuantitativa las diferentes alternativas de solución del diseño, estimación de costos, así como también la optimización del diseño. En este doctorado, estos parámetros han sido aplicados y validados con éxito sobre el diseño de buques de pasajeros en condiciones industriales reales. In der Anfangsphase einer Produktentwicklung getroffene Entscheidungen definieren 60% bis 90% der Gesamtkosten eines Produktes. Daher ist es absolut notwendig Performance, Kosten, Produktion, Designkomplexität in der Entstehungsphase eines Produktes zu betrachten. Das Haupthindernis hierbei ist das Fehlen von praktikablen und zuverlässigen Kosten- und Performancemodellen, welche sich in den komplexen Designprozess wie in der Schiffbauindustrie integrieren lassen. Konventionelle Modelle und Analysemethoden berücksichtigen oft nicht all die wichtigen Performance-, kosten-, produktion-, und Lebenszyklus-relevanten Variablen. Unsere Herausforderung, dass das Erreichen dieser Sensibilität in der Anfangsphase der Produktentwicklung, benötigt fast immer Daten, die erst in der Phase der Detailkonstruktion zur Verfügung stehen. Die konventionelle Entwurfsmethoden berücksichtigen nicht angemessen und früh genug die Produktion und das Lebenszyklen-Engineering, welche eine positive Auswirkung auf das Design haben. Ein integrierter Ansatz entlang des Lebenszyklus eines Schiffes und das Praktizieren von Concurrent Engineering können die Schwäche des konventionellen Entwurfsprozesses beseitigen. Innovation ist notwendig im Strukturentwurf und in der Kostenanalyse. Die Anwendung von Design for X und besonders Design for Production and Cost Scheme während der Entwurfsphase ist die Lösung: Um die Fehlerquote verursacht durch Missverständnisse und die Entwurfs- und Produktionszeit zu reduzieren, sowie um eine höhere Anzahl von Entwurfsvarianten zu ermöglichen. Der Autor hat einige Analysemethoden für Kosteneffektivität und Komplexitätsmaßnahmen für die Anwendung durch Schiffsentwerfer für die Echtzeit-Steuerung von Kostenprozess entwickelt. Das Ergebnis ist, dass das Management korrigierende Maßnahmen in kurzer Zeit treffen kann, um eine ungünstige Performance zu verbessern bzw. zu vermeiden. Im Grunde beschaffen diese Methoden den Entwurfsingenieuren mit objektiven und quantifizierten Kosten- und Komplexitätsmaßnahmen. Dies vereinfacht das Treffen von vernünftigen Entwurfsentscheidungen über die gesamte Entstehungsphase eines Schiffes. Die in dieser Arbeit vorgestellten Maßnahmen basieren auf Techniken wie die Entscheidungsanalyse, das Data-Mining, neurale Netze und die Fuzzy-Logik. Es sind objektive Fakten, welche nicht von der Interpretation des Ingenieurs abhängen, sondern von einem generierten Model, um den Schiffsentwurf darzustellen. Der objektive Aspekt ist essenziell bei der Anwendung von Komplexitäts- und Kostenmaßnahmen in einem automatisierten Entwurfssystem. Mit diesen Werkzeugen sollte der Entwerfer gut-definierte und eindeutige Werte für Maßnahmen von unterschiedlicher Natur von Kosteneffektivität und -komplexität erhalten. Diese Werte helfen dem Entwerfer und automatisierten Entwurfssystemen, objektive zu sein. Ferner, ermöglichen diese Werte quantitative Vergleiche von Entwurfsvarianten, Kostenabschätzung und Entwurfsoptimierung. Diese Werte wurden im Rahmen eines Studienfalles mit realen Voraussetzungen (Entwurf von Passagierschiffen) erfolgreich angewendet und validiert.
5

Identification and control of wet grinding processes: application to the Kolwezi concentrator / Identification et commande de procédés de broyage humide: application au concentrateur de Kolwezi

Mukepe Kahilu, Moise 17 December 2013 (has links)
Enhancing mineral processing techniques is a permanent challenge in the mineral and metal industry. Indeed to satisfy the requirements on the final product (metal) set by the consuming market, control is often applied on the mineral processing whose product, the ore concentrate, constitutes the input material of the extractive metallurgy. Therefore much attention is paid on mineral processing units and especially on concentration plants. As the ore size reduction procedure is the critical step of a concentrator, it turns out that controlling a grinding circuit is crucial since this stage accounts for almost 50 % of the total expenditure of the concentrator plant. Moreover, the product particle size from grinding stage influences the recovery rate of the valuable minerals as well as the volume of tailing discharge in the subsequent process.<p> The present thesis focuses on an industrial application, namely the Kolwezi concentrator (KZC) double closed-loop wet grinding circuit. As any industrial wet grinding process, this process offers complex and challenging control problems due to its configuration and to the requirements on the product characteristics. In particular, we are interested in the modelling of the process and in proposing a control strategy to maximize the product flow rate while meeting requirements on the product fineness and density.<p> A mathematical model of each component of the circuit is derived. Globally, the KZC grinding process is described by a dynamic nonlinear distributed parameter model. Within this model, we propose a mathematical description to exhibit the increase of the breakage efficiency in wet operating condition. In addition, a relationship is proposed to link the convection velocity to the feed ore rate for material transport within the mills.<p> All the individual models are identified from measurements taken under normal process operation or from data obtained through new specific experiments, notably using the G41 foaming as a tracer to determine material transport dynamics within the mills. This technique provides satisfactory results compared to previous studies.<p>Based on the modelling and the circuit configuration, both steady-state and dynamic simulators are developed. The simulation results are found to be in agreement with the experimental data. These simulation tools should allow operator training and they are used to analyse the system and to design the suitable control strategy.<p> As the KZC wet grinding process is a Multi-Input Multi-Output (MIMO) system, we propose a decentralized control scheme for its simplicity of implementation. To overcome all the control issues, a Double Internal Model Control (DIMC) scheme is proposed. This strategy is a feedforward-feedback structure based on the use of both a modified Disturbance Observer (DOB) and a Proportional-Integral Smith-Predictor (PI-SP). A duality between the DOB and PI-SP is demonstrated in design method. The latter is exploited to significantly simplify the design procedure. The designed decentralized controllers are validated in simulation on the process linearized model. A progressive implementation of the control strategy is proposed in the context of the KZC grinding circuit where instrumentation might not be obvious to acquire./<p><p> Améliorer les techniques de traitement de minerais est un défi permanent dans l'industrie des minéraux et des métaux. En effet, pour satisfaire aux exigences du produit fini (métal ) fixées par le marché de consommation, la commande automatique est souvent appliquée à l'usine du traitement de minerais dont le produit, le concentré, constitue la matière première de la métallurgie extractive. Une attention particulière est donc dévolue aux unités de traitement de minerais et en particulier aux concentrateurs. Comme le processus de réduction des dimensions granulométriques du minerai est l'étape critique d'un concentrateur, il s'avère que la commande d'un circuit de broyage est cruciale, car ce stade représente près de 50 % des dépenses totales de l' usine de concentration. De plus, la dimension granulométrique du produit de l'étape de broyage influe sur le taux de récupération des minéraux utiles ainsi que sur le volume des rejets du processus ultérieur.<p> La présente thèse porte sur une application industrielle, à savoir le concentrateur de Kolwezi (KZC qui est un circuit de broyage humide à double boucle fermée. Comme tout processus industriel de broyage humide, ce procédé présente une problématique de commande complexe et difficile en raison de sa configuration et des exigences relatives aux caractéristiques du produit. En particulier, nous nous intéressons à la modélisation de ce procédé et à proposer une stratégie adéquate de commande dans le but de maximiser le débit de production tout en respectant les exigences quant à la finesse et à la densité de la pulpe produite.<p> Un modèle mathématique de chaque composant du circuit a été déterminé. Globalement, le processus de broyage de KZC est décrit par un modèle dynamique non linéaire à paramètres distribués. Dans ce modèle, une description mathématique de l'augmentation de l'efficacité du broyage en milieu humide est proposée. En outre, nous avons proposé une relation liant la vitesse de convection au débit d'alimentation de minerais dans le modèle du transport de la matière à l'intérieur des broyeurs.<p> Tous les modèles mathématiques ont été identifiés à partir de mesures prises sur le procédé en fonctionnement d'équilibre stable ou à partir des données obtenues grâce à des nouvelles expériences spécifiques, notamment en utilisant le moussant G41 comme traceur pour déterminer la dynamique de transport de la matière dans les broyeurs. Cette technique a produit des résultats cohérents par rapport aux études antérieurs réalisées au moyen du traceur colorant ou radioactif.<p> Les simulateurs statique et dynamique ont été développés sur la base de la modélisation mathématique et de la configuration du circuit. Les résultats des simulations sont en accord avec les données expérimentales. Ces outils de simulation devraient permettre la formation des opérateurs et ont été utilisés pour analyser le système et concevoir la stratégie de commande la plus appropriée.<p> Comme le processus de broyage humide de KZC est un système à plusieurs grandeurs d'entrée et plusieurs grandeurs de sortie, nous avons proposé une structure de commande décentralisée en raison de sa simplicité de mise en œuvre .Afin de surmonter tous les problèmes de commande, un schéma de commande à double modèle interne (CDMI) est proposée. Cette stratégie est une structure à anticipation - rétroaction basée sur l'utilisation d'un observateur de perturbations (OBP) et d'un Prédicteur de Smith doté d'un régulateur Proportionnel-Intégral (PS-PI). Une dualité entre l'OBP et le PS-PI est démontrée dans la méthode de conception. Cette propriété est exploitée pour simplifier considérablement la procédure de conception. Les régulateurs décentralisés ainsi conçus sont validés en simulation sur le modèle linéarisé du procédé. Une mise en œuvre progressive de la stratégie de commande est proposée dans le contexte du circuit de broyage de KZC où l'instrumentation peut ne pas être évidente à acquérir.<p> <p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.1301 seconds